Experten der KI warnen vor eigener Erfindung: So gefährlich wie Pandemie oder Atomwaffen?

von | 03.06.2023 | Digital

Eine lautstarke Warnung vor KI schreckt die Menschen auf: Die neue Technologie sei so gefährlich wie Atomwaffen oder Pandemien. Da ist was dran. Allerdings ist nicht die Technologie an sich gefährlich, sondern der Mensch, der sie missbrauchen könnte.

Das Risiko der Auslöschung durch Künstliche Intelligenz einzudämmen, sollte weltweit genauso Priorität haben wie das anderer gesellschaftlicher Risiken wie etwa Pandemien und Atomkrieg.

Eine Botschaft, veröffentlicht vom Zentrum für KI-Sicherheit in San Francisco. Hunderte Wissenschaftler und Experten haben die Note unterzeichnet. Darunter führende Forscher auf dem Feld der Künstlichen Intelligenz (KI), der Chef von Google DeepMind, der Technikchef von Microsoft. Und Sam Altman, dessen Firma OpenAI die Künstliche Intelligenz mit ChatGPT gerade so sehr in der Mitte der Gesellschaft ankommen lässt, dass jeder sie versteht und nutzen kann.

Hollywood hat die Dystopie längst umsatzwirksam durchdacht und bebildert. Im „Terminator“ unterwirft ein Heer von Robotern, gesteuert durch KI, die Menschheit. Doch glaubt man einigen Kritikern und Experten, könnte diese Hollywood-Phantasie zur Wirklichkeit werden.

Jedenfalls warnen Hunderte Experten mit einem auffallend kurzen und allgemein gehaltenen Statement diese Woche vor künstlicher Intelligenz gewarnt: „Es sollte global priorisiert werden, das Risiko der Auslöschung durch KI zu verringern – auf einer Stufe mit anderen Risiken für die gesamte Gesellschaft, wie etwa Pandemien und Nuklearkrieg“. Das ist eine Ansage. Bedroht uns KI, und wie tut sie das und was können oder sollten wir dagegen tun?

ChatGPT: Mit 100 Mio. Anwendern nach drei Monaten die am schnellsten wachsende App aller Zeiten

ChatGPT: Mit 100 Mio. Anwendern nach drei Monaten die am schnellsten wachsende App aller Zeiten

Viele prominente Köpfe haben das Papier unterzeichnet

Das unterzeichnete Papier hat weltweit für Aufsehen gesorgt. Unterschrieben unter anderem von Sam Altman, dem Chef von OpenAI. Wer steckt sonst noch dahinter?

Es haben auch andere echte Größen unterschrieben, die – anders als viele andere – wirklich was von der Materie verstehen, etwa Demis Hassabis, Chef von Google KI-Abteilung DeepMind. Oder auch KI-Forscher Geoffrey Hinton, der lange Jahre bei Google gearbeitet hat und umwälzende neue Technologien entwickelt hat, auf die moderne KI-Systeme heute wie selbstverständlich fußen.

Veröffentlicht wurde die Botschaft vom Center for AI Safety, Zentrum für KI-Sicherheit, in San Francisco. Nicht das erste Mal. Bereits im März hatten Hunderte Fachleute ein Moratorium gefordert: Ein Einfrieren der Entwicklung von KI auf dem aktuellen Stand. Denn: Die Leistungsfähigkeit von KI entwickelt sich derzeit rasant – nicht zuletzt aufgrund des riesengroßen Wettbewerbs.

Alle großen Konzerne, ob Microsoft, Google, Meta und all die anderen entwickeln gerade KI-Systeme. Überall stehen Geschäftsmodelle in Frage, etwa: Brauchen wir in Zukunft noch eine Suchmaschine? Deswegen kann sich keiner zurücklehnen und abwarten…

GAN: KI-Systeme trainieren sich gegenseitig

GAN: KI-Systeme trainieren sich gegenseitig

Die Debatte ist wichtig

Aber was genau ist denn die Sorge? Es gibt ja apokalyptische Befürchtungen wie „Es droht das Ende der Menschheit“. Ist das denn realistisch oder nicht doch ein wenig zu sehr Terminator?

Es ist auf jeden Fall gut, darüber zu sprechen, damit Chancen und Risiken so gut wie möglich abgewogen werden. Eine Sorge ist zum Beispiel, dass sich mit KI biologische Waffen entwickeln ließen. Was absolut denkbar ist. Gerade erst haben Forscher mit KI womöglich ein Antibiotikum gegen einen multiresistenten Keim entwickelt. Das ist toll. Aber wenn man das kann, dann kann man auch das Gegenteil und einen gefährlichen Wirkstoff entwickeln.

Es wird auch befürchtet, dass Unternehmen mit KI andere Dinge entwickeln, die der Menschheit schaden oder sie unterjochen könnten.

Last not least, und das ist eine mehr als berechtigte Sorge, dass KI zu einer Monopolisierung führt. Denn wer versteht solche Systeme, wer kann sie entwickeln und kontrollieren? Das werden am Ende einige wenige Konzerne sein. Und die sitzen alle nicht in Europa, weil wir keine Innovation auf diesem Niveau können. Das bedeutet eine enorme Abhängigkeit. Dazu brauche es Regeln – und geeignete Mechanismen zur globalen Kontrolle, ähnlich den Untersuchungen von Nuklearanlagen. Prinzipiell zweifellos ein richtiger Gedanke.

Auch für KI braucht es Regeln

Auch für KI braucht es Regeln

Nicht alle teilen die Sorge

Aber sind sich denn da alle einig, dass es strenge Regeln braucht, weil es sonst ganz schlimm wird?

Es gibt Widerspruch, zweifellos. Etwa von Yann LeCun, der den Turing Award gewonnen hat, eine der größten und bedeutendsten Auszeichnungen in der Informatik. Er bezeichnet die aktuellen Warnungen als „KI Doomismus“. Denn niemand wisse bislang, wie man eine „generelle Intelligenz“ oder „starke KI“ oder auch „Superintelligenz“ bauen könnte.

So werden KI-Systeme genannt, die prinzipiell in der Lage wären, ausnahmslos jede intellektuelle Aufgabe zu verstehen oder zu erlernen, die auch der Mensch verstehen und erlernen kann. Bislang sind KI-Systeme sehr gut in einem sehr eng umrissenen Gebiet.

Von allgemeiner Intelligenz kann keine Rede sein. Aber das ist die Befürchtung: Sollte es mal eine KI geben, die „stark“ ist und alles versteht, wird sie den Menschen übertreffen. Dieser Moment wird „Singularität“ genannt, da er nur einmal eintrifft. Ab da wären die KI-Systeme dem Menschen kognitiv überlegen, da sie schneller lernen und verstehen und sich gegenseitig trainieren könnten.

Der Mensch wäre per Definition nicht mehr in der Lage, zu verstehen, was da abgeht. Eine solche Situation wäre möglicherweise gefährlich und muss verhindern werden, sagen die einen. Es wäre die große Chance, über uns hinauszuwachsen, sagen die anderen.

Auch in der Welt der Medien spielt KI eine große Rolle

Das klingt ja wirklich nach enormen Herausforderungen.  In der Welt der Medien spielt KI auch eine große Rolle. KI kann Texte, Bilder, Audios und Videos erzeugen, die echt aussehen. Stellt sich die Frage: Wie werden wir, ganz nornale Menschen, erkennen können in Zukunft, was echt ist und was nicht?

Noch gelingt das, wenn man ganz genau hinschaut oder hinhört. Audios von KI klingen nicht perfekt – aber schon nahezu, das muss man sagen. Auch Fotos sehen immer echter aus.

Bei Videos dauert es sicher noch ein bisschen. Aber wir sind gut beraten, nicht einfach alles zu glauben, was uns auf Social Media begegnet. Lieber einmal mehr kritisch draufschauen und fragen: Kann das sein? Früher oder später werden wir Tools bekommen, um Medien zu überprüfen: Wie wahrscheinlich ist es, dass hier KI am Werke war?

So etwas gibt es schon, muss aber für jeden verfügbar sein. In Zukunft werden besonders wichtige Quellen, etwa Nachrichtenagenturen, Sender wie wir oder auch offizielle Pressestellen – etwa aus Ministerien – Inhalte mit einem digitalen Zertifikat versehen, damit wir einfach erkennen können: Das ist echt und nicht manipuliert oder erzeugt.

 

 

Schieb App