cosmotech

Künstliche Intelligenz – kurz KI oder auch „Artificial Intelligence“ (AI) genannt – ist auf dem Vormarsch. Überall finden wir KI. In den Sozialen Netzwerken soll sie aufräumen und für weniger Hasskommentare sorgen. In den Digitalen Assistenten wie Siri, Alexa und Co. soll sie unsere Fragen beantworten. Und in der Wirtschaft und Medizin soll sie knifflige Aufgaben lösen. Aber ist KI wirklich das, was sie verspricht: ein Allheilmittel? Im Cosmotech Podcasts gehen Dennis und ich dem Thema auf den Grund.

Für die meisten von uns ist „Künstliche Intelligenz“ ja eher ein abstrakter Begriff. Schwierig einzuschätzen, was KI kann, wo die Grenzen von KI sind – und ob KI uns nicht vielleicht teilweise sogar mehr Probleme macht als löst. Darum haben Dennis und ich genauer hingeschaut – und erklären in unserem Podcast sehr ausführlich, wie KI angefangen hat, was KI kann und was nicht und warum „KI“ eigentlich vom Begriff her eine Mogelpackung ist…

Moment… Eine Mogelpackung? Wieso?

Weil der Begriff „Intelligenz“ falsche Erwartungen weckt. KI ist nicht intelligent. KI kann nicht kreativ sein, nicht empathisch, nicht emotional – aus einem einfachen Grund: Weil sich ein Computer nicht wirklich der Endlichkeit seiner Existenz bewusst sein kann. Wir Menschen schon. Das macht das Wesen von Intelligenz aus. Alles, was wir tun, hängt letztendlich davon ab. Bedingt Intelligenz. KI hat das nicht – und ist deshalb nicht „intelligent“, sondern bestenfalls eine extrem schnelle und sehr effektive Entscheidungs-Maschine. Aber weil wir von „KI“ sprechen, weckt das Erwartungen – die Maschine soll schlauer werden als wir Menschen.

Wir haben mit führenden Wissenschaftlern und Entwicklern gesprochen, die KI-Systeme entwickeln – bei Facebook. In der Zentrale in Paris werden KI-Systeme für die ganze Welt entwickelt. Was genau wird da gemacht?

Wie Facebook KI einsetzt

Facebook ist einer der großen KI-Treiber. Das Unternehmen steckt sehr viel Geld in KI. Denn mit KI sollen drängende Probleme gelöst werden. KI soll Hasskommentare erkennen, Desinformation markieren, Wahlmanipulation verhindern und vieles andere mehr.

Aber KI wird die Probleme nie lösen können, jedenfalls nie zu 100%. Da sind sich sogar die Entwickler bei Facebook sicher. Chefentwickler Yann LeCun zum Beispiel antwortet Dennis auf die Frage, ob mit KI denn zum Beispiel das Ausspielen eines Live-Videos wie in Christchurch – wir erinnern uns: Im März hat ein Attentäter ein Live-Video auf Facebook gestartet und seine Mordserie live gestreamt – ob sich so etwas verhindern ließe: Nein!

LeCun denkt erst lange nach. Dann sagt er: Das wäre schwer. Nein, das wäre unmöglich, sagt der Chefentwickler von Facebook – und widerspricht damit im Grunde der Aussage von Facebook, derartiges würde sich nie wiederholen.

KI lässt sich verbessern und einsetzen, um zum Beispiel die weitere Verbreitung solcher abscheulichen Videos zu erschweren oder verhindern. Aber 100% Schutz kann KI nicht leisten.

Was sonst noch im Podcast zu hören ist

Wir gehen zum Beispiel auch der Frage nach, auf welche Art und Weise KI lernt. Da gibt es unterschiedliche Methoden. Und auch unterschiedliche Schwierigkeiten, denn auch KI kann diskriminieren: Menschen mit dunkler Hautfarbe zB werden von KI-Systemen in autonomen Fahrzeugen schlechter erkannt auf der Straße als Menschen mit heller Hautfarbe. Ein riesiges Problem. Wir erläutern im Podcast die Hintergründe.

Hier gibt es den Podcast zum Download/im Abo