Warum KI keine Probleme löst, sondern vermutlich sogar welche schafft

von | 16.10.2018 | Digital

Künstliche Intelligenz (KI) ist längst mehr als nur ein Buzzword – sie ist zum omnipräsenten Werkzeug geworden. Von ChatGPT über Midjourney bis hin zu autonomen Fahrzeugen: KI verspricht Lösungen für praktisch jedes Problem. Doch wer genauer hinschaut, erkennt: KI löst keine fundamentalen Probleme, sondern verschiebt sie nur – und schafft dabei völlig neue Herausforderungen.

Ich denke gerade viel über Künstliche Intelligenz (KI) nach. Die Zeiten zwingen uns regelrecht dazu, schließlich kommt immer öfter KI zum Einsatz. Erst lautstark – etwa, als die Maschine zum ersten Mal besser das Brettspiel „Go“ spielte als der Mensch. Oder lautlos, etwa wenn Maschinen unsere Kreditfähigkeit bewerten oder für uns entscheiden, welche Inhalte wir zu sehen bekommen. Heute schon ist KI überall – wir bekommen es nur kaum mit.

Seanbatty / Pixabay

 

KI-Boom 2023-2026: Mehr Hype als Substanz?

Seit dem ChatGPT-Durchbruch Ende 2022 erleben wir eine regelrechte KI-Euphorie. Generative KI wie GPT-4o, Claude 3.5 oder Gemini Ultra versprechen, unsere Arbeit zu revolutionieren. Bildgeneratoren wie DALL-E 3, Midjourney V6 oder Adobe Firefly sollen Kreativität demokratisieren. Coding-Assistenten wie GitHub Copilot oder Cursor wollen das Programmieren vereinfachen.

Doch was passiert wirklich? Studenten lassen ihre Hausarbeiten schreiben und lernen nicht mehr selbst zu denken. Journalisten produzieren KI-generierten Content ohne eigene Recherche. Programmierer verlassen sich auf Code-Vorschläge, ohne die Logik dahinter zu verstehen. Die vermeintliche Effizienzsteigerung entpuppt sich als Kompetenz-Erosion.

Die Schattenseiten der KI-Revolution

Bedenken gegen KI sind verständlicher denn je. Die Technologie ist völlig intransparent geworden – selbst bei Open-Source-Modellen weiß niemand, was in den Milliarden Parametern steckt. Large Language Models halluzinieren, erfinden Fakten und präsentieren sie überzeugend. Deepfakes werden so realistisch, dass sie Wahlen beeinflussen können.

Dazu kommen massive Umweltprobleme: Training von GPT-4 verbrauchte schätzungsweise so viel Strom wie 1.000 US-Haushalte in einem Jahr. Die KI-Rechenzentren von Google, Microsoft und OpenAI treiben den globalen Energieverbrauch in die Höhe – ausgerechnet in Zeiten des Klimawandels.

Die Menschen wissen nicht, welche Daten die Maschinen ansammeln und was sie damit anstellen. Oder sie fürchten um ihre Jobs. Alles sehr wohl begründete Sorgen. Die zentrale, alles entscheidende Frage ist aber: Ist KI gut für uns? Ich fürchte: Nein.

Denn warum entwickeln Menschen eigentlich KI-Systeme? Die psychologischen Hintergründe scheinen eindeutig: Wer ein KI-System erschafft, macht sich unsterblich. Der „Nachwuchs“ lernt ständig dazu, wächst über sich hinaus (zumindest ist das das Ziel). Die reine Freude für jeden Narzissten – und genau das ist die Motivation der meisten KI-Entwickler.

Julia Krüger fordert: Wir sollen wissen, was KI macht

Symptom-Behandlung statt Ursachen-Bekämpfung

Die wahren Probleme werden nicht gelöst. KI-Systeme können heute tatsächlich beeindruckende Leistungen vollbringen: Sie entdecken neue Medikamente, optimieren Verkehrsflüsse oder helfen bei Klimaprognosen. Doch was passiert dabei wirklich?

Wenn erst mal Algorithmen individuelle Therapien vorschlagen, wird schon bald kein Arzt mehr wagen, diese Empfehlungen vom „schlauesten Mediziner der Welt“ zu hinterfragen. Faktisch entscheiden dann Maschinen über Leben und Tod. Irgendwann ist das selbstverständlich – aber ist es auch erstrebenswert?

Statt Krankheiten mit KI zu heilen, könnten wir sie durch bessere Lebensbedingungen vermeiden. Statt Verkehr mit Algorithmen zu optimieren, könnten wir den öffentlichen Nahverkehr ausbauen. Statt das Klima mit KI zu modellieren, könnten wir endlich konsequent CO2 reduzieren.

KI schafft neue Abhängigkeiten

Je mehr wir uns auf KI verlassen, desto abhängiger werden wir. Schüler können ohne ChatGPT keine Texte mehr schreiben. Fotografen sind auf KI-Filter angewiesen. Entwickler verstehen ihren eigenen Code nicht mehr, wenn ihn KI generiert hat.

Diese Abhängigkeit macht uns verwundbar. Was passiert, wenn die KI-Systeme ausfallen? Wenn sie gehackt werden? Wenn ihre Betreiber die Spielregeln ändern? Wir haben unsere Autonomie gegen vermeintliche Effizienz getauscht – ein schlechter Deal.

Dazu kommt: KI verstärkt bestehende Ungleichheiten. Nur große Tech-Konzerne können sich die Entwicklung leistungsstarker Modelle leisten. Kleinere Unternehmen und Entwicklungsländer werden abgehängt. Die Digitalisierung wird zur neuen Zwei-Klassen-Gesellschaft.

Was wir stattdessen brauchen

Statt blind auf KI zu setzen, sollten wir uns fragen: Was bewirkt diese Technologie langfristig? Löst sie unsere fundamentalen Probleme oder lenkt sie nur davon ab?

Wir brauchen mehr digitale Bildung, damit Menschen KI kompetent nutzen können. Wir brauchen Transparenz und Regulierung, damit KI-Systeme nachvollziehbar werden. Und wir brauchen den Mut, „Nein“ zu sagen, wenn KI mehr schadet als nützt.

KI ist nicht per se schlecht – aber sie ist auch kein Allheilmittel. Wer das versteht, kann sie als Werkzeug nutzen, ohne ihr zum Opfer zu fallen. Die Zukunft gehört nicht denen, die am besten mit KI umgehen können, sondern denen, die am besten entscheiden können, wann sie KI brauchen – und wann nicht.

Zuletzt aktualisiert am 07.03.2026