Meta AI soll mit Postings von Nutzer trainiert werden

Meta AI soll mit Postings von Nutzer trainiert werden

Mark Zuckerbergs Meta-Konzern, zu dem bekanntlich Facebook und Instagram gehören (sowie WhatsApp und Threads), will seine KI-Modelle künftig mit Beiträgen deutscher Nutzer trainieren. Wer das nicht möchte, muss widersprechen.

Auch Meta entwickelt Künstliche Intelligenz. Das KI-Modell Llama ist sogar sehr gut und OpenSource zu haben.

Meta AI soll eine Art ChatGPT werden

Jetzt entwickelt der Konzern an der Meta AI, eine Forschungsinitiative und Abteilung von Meta Platforms (ehemals Facebook), die sich auf die Entwicklung und den Einsatz von Künstlicher Intelligenz (KI) konzentriert.

Das Ziel von Meta AI ist es, durch fortschrittliche Forschung und Technologie innovative Lösungen zu schaffen, die das Verständnis und die Interaktion mit der digitalen Welt verbessern.

Meta AI arbeitet an einer Vielzahl von Projekten, die von natürlicher Sprachverarbeitung und Computer Vision bis hin zu maschinellem Lernen und Robotics reichen. Dabei werden sowohl Grundlagenforschung als auch anwendungsbezogene Entwicklungen vorangetrieben.

Ein zentrales Anliegen von Meta AI ist es, KI-Systeme zu entwickeln, die sicher, fair und nützlich für die Gesellschaft sind. Hierzu gehört auch die Erforschung ethischer und sozialer Aspekte der KI, um sicherzustellen, dass die Technologien verantwortungsvoll eingesetzt werden.

Meta AI veröffentlicht regelmäßig Forschungsergebnisse und arbeitet oft mit akademischen Institutionen und anderen Industriepartnern zusammen, um den Fortschritt in der KI-Forschung zu fördern und den Wissensaustausch zu unterstützen.

Durch diese Bemühungen trägt Meta AI dazu bei, die Möglichkeiten der Künstlichen Intelligenz weiter auszubauen und deren Nutzen für die Menschen zu maximieren.

Die Funktion zum Widerspruch ist gut versteckt
Die Funktion zum Widerspruch ist gut versteckt

Training für Meta AI steht bevor

Aber auch Künstliche Intelligenz (KI) muss zur Schule gehen. In der KI-Welt wird das „Training“ genannt: Chatbots lernen wie man spricht und schreibt, indem sie sich möglichst viele Texte anschauen.

Bildgenerierende KIs lernen, indem sie sich möglichst viele Bilder und Fotos anschauen. Und prinzipiell gilt: Je mehr valide Daten zum Training vorliegen, desto besser.

Der Meta-Konzern entwickelt fleißig an einer (weiteren) „Meta AI“, die Texte und Bilder erzeugen können soll. Die soll natürlich auch gut Deutsch können. Das geht nicht, ohne sich möglichst viele Texte und Formulierungen von Menschen angeschaut zu haben. Zum Beispiel Postings auf Facebook oder Instagram. Da gibt es jede Menge Input.

Meta will mit Inhalten von Postings die KI trainieren

Genau hier entsteht Widerstand. Meta kündigt seit einigen Tagen – quasi im Kleingedruckten auf Instagram und Facebook – genau das an, dass KI-Modelle nun auch mit den Postings deutscher Nutzer trainiert werden – und erläutert das auch in einem Informationstext auf der Plattform.

Zum Training der KI will Meta nach eigenen Angaben eine Kombination verschiedener Quellen nutzen, darunter Inhalte auf Facebook, Instagram und bislang weniger bekannt Netzwerk Threads. Von der KI gelesen werden Beiträge, Fotos und deren Bildunterschriften, so der Infotext.

Bei einem KI-Training werden keine direkten personenbezogenen Daten gespeichert. Es ist jedoch nicht völlig auszuschließen, dass sich nach einem Training Spuren in der KI finden, die Rückschlüsse auf eine Person zulassen. Während das die einen unbedingt wollen, um auch in KI gefunden zu werden, können andere darauf verzichten.

Das Kleingedruckte: Wer der Nutzung seiner Daten widersprechen möchte, muss ein Formular ausfüllen
Das Kleingedruckte: Wer der Nutzung seiner Daten widersprechen möchte, muss ein Formular ausfüllen

Privatnachrichten ausgeschlossen

Immerhin: „Wir trainieren unsere KIs nicht mit den Inhalten von Privatnachrichten, die du mit Familienmitgliedern oder Freunden austauschst.“ Private Chats sind also ausgeschlossen. Da die Kommunikation bei WhatsApp und mittlerweile auch beim Facebook Messenger sicher Ende zu Ende verschlüsselt erfolgt, wäre das ohnehin nicht möglich.

Damit das KI-Training in Europa möglich wird, sollen die Datenschutzrichtlinien entsprechend angepasst werden. Die strengen Datenschutzregeln, auch und insbesondere der neue „AI Act“, sehen das vor. Die neuen Regeln sollen am 26. Juni 2024 in Kraft treten.

Wer widersprechen will, muss ein Formular ausfüllen

Neue Regeln gelten aber nur, wenn die User nicht widersprechen. Wer dem Unternehmen Meta oder der rasant wachsenden KI-Technologie generell misstraut (denn niemand kann wissen, ob die von Meta trainierten Modelle nicht auch OpenSource verbreitet werden), hat nun Gelegenheit, der Nutzung seiner eigenen Postings und Beiträge für das KI-Training zu widersprechen.

Allerdings ist das umständlicher als es sein müsste. Anstatt einen simplen Button zum Akzeptieren oder Ablehnen anzubieten, ist es komplizierter. Die Nutzer müssen nach Ansicht von Meta nicht eindeutig zustimmen. Der Konzern beruft sich grundsätzlich auf die Rechtsgrundlage des „berechtigten Interesses“.

Die Folge: Wer nichts unternimmt, stimmt zu, Allerdings haben Nutzer ein Recht auf Widerspruch, von dem sie bis zum Stichtag Gebrauch machen müssten.

So klappt das mit dem Widerspruch

Unter Facebook steht ein Web-Formular zum Widerspruch zur Verfügung. In Facebook selbst ist der Link unscheinbar unter dem Begriff „Widerspruchsrecht“ verlinkt.

  1. Dazu am PC auf das Profilbild oben rechts klicken, am Smartphone auf die drei Striche (Hamburger-Menü) rechts unten tippen.
  2. Danach die Option „Einstellungen und Privatsphäre“ ansteuern und dort die „Einstellungen“.
  3. Ganz unten schließlich die „Datenschutzrichtlinie“ öffnen und im oberen Informationstext auf „Widerspruchsrecht“ klicken oder tippen.

Nutzer müssen ihre Entscheidung begründen

Unter Instagram finde sich dasselbe Formular unter diesem Link. Auch hier gibt es aber auch einen Weg über die Plattform:

  1. Zunächst die eigene Profilseite über das Profilbild aufrufen
  2. Danach am Desktop auf das Zahnrad klicken, am Smartphone auf die drei Stiche oben rechts tippen
  3. Anschließend am PC die „Einstellungen und Privatsphäre“ ansteuern und anschließend unten auf „Datenrichtlinie“ klicken; Smartphone-Nutzer scrollen runter, tippen auf „Info“ und zuletzt auf „Datenschutzrichtlinie“
  4. Nötigenfalls im Informationstext auf die Option „Widerspruchsrecht“ klicken oder tippen.

Das Web-Formular ist selbsterklärend. Allerdings muss der Wohnort angegeben werden (wegen der Gültigkeit der Verordnung), ebenso die E-Mail-Adresse des Meta-Kontos sowie eine schriftliche Erläuterung, warum und wie sich die Verarbeitung der eigenen Daten für das Training der Meta-KI auf die eigene Person auswirken könnte.

Die Begründung muss nicht ausführlich sein. Es reicht aufzuschreiben, dass man es nicht möchte.

Die Verbraucherzentrale schlägt folgende Begründungen vor:

  • „Ich habe das Urheberrecht an meinen geposteten Daten und erteile kein Nutzungsrecht für KI-Anwendungen.“
  • „Ich habe Angst davor, dass meine einmal für die KI genutzten Daten nicht mehr ordnungsgemäß gelöscht werden können, weil sie in das KI-Modell untrennbar eingegangen sind.“
  • „Ich habe schon einmal negative Erfahrungen mit dem Missbrauch meiner Daten gemacht und möchte daher meine Daten grundsätzlich nicht für KI-Anwendungen zur Verfügung stellen.“
Energiefresser Künstliche Intelligenz: KI verbraucht viel Energie und Ressourcen

Energiefresser Künstliche Intelligenz: KI verbraucht viel Energie und Ressourcen

Künstliche Intelligenz ist ein Wachstumsmarkt. Doch kaum einer spricht über den Energieaufwand, der mit dem KI-Einsatz einhergeht. Der US-Podcaster Paris Marx schon.

Es vergeht wohl kaum eine Woche, in der ich hier nicht mindestens ein, zwei Mal über Künstliche Intelligenz berichte. Und das sehr gerne, denn KI ist halt ein zunehmend wichtiges Thema.

Auch auf der republica war das so, der Digitalkonferenz in Berlin, die Montag gestartet und heute zu Ende gegangen ist. Da wurde viel über Chancen und Risiken der KI gesprochen.

Einen Bereich klammern aber fast alle aus: Welchen Preis zahlen wir eigentlich? KI ist nämlich extrem energiehungrig – und verbraucht sogar viel Wasser.

Who cares: Kaum jemand interessiert der Aufwand, der für KI erforderlich ist
Who cares: Kaum jemand interessiert der Aufwand, der für KI erforderlich ist

Who cares? Leider zu wenige…

Das offizielle Motto der republica lautet „Who cares?“. Ja, wen kümmert’s eigentlich, wie viel Energie Smartphones verbrauchen, wenn wir sie benutzen – und erst recht die immer populärer werdenden KI-Systeme?

Eine Anfrage bei einem ChatBot wie ChatGPT verbraucht so viel Strom wie 300 Mal Googeln. Mit KI Bilder, Audios oder bald Videos herzustellen ein Vielfaches davon.

Wir stehen erst am Anfang, was Künstliche Intelligenz betrifft. Aber eins ist klar: KI wird in alle Bereiche unseres Lebens vordringen, in den Privatbereich, aber auch in den Arbeitsbereich.

Generative KI wie ChatGPT ist super praktisch
Generative KI wie ChatGPT ist super praktisch

KI benötigt enorme Rechenkapazitäten

Und um KI anbieten zu können, braucht es Rechenkapazität – und zwar jede Menge. Deswegen bauen die Anbieter überall auf der Welt Rechenzentren. Und die brauchen vor allem eins: Energie. Strom, aber überraschenderweise auch Wasser und sehr viele Ressourcen.“

Google, Microsoft, Meta: Sie alle betreiben schon jetzt gigantische Rechenzentren, nur für KI-Anwendungen. Wir sehen sie nur nicht. Allein der Strombedarf ist gigantisch.

Prognosen gehen durch rasant steigende Nutzerzahlen von einem Stromverbrauch der weltweiten KI-Systeme von über 80 Terawattstunden pro Jahr aus. Das entspricht dem von ganzen Ländern wie den Niederlanden, Schweden oder Argentinien.

Paris Marx ist ein angesehener Tech-Kritiker aus Kanada
Paris Marx ist ein angesehener Tech-Kritiker aus Kanada

Paris Marx: Wir müssen genauer auf die Kosten schauen

Einer der wenigen, der in den USA laut Kritik übt, ist Paris Marx.

Er ist sehr bekannt für seinen Tech-kritischen Podcast Tech won’t save us – Technik wird uns nicht retten.

Paris Marx erklärt mir im Interview, dass der Energiebedarf der großen Rechenzentren schlichtweg gigantisch ist. Heutige Rechenzentren beherbergen zehntausende von Servern. Die verbrauchen Unmengen an Strom – und erzeugen jede Menge Hitze.

Die muss in Rechenzentren aber runtergekühlt werden. Häufig wird dazu Wasser benutzt. Grundwasser, das in den ländlichen Gebieten dann oft fehlt.

Wer hätte das gedacht: KI verbraucht Wasser

Wasserkühlung ist viel effektiver als Klimaanlagen, spart also Strom. Doch Wasser ist eine begrenzte Ressource – in den USA gibt es im Umfeld schon sehr viele Proteste der Bevölkerung, erzählt mir Paris Marx.

Aber auch für die Herstellung all der Hardware, also der Computer ist ein enormer Energieaufwand nötig, erklärt der Insider – und mahnt vor den Folgen.

Um all die Server für KI-Rechenzentren zu bauen, braucht es unvorstellbare Mengen an Ressourcen, Mineralien zum Beispiel. Um die zu gewinnen, wird ebenfalls jede Menge an Energie und Wasser verbraucht. Die Hardware wird aber schnell wieder aussortiert. Mangels vernünftigem Recycling entsteht so jede Menge Elektromüll.

E-Waste, weil Server schnell ausgemustert werden

Aspekte, die Politik und Konsumenten bislang nicht auf dem Zettel haben. Da der Einsatz von KI in den nächsten Jahren explodieren dürfte, wird das ein zunehmend wichtiges Thema.

Wir brauchen deshalb dringend Transparenz über verbrauchte Ressourcen, mahnen Experten wie Paris Marx – und klare Regeln. Wie in anderen Industrien auch.

KI kann auch sprechen: Die faszinierende Welt der Stimmensynthese

KI kann auch sprechen: Die faszinierende Welt der Stimmensynthese

Stell dir vor, du hörst die Stimme deines Lieblingsstars – aber es ist nicht wirklich seine Stimme. KI macht’s möglich.

Künstliche Intelligenz revolutioniert die Art und Weise, wie wir Sprache wahrnehmen und erzeugen. Erfahre, wie KI menschliche Stimmen lernen und täuschend echt imitieren kann – inklusive Emotionen.

Der KI-Stimmensynthesizer spricht auf Wunsch mit der sanften Stimme von Santa Claus
Der KI-Stimmensynthesizer spricht auf Wunsch mit der sanften Stimme von Santa Claus

Von Sprachsynthese zu Stimmenimitation

Die Erzeugung künstlicher Sprache ist keine neue Erfindung. Seit Jahrzehnten gibt es Sprachsynthese-Systeme, die geschriebenen Text in gesprochene Sprache umwandeln. Diese Systeme basieren auf einer Datenbank aufgenommener Sprachfragmente, die zu Wörtern und Sätzen zusammengefügt werden. Das Ergebnis klingt oft roboterhaft und unnatürlich.

Doch mit dem Aufkommen von Deep Learning und neuronalen Netzen hat sich das Feld rasant weiterentwickelt. Moderne KI-Systeme sind in der Lage, nicht nur Sprache zu generieren, sondern auch den Klang einer bestimmten Person zu imitieren – mit verblüffender Genauigkeit.

Das Geheimnis liegt in den Daten

Um eine Stimme zu synthetisieren, braucht die KI vor allem eines: Daten, und zwar jede Menge davon. Je mehr Audiomaterial einer bestimmten Person zur Verfügung steht, desto besser kann die KI deren stimmliche Eigenheiten erfassen und nachahmen.

Das Training erfolgt meist mit neuronalen Netzen, insbesondere sogenannten „Generative Adversarial Networks“ (GANs). Dabei lernen zwei Netzwerke quasi im Wettstreit: Ein Generator-Netz erzeugt Audiodaten, die der Originalstimme möglichst ähnlich sein sollen. Ein Diskriminator-Netz versucht, die generierten Daten von echten zu unterscheiden. Durch viele Trainingsrunden verbessern sich beide Netzwerke immer weiter.

Emotionen erwecken die Stimme zum Leben

Eine menschliche Stimme transportiert weit mehr als nur den gesprochenen Text. Betonung, Tonfall, Sprechgeschwindigkeit – all das verleiht dem Gesagten eine emotionale Färbung. Und genau diese Nuancen machen eine synthetisierte Stimme erst wirklich überzeugend.

Moderne Stimmenmodelle sind in der Lage, solche Feinheiten zu erfassen und wiederzugeben. Dafür analysieren sie nicht nur die Audiodaten selbst, sondern auch den Kontext, in dem sie gesprochen wurden. Mithilfe von Sentiment-Analyse und Textverständnis kann die KI die passende emotionale Färbung auswählen und auf den generierten Text übertragen.

KI kann jetzt prraktisch jede menschliche Stimme nachahmen - in Sekunden
KI kann jetzt prraktisch jede menschliche Stimme nachahmen – in Sekunden

Ein Blick in die Zukunft

Die Stimmensynthese hat in den letzten Jahren enorme Fortschritte gemacht. Aktuelle Systeme wie WaveNet von Google oder Real-Time Voice Cloning von Baidu erzeugen Ergebnisse, die von echten Stimmen kaum noch zu unterscheiden sind.

Doch die Entwicklung geht weiter. Forscher arbeiten daran, die benötigte Datenmenge zu reduzieren und die Flexibilität der Modelle zu erhöhen. Bald könnten wir KI-Systeme haben, die nach dem Hören weniger Sätze eine Stimme imitieren und beliebige Texte darin vorlesen können – inklusive lebensechter Emotionen.

Die Möglichkeiten sind faszinierend: Virtuelle Assistenten mit der Stimme eines geliebten Menschen, personalisierte Hörbücher oder sogar „Gespräche“ mit historischen Persönlichkeiten. Zugleich wirft die Technologie auch ethische Fragen auf, etwa nach dem Schutz der Persönlichkeitsrechte. Eines ist sicher: Stimmensynthese wird in Zukunft eine immer größere Rolle spielen – und wir sollten sowohl die Chancen als auch die Herausforderungen im Blick behalten.

KI: Scarlett Johanssen beklagt, dass eine Stimme von ChatGPT ihrer ähnelt

KI: Scarlett Johanssen beklagt, dass eine Stimme von ChatGPT ihrer ähnelt

Hollywood-Star Scarlett Johanssen beklagt sich: OpenAIs ChatGPT 4o würde in der App eine Stimme namens „Sky“ verwenden, die ihrer Stimme extrem ähnelt. Ein Streit ist entbrannt.

Seit einigen Monaten reden wir gefühlt ständig über Künstliche Intelligenz. Das war keineswegs immer so. Vor zehn Jahren war KI kaum ein Thema. Außer in dem Kinofilm „Her“ von Spike Jonze. Da verliebt sich ein Mann in die Stimme der virtuellen KI-Assistentin, die alles für ihn erledigt.

KI-Systeme können heute perfekt Stimmen immitieren: Scarlett Johanssen hat sich beschwert
KI-Systeme können heute perfekt Stimmen immitieren: Scarlett Johanssen hat sich beschwert

Gesprochen wurde diese Rolle damals von Scarlett Johanssen. Sie war nicht zu sehen, nur zu hören. Und nun plötzlich kommt die Firma OpenAI, die hinter ChatGPT, und lässt den Chatbot mit einer Stimme sprechen, die doch verdächtig nach der der Schauspielerin zu klingen scheint.

Und genau deswegen ist Streit entbrannt.

ChatGPT spricht mit mehreren Stimmen

Vor einer Woche hat OpenAI die neue Version seines Chatbots ChatGPT 4o vorgestellt – wir haben hier darüber gesprochen. Und mit diesem Chatbot kann man sprechen: Ich frage etwas, der Chatbot antwortet mit einer künstlichen Stimme.

Ich kann aus mehreren Stimmen auswählen. Eine nennt sich „Sky“ – und die klinge doch sehr verdächtig nach der von Scarlett Johanssen, meint die Schauspielerin selbst und verdächtigt das Unternehmen, ihre Stimme geklaut zu haben. Der Fall wird untersucht. OpenAI hat aktuell die Stimme „Sky“ aus dem Programm genommen.

Stimmen klonen: Für KI heute kein Problem

Aber könnte man denn theoretisch die Stimme eines Schauspielers wie Scarlett Johansson klonen und welchen Aufwand müsste man da betreiben?

Es ist heute ohne weiteres möglich, die Stimmen von Schauspielern zu klonen – von den meisten liegt reichlich und damit mehr als genug Audio-Material zur Verfügung, um eine Stimm-KI zu trainieren. Für eine durchschnittliche bis gute Klone-Stimme reichen 30 Sekunden bis zwei Minuten; schon kann man eine Stimme recht gut klonen. Um eine Stimme exzellent zu klonen, braucht es etwas mehr, aber fünf bis zehn Minuten reichen aus, um eine wirklich exzellente Stimme zu klonen.

Hier werden meist ganz bestimmte Sätze eingesprochen, damit auch schwierigere Wörter und bestimmte Herausforderungen wie Aussprache, Akzent, Sprechtempo optimal eingefangen und „gelernt“ werden können.

Dann ist es möglich, eine solche Stimme so ziemlich alles sagen zu lassen – und mittlerweile sind auch Emotionen möglich. Im Englischen sind KI-erzeugte Stimmen für Podcasts zum Beispiel auf einem Niveau, dass man es nicht merkt, dass sie nicht echt ist.

Google und OpenAI kämpfen um die Pole Position im KI-Markt
Google und OpenAI kämpfen um die Pole Position im KI-Markt

Fehler oder Versehen oder Zufall?

Könnte es theoretisch sein, dass die Stimme von Johansson hier einfach kopiert wurde?

Ich würde aus zwei Gründen nein sagen. Zum einen ist die Stimme derart klar und vielfältig, dass das Training mit reinen Sprechproben meiner Ansicht nach nicht ausreichen würde. Da bräuchte es ein gezieltes Training, um diese Qualität hinzubekommen.

Der zweite Grund: Warum sollte sich ein Unternehmen wie OpenAI völlig unnötig in einen derart erheblichen Rechtsstreit stürzen und Schäden für die Reputation in Kauf nehmen? Das erscheint mir nicht plausibel.

OpenAI hat Scarlett Johanssen vor einigen Monaten gefragt, ob sie ihre Stimme hergibt. Sie hat nein gesagt. Vermutlich haben sie eine Sprecherin ausgewählt zum Training, die nur sehr ähnlich klingt. Alles andere würde mich schon sehr wundern.

KI kann jetzt prraktisch jede menschliche Stimme nachahmen - in Sekunden
KI kann jetzt prraktisch jede menschliche Stimme nachahmen – in Sekunden

Stimmen lassen sich perfekt klonen

Aber das Problem bleibt: KI wird immer leistungsfähiger – wie geht das weiter mit dem Klonen von Stimmen?

Das stimmt: Die Fortschritte sind enorm. Vor zwei Jahren hat man definitiv gehört, wenn eine Stimme mit KI erzeugt wurde. Heute ist das teilweise nicht mehr so. In zwei Jahren werden wir es auf keinen Fall mehr bemerken.

Dann werden wir mit Chatbots im Support sprechen, die besser unsere Sprache sprechen als echte Supporter – und immer freundlich bleiben, egal um welche Uhrzeit wir anrufen. Es werden zweifellos viele Jobs wegfallen, im Support, aber auch Stadionsprecher, Sprecher im Bahnhof oder am Flughafen.

Was prominente Stimmen betrifft: Der „AI Act“ der EU sieht Transparenz vor. Ein Unternehmen müsste also offenlegen, wie eine KI trainiert wurde, im Zweifel auch mit welcher Stimme.

Eine Stimme – zudem ungefragt – für bestimmte Zwecke zu klonen, ist zweifellos problematisch. Es scheint noch nicht glasklar geregelt, ob das Klonen einer Stimme, etwa zu Unterhaltungszwecken, erlaubt ist oder nicht. Zur Täuschung darf sie nicht eingesetzt werden. Ein solcher prominenter Fall ist gut geeignet, darüber zu sprechen und Regeln aufzustellen.

KI-Gesetz: Wie die EU die Bürger vor zu gefährlicher KI schützen will

KI-Gesetz: Wie die EU die Bürger vor zu gefährlicher KI schützen will

Die Mitgliedsstaaten der EU haben eine Regulierung von Künstlicher Intelligenz final zugestimmt. Spätestens in zwei Jahren gelten die Regeln verbindlich.

Künstliche Intelligenz (KI) ist das mit Abstand mächtigste Werkzeug, das die Menschheit jemals entwickelt hat. Noch ist nicht abzusehen, welche Möglichkeiten sich irgendwann ergeben – welche Chancen und Risiken die neue Technologie in Zukunft mit sich bringt.

Die EU-Staaten haben nun nach langer Zeit der Verhandlung ein „AI Act“ genanntes KI-Gesetz beschlossen, das bestimmten Einsatz von KI innerhalb der EU komplett verbietet.

Mit Gesichtserkennung lassen sich gute Dinge tun - aber es ist auch Missbrauch möglich
Mit Gesichtserkennung lassen sich gute Dinge tun – aber es ist auch Missbrauch möglich

Einteilung in Risikoklassen

Der AI Act der Europäischen Union ist ein bahnbrechender Gesetzesentwurf, der darauf abzielt, den Einsatz von Künstlicher Intelligenz (KI) umfassend zu regulieren.

Als weltweit erste Gesetzgebung dieser Art soll der AI Act einheitliche Regeln für die Entwicklung, den Vertrieb und die Nutzung von KI-Systemen in der EU schaffen. Ziel ist es, die Risiken von KI zu minimieren und gleichzeitig Innovation und Wettbewerbsfähigkeit zu fördern.

Der Entwurf sieht ein risikobasiertes Regelwerk vor, das KI-Systeme je nach ihrem Gefährdungspotenzial in vier Kategorien einteilt: von minimal bis unakzeptabel riskant.

Hochriskante Anwendungen, etwa in sensiblen Bereichen wie Gesundheit, Verkehr oder Strafverfolgung, sollen strengen Auflagen unterliegen. Dazu zählen Anforderungen an Datenqualität, Transparenz, menschliche Aufsicht und Cybersicherheit. Der AI Act könnte so weltweit Maßstäbe für einen verantwortungsvollen Umgang mit dieser Zukunftstechnologie setzen.

Mit dem Gesicht das Handy entsperren
Mit dem Gesicht das Handy entsperren oder mit KI erkennen lassen

Gesichtserkennung und Massenüberwachung per KI verboten

Bestimmte KI-Anwendungen, die gegen EU-Werte verstoßen, sollen vollständig verboten werden. So ist eine Massenüberwachung und auch eine massenhafte Gesichtserkennung im öffentlichen Raum ausdrücklich verboten, sowohl dem Staat wie Unternehmen.

Dabei gibt es allerdings Ausnahmen: Polizei und andere Sicherheitsbehörden sollen eine solche Gesichtserkennung im öffentlichen Raum im Einzelfall nutzen dürfen, um ganz bestimmte Straftaten wie Menschenhandel oder Terrorismus zu verhindern oder zu verfolgen. Bürgerrechtler stoßen sich an dieser Ausnahme.

Diese Einschränkungen erfolgen wohl begründet: In China kommt KI bereits zum Einsatz, um die Bevölkerung engmaschig zu überwachen.

Gesichtserkennung identifiziert Personen, die sich in der Öffentlichkeit nicht regelkonform verhalten – und werden mit „Strafpunkten“ im sogenannten „Social Scoring“ bedacht. Eine albtraumhafte Vorstellung, die durch das KI-Gesetz innerhalb der EU verhindert werden soll.

Auch KI kann diskriminieren: Nicht durch falsche Programmierung, sondern durch kompromittiertes Datenmaterial
Auch KI kann diskriminieren: Nicht durch falsche Programmierung, sondern durch kompromittiertes Datenmaterial

Transparenzpflichten und Anpassungen

Aber auch KI-Systeme, die als besonders risikoreich gelten und in der kritischen Infrastrukture oder im Bildungs- und Gesundheitswesen zum Einsatz kommen, müssen künftig strenge Anforderungen erfüllen. KI-Systeme dürfen keine eigenständigen Entscheidungen fällen und müssen Transparenzpflichten erfüllen.

KI entwickelt sich derzeit rasant. Die Macher der KI-Gesetz sind sich darüber im Klaren, dass die Gesetze mit der Zeit immer wieder nachjustiert werden müssen, um Möglichkeiten nicht unnötig einzuschränken und mögliche neue Risiken einzudämmen. Denn niemand kann heute bereits absehen, welche Möglichkeiten KI in ein, zwei oder zehn Jahren bietet.

Vorteile für Verbraucher

Für Nutzer werden Auflagen und Einschränkungen durchaus spürbar werden. So müssen die Menschen über den Einsatz „hochriskanter“ KI-Systeme informiert werden. Außerdem muss gewährleistet bleiben, dass Menschen die Kontrolle behalten, etwa bei KI-gestützter Therapie in der Medizin.

KI-Systeme müssen außerdem so entwickelt sein, dass Risiken wie Fehler, Manipulationen oder Sicherheitslücken minimiert werden. Auch müssen durch KI erzeugte Inhalte gekennzeichnet werden. Facebook hat im Mai bereits damit begonnen, mit KI erzeugte fotorealistische Bilder mit dem Hinweis „Made with AI“ zu kennzeichnen.

Bitkom formuliert Kritik am KI-Gesetz

Der Branchenverband Bitkom kritisiert allerdings, das KI-Gesetz lasse wesentliche Fragen offen. Besonders problematisch sei, dass die eigentliche Regulierungsarbeit – also die Ausformulierung der Gesetze in Deutschland – erst jetzt erfolge. Es sei noch nicht klar, ob die KI-Industrie einen Schub erhalte oder jede Menge Hemmnisse.

In der Tat könnten zu strenge Regeln das Risiko bergen, dass in Europa keine oder weniger KI-Lösungen entwickelt werden. Denn Investoren müssten die Gewissheit haben, dass ungehindert geforscht und entwickelt werden kann – und neue KI-Lösungen getestet und eingesetzt werden können.

KI-Gesetz erst in zwei Jahren vollständig gültig

Das KI-Gesetz ist nun beschlossen. Nach der Bestätigung der EU-Länder werden die neuen KI-Regeln erst einmal im Amtsblatt veröffentlicht und treten 20 Tage später in Kraft. Zwei Jahre nach dem Inkrafttreten sollen sie dann in allen EU-Staaten gelten; jedes einzelne Land muss sie auch in Gesetzgebung umsetzen.

Wie ChatGPT und Google Gemini das Suchen verändern

Wie ChatGPT und Google Gemini das Suchen verändern

„Wir übernehmen das Googeln für Sie“, so lautet das Motto im Google-Konzern. Wir werden künftig immer häufiger mit Chatbots nach Antworten suchen – und sogar mit ihnen sprechen.

Google hat auf seiner Entwicklerkonferenz I/O gleich diverse KI-Projekte präsentiert, die unseren Alltag bereichern und – wenn es nach Google geht – auch einfacher machen sollen.

Universelle Helfer für alle Lebenslagen könnte man sagen.

Einen Tag vorher wiederum hat OpenAI, die Firma hinter dem bestens bekannten Chatbot ChatGPT, eine neue Version von ChatGPT gezeigt, die wie aus der Zukunft wirkt und nicht nur sprechen, sondern auch singen oder als Dolmetscher fungieren kann.

Es wird immer deutlicher: Die Art und Weise, wie wir uns aufschlauen und Herausforderungen des Alltags meistern werden, verändert sich rasant – aber auch die Art und Weise, wie im Netz Geld verdient wird.

Gemini ist die KI von Google. die überall zum Einsatz kommen soll
gemini ai

ChatGPT 4o: Optimiert und schneller

Den ersten Aufschlag hat diese Woche OpenAI gemacht. Das Unternehmen hat eine Weiterentwicklung von ChatGPT präsentiert, die sie „Spring Update“ nennt. Also „Frühlings-Update“.

Die neue Version heißt „ChatGPT 4o“. Das „o“ steht für „optimiert“. In der Tat scheint die neue Version deutlich, deutlich schneller zu sein. Die Antworten kommen nahezu sofort.

Das KI-Modell ist aber auch effizienter, braucht weniger Rechenleistung und ist damit halb so teuer in der Nutzung (für Unternehmen zB) wie vorher. Es gibt weniger Fehler und bessere Lösungsvorschläge bei Problemen, etwa wenn man eine mathematische Formel lösen lassen will.

Die neue Version von ChatGPT hat auch die Sprechfähigkeit weiterentwickelt. Man kann mit dem Chatbot sprechen wie mit einem Menschen, in natürlicher Sprache. OpenAI hat es geschafft, dass es nicht einige Sekunden dauert, bevor eine Antwort kommt.

Die Antworten kommen sehr schnell – und die Aussprache ist sehr natürlich. Es ist sogar möglich, den Chatbot beim Sprechen zu unterbrechen, neue Aspekte zu erwähnen.

Es ist erstaunlich, wie schnell sich das entwickelt. ChatGPT kann auch als Dolmetscher fungieren. Wenn man de Chatbot sagt: „Du fungierst jetzt bitte als Dometscher.

Wenn ich etwas in Deutsch sage, übersetze das sofort ins Chinesische, und wenn Du etwas in Chinesisch hörst, übersetze es wieder in Deutsche.“ Und schon hat man einen funktionierenden Dolmetscher an der Hand.

Das alles steht nun nicht mehr nur zahlenden Plus-Nutzern, sondern auch in der kostenlosen Version zur Verfügung.

ChatGPT ist schon länger am Start - und bekommt jetzt Konkurrenz
ChatGPT ist schon länger am Start – und bekommt jetzt Konkurrenz

Google Gemini, Gemini, Gemini

Vieles davon klingt für einen Laien nach Science-Fiction. Vor allem, weil ChatGPT nicht der einzige Chatbot am Markt ist. Auch Google entwickelt mit Hochdruck an KIs und hat da diese Woche einiges vorgestellt.

Google steht erkennbar unter Druck, denn OpenAI treibt Google regelrecht vor sich her. Man wundert sich, denn Google hat in den letzten Jahren so viel in KI gesteckt und Technologien entwickelt, die das, was ChatGPT heute kann, überhaupt erst möglich gemacht hat. Vieles von dem, was Google einen Tag nach OpenAI gezeigt hat, sieht aus wie: „Wir können das auch!“

Die wichtigste KI von Google heißt „Gemini“, und die steckt künftig überall: In der Google-Suche, im Google Assistenten, in Youtube, in Google Mail. Wer mag, kann per KI nach einem Video suchen, in dem etwas Bestimmtes passiert oder erklärt wird zB.

Wer mag, kann mit Gemini sprechen. In vielen Sprachen und Stimmen. Das sieht alles so aus wie beim neuen ChatGPT. Die KI soll einem aber auch helfen können, etwa wenn man sich auf eine Prüfung oder ein

Bewerbungsgespräch vorbereiten will oder muss.

Google läutet die "Gemini Ära" ein
Google läutet die „Gemini Ära“ ein

Das Wesen der Suche verändert sich radikal

Wenn wir immer mehr Chatbots benutzen, wie verändert das die Suche im Netz, wie verändert das Google?

Das ist eine wichtige Frage, die sich auch Google stellt. Die neue Devise bei Google lautet: „Wir erledigen das Googeln für Dich“. Damit ist gemeint, das wir, die Nutzer künftig weniger Links anklicken, um zu schauen, ob sich dort die begehrten Informationen verstecken. Das macht die KI.

Fragen können in natürlicher Sprache gestellt werden und auch komplexer werden. Man kann zukünftig fragen: „Welche Pilates-Studios es in Paderborn gibt, wie lange man vom Hotel dahin fährt und wann der nächste Termin für eine individuelle Sitzung frei ist.

Google sieht sich künftig mehr als Assistent. Und das alles muss keineswegs eingetippt werden, es reicht, es zu sagen – die Antworten kommen auch gesprochen, wenn möglich.

Aber nicht nur das. Man wird zukünftig auch einfach die Kamera im Handy aktivieren, auf etwas zeigen – etwa eine abgesprungene Fahrradkette – und fragen können: Was mache ich jetzt?

Und bekommt eine Schritt-für-Schritt-Anleitung. Es ist auch möglich, auf einem Bild etwas zu umkringeln und mehr Informationen dazu zu bekommen. Es geht eindeutig in Richtung Raumschiff Enterprise.

KI kann heute sehr kompetent Texte korrigieren - und Vorschläge für bessere Formulierungen machen
KI kann heute sehr kompetent Texte korrigieren – und Vorschläge für bessere Formulierungen machen

Webseiten und Blogs bekommen Probleme

Man könnte den Eindruck gewinnen, es wird nur noch über KI gesprochen. Da scheint sich mächtig etwas zu verändern.

Die Google-Suche ist bedroht. Google macht 224 Milliarden Dollar Umsatz im Jahr mit Werbung, ein großer Teil davon kommt aus der Google-Suche. Wenn die Leute nun immer öfter Chatbots befragen und nicht mehr bei Google suchen, verdient der Konzern wenige

Darum will der Konzern die Google-Suche nun auch mit diversen KI-Funktionen aufpeppen. Nutzer bekommen öfter Antworten direkt geliefert, weniger Linklisten.

Das bedeutet aber auch, dass potenziell weniger Menschen auf die Webseiten von Verlagen oder Blogs gehen, wenn sie die Antworten schon haben.

Es verändert das Wesen der Webs – und macht die Anbieter von allwissenden Chatbots zu mächtigen Konzernen. Die KIs entscheiden, welche Antworten kommen. Bislang konnten wir selbst entscheiden, welchen Link wir anklicken. In Zukunft nicht mehr.

Neu ist nur, dass wahrscheinlicher seltener Google gefragt wird, weil es eben auch andere leistungsfähige Frage-und-Antworten-Maschinen gibt wie ChatGPT, Perplexity, Llama, Claude und wie sie alle heißen.