In Shanghai findet die „Worldwide AI Conference“ (WAIC) statt: Es geht um weltweite Standards für KI und Robotik.
Künstliche Intelligenz ist ein Thema, das geht nicht wieder weg. Wir reden alle darüber, ständig – auch hier bei schieb.de.
Nicht, weil wir alle solche Technikfüchse wären, sondern weil KI tatsächlich in unser aller Leben eindringt – nach und nach, in alle Bereiche.
In Shanghai ist am Donnerstag die Weltkonferenz zur Künstlichen Intelligenz gestartet (WAIC). Dort wird unter anderem auch über Regulierung von KI diskutiert. Auch Roboter sind ein Thema.
China führend bei KI-Patenten
Künstliche Intelligenz entwickelt sich rasant weiter. China haben wir da nicht unbedingt auf dem Zettel, eher die USA.
Wir sind halt zu sehr auf die uns bekannten Namen wie OpenAI, Microsoft, Google etc. fixiert. Aber die Realität sieht völlig anders aus. Um es mal in Zahlen auszudrücken: China hat in den letzten zehn Jahren 38.000 Patente im Bereich der generativen KI ausgestellt, in den USA waren es nur 6.300.
Das sind gerade mal 20 Prozent. Und in dem Land, in dem vielleicht am meisten über KI-Regulierung gesprochen wird, in Deutschland, waren es gerade mal 700 Patente in zehn Jahren. Mehr als 25% aller Patente im letzten Jahr übrigens.
Der chinesische Staat fördert KI mit dreistelligen Milliardenbeträgen.
China hat in den letzten Wochen erstaunliche KIs präsentiert im Bereich der generativen Videos, also KI-Modelle, die Videos erstellen können. Die sehen alle besser aus als die KI-Modelle von Google oder OpenAI. Wir sollten das also nicht unterschätzen, was China im Bereich KI macht. Das Land ist mittlerweile führend.
Unterschiedliche Arten der KI
USA und China sind also führend. Die Kultur ist im Westen und in Asien doch eine komplett andere. Macht sich das auch in der KI bemerkbar?
Beim Training der KI auf alle Fälle
Die Unterschiede in den Herangehensweisen führen zu verschiedenen Schwerpunkten und Herausforderungen. In westlichen Ländern wird der Fokus oft auf die ethischen Implikationen und den Schutz der Privatsphäre gelegt, während in China die pragmatische Anwendung und die schnelle Implementierung im Vordergrund stehen. Datenschutz gibt es in China nicht.
Dennoch gibt es gemeinsame Ziele, wie die Verbesserung der Lebensqualität und die Förderung wirtschaftlichen Wachstums durch KI. Auch Regulierung. Die Frage ist: Wie reguliert man KI weltweit. Das ist wichtig, denn nur dann macht Regulierung Sinn.
Roboter: Tesla mit Optimus (Haushaltsroboter)
Ein anderes großes Thema auf der Konferenz ist die Robotik. Auch Roboter werden immer schlauer – und ohne KI sind sie kaum denkbar.
Ein boomender Markt: Roboter sind heute schon in vielen Bereichen im Einsatz: In der Industrie übernehmen sie schon lange präzise und wiederholbare Aufgaben wie Schweißen oder Montage, etwa bei Autoherstellern in Deutschland. Die Bilder kennen wir auch, wie Roboterarme blitzschnell selbst schwere Aufgaben erledigen.
Doch KI verändert auch die Robotik. Ein Roboter, der immer dieselben sieben Schweißnähte setzt, kommt wunderbar ohne KI aus. Aber ein Roboter, der flexibel auf Situationen reagieren soll, etwa Fehler entdecken und sie beseitigen, faules Obst aus dem Laufband sortieren oder sich in einer fremden Umgebung – etwa einer Wohnung – orientieren, das geht nur mit KI.
Deshalb ist es auch absehbar, dass Roboter in den Haushalt kommen. Staubsauger-Roboter gibt es schon. Aber Autobauer Tesla entwickelt einen Haushaltsroboter namens Optimus, der in China in der zweiten Generation vorgestellt wurde. Er läuft rum, er kann schwere Dinge heben und transportieren, aber auch Wäsche falten. Das braucht zwingend KI. So ein Roboter kostet allerdings noch 20.000 Dollar. Noch. Könnte aber mal ein Massenprodukt werden.
Globale Regeln für KI und Roboter
Das Beispiel der Roboter zeigt natürlich eindrücklich, dass KI nicht mehr länger nur Software ist, sondern sogar Roboter steuert. Wie kann denn nun der Spagat zwischen den unterschiedlichen Interessen von USA, EU und China gelingen?
KI und Roboter sind Zukunftsmärkte. USA und China sind hier die großen Player. Es ist wichtig, dass die beiden großen Rivalen nicht völlig getrennt oder vielleicht sogar gegeneinander entwickeln. Deshalb gibt es sogar eine UN-Resolution, die die internationale Gemeinschaft dazu aufruft, eine „freie, offene, inklusive und nicht-diskriminierende“ Geschäftsumgebung für die KI-Entwicklung zu schaffen.
Also mehr Miteinander als Gegeneinander. Zumindest auf dem Papier. Es ist ein erklärtes Ziel der Konferenz in China, einheitliche Standards und Regulierung für KI zu definieren. Prinzipiell zu begrüßen, da nur globale Standards sinnvoll sind. Der AI Act der EU zum Beispiel, der gilt ja nur für KI, die im EU-Raum eingesetzt wird. Entwickelt wird KI aber vor allem in China und USA. Je besser es gelingt, sich auf Standards zu einigen, desto besser.
Ob es gelingt und was bei der Konferenz herauskommt, wissen wir aber erst, wenn sie vorbei ist.
Stell dir vor, du hättest einen persönlichen Assistenten, der nicht nur alle deine Fragen beantwortet, sondern auch immer auf dem neuesten Stand ist und dir zuverlässige Quellen liefert.
Klingt zu gut, um wahr zu sein? Nicht mit Perplexity! Entdecke, wie dieses innovative KI-Tool deine Art zu recherchieren und zu lernen revolutionieren kann.
Du fragst dich wahrscheinlich, was Perplexity von anderen KI-Chatbots unterscheidet. Nun, stell dir vor, du könntest ChatGPT mit einer Suchmaschine und einem Faktenprüfer kreuzen. Das Ergebnis wäre Perplexity: ein leistungsstarker KI-Assistent, der nicht nur antwortet, sondern auch erklärt, woher er seine Informationen hat.
Was ist Perplexity und wer steckt dahinter?
Perplexity ist ein KI-gestützter Chatbot, der im Dezember 2022 von einer Gruppe ehemaliger Mitarbeiter von OpenAI, Meta und Google gegründet wurde. Das Unternehmen hat seinen Sitz in San Francisco und wird von Aravind Srinivas geleitet, der zuvor bei OpenAI tätig war.
Der Name „Perplexity“ ist clever gewählt. In der Welt der künstlichen Intelligenz bezieht sich „Perplexity“ auf ein Maß dafür, wie gut ein Sprachmodell eine Sequenz von Wörtern vorhersagen kann.
Je niedriger die Perplexity, desto besser versteht das Modell den Kontext und kann präzisere Vorhersagen treffen. Indem sie ihrem Dienst diesen Namen gaben, signalisieren die Gründer ihr Ziel: ein KI-Tool zu schaffen, das Sprache und Kontext so gut versteht, dass es präzise und hilfreiche Antworten geben kann.
Perplexity unterscheidet sich von anderen Chatbots dadurch, dass es nicht nur auf ein vortrainiertes Sprachmodell zurückgreift, sondern aktiv das Internet durchsucht, um die aktuellsten und relevantesten Informationen zu finden. Es ist wie ein persönlicher Forschungsassistent, der in Echtzeit für dich arbeitet.
Die Stärken von Perplexity: Aktualität und Quellenangaben
Eine der größten Stärken von Perplexity ist seine Fähigkeit, auch über aktuelle Ereignisse Auskunft zu geben. Anders als viele andere KI-Modelle, deren Wissen zu einem bestimmten Zeitpunkt „eingefroren“ wurde, kann Perplexity auf die neuesten Online-Informationen zugreifen.
Stell dir vor, du möchtest wissen, wer das letzte Grand-Slam-Turnier gewonnen hat. Während ein statisches KI-Modell dir vielleicht eine veraltete Antwort geben würde, kann Perplexity die aktuellsten Ergebnisse liefern. Wenn du zum Beispiel fragst: „Wer hat die Australian Open 2024 gewonnen?“, wird Perplexity dir nicht nur den Namen des Siegers nennen, sondern auch Details zum Turnierverlauf und vielleicht sogar Reaktionen aus der Tenniswelt liefern.
Ein weiterer wesentlicher Vorteil von Perplexity ist die Angabe von Quellen. Jede Antwort wird mit Links zu den verwendeten Informationsquellen versehen. Das erhöht nicht nur die Glaubwürdigkeit der Antworten, sondern gibt dir auch die Möglichkeit, selbst tiefer in ein Thema einzutauchen.
Nehmen wir an, du fragst nach den Auswirkungen des Klimawandels auf die Arktis. Perplexity wird dir nicht nur eine zusammenfassende Antwort geben, sondern auch Links zu wissenschaftlichen Studien, Berichten von Umweltorganisationen und aktuellen Nachrichten zum Thema bereitstellen. So kannst du die Informationen selbst verifizieren und bei Bedarf weiter recherchieren.
Wie Perplexity deinen Alltag bereichern kann
Perplexity kann in vielen Alltagssituationen ein nützlicher Begleiter sein. Hier sind einige Beispiele:
Reiseplanung: Du planst einen Urlaub in einem Land, das du noch nie besucht hast? Frag Perplexity nach den besten Reisezeiten, Sehenswürdigkeiten, kulturellen Besonderheiten und aktuellen Einreisebestimmungen. Du erhältst nicht nur umfassende Informationen, sondern auch Links zu offiziellen Reiseportalen und aktuellen Reiseberichten.
Kochunterstützung: Du hast Zutaten im Kühlschrank, weißt aber nicht, was du daraus kochen sollst? Gib Perplexity eine Liste deiner verfügbaren Zutaten, und es wird dir Rezeptvorschläge machen, komplett mit Zubereitungsanleitung und Nährwertinformationen. Zusätzlich erhältst du Links zu Kochwebsites und Food-Blogs für weitere Inspiration.
Technische Problemlösung: Dein Smartphone macht Probleme? Beschreibe Perplexity das Problem, und es wird dir Schritt-für-Schritt-Anleitungen zur Fehlerbehebung geben, basierend auf den neuesten Informationen aus Tech-Foren und Herstellersupport-Seiten.
Aktuelle Ereignisse verstehen: Du hast von einem wichtigen politischen Ereignis gehört, verstehst aber den Kontext nicht ganz? Perplexity kann dir einen Überblick über die Situation geben, die Hintergründe erklären und dich mit Links zu fundierten Nachrichtenartikeln und Analysen versorgen.
Die Herausforderungen und Grenzen von Perplexity
Trotz seiner beeindruckenden Fähigkeiten ist Perplexity nicht perfekt. Es gibt einige Herausforderungen und Grenzen, die du im Hinterkopf behalten solltest:
Informationsüberflutung: Manchmal kann Perplexity so viele Informationen liefern, dass es überwältigend sein kann. Es liegt an dir, die relevanten Teile herauszufiltern.
Mögliche Verzerrungen: Obwohl Perplexity versucht, objektiv zu sein, kann es die Voreingenommenheit seiner Quellen widerspiegeln. Es ist wichtig, kritisch zu bleiben und bei kontroversen Themen mehrere Perspektiven zu berücksichtigen.
Sprachliche Einschränkungen: Während Perplexity in vielen Sprachen funktioniert, ist seine Leistung in weniger verbreiteten Sprachen möglicherweise nicht so gut wie im Englischen.
Datenschutzbedenken: Da Perplexity aktiv im Internet sucht, solltest du vorsichtig sein, keine sensiblen persönlichen Informationen in deine Anfragen einzubeziehen.
Perplexity vs. andere KI-Chatbots: Ein Vergleich
Um die Einzigartigkeit von Perplexity zu verstehen, lohnt sich ein Vergleich mit anderen bekannten KI-Chatbots:
ChatGPT: Während ChatGPT auf einem großen, aber statischen Datensatz trainiert wurde, greift Perplexity auf aktuelle Online-Informationen zu. ChatGPT kann kreativere und freiere Antworten geben, aber Perplexity ist bei aktuellen Ereignissen und faktenbasierten Fragen im Vorteil.
Google Bard: Ähnlich wie Perplexity hat auch Google Bard Zugriff auf aktuelle Informationen. Allerdings ist Perplexity transparenter in Bezug auf seine Quellen und bietet oft detailliertere Antworten.
Bing Chat: Microsofts KI-Assistent ähnelt Perplexity in der Fähigkeit, aktuelle Informationen zu liefern. Perplexity hebt sich jedoch durch seine benutzerfreundlichere Oberfläche und die konsequentere Quellenangabe ab.
Anthropic’s Claude: Claude ist bekannt für seine ethischen Überlegungen und detaillierten Antworten. Perplexity punktet hingegen mit seiner Aktualität und den direkten Quellenverweisen.
Wie du Perplexity effektiv nutzen kannst
Um das Beste aus Perplexity herauszuholen, hier einige Tipps:
Sei präzise: Je genauer deine Frage, desto relevanter wird die Antwort sein. Statt „Erzähl mir etwas über Elektroautos“ frag lieber „Was sind die Vor- und Nachteile von Elektroautos im Vergleich zu Benzinfahrzeugen in Bezug auf Umweltauswirkungen und Gesamtbetriebskosten?“
Nutze die Quellen: Klicke auf die bereitgestellten Links, um tiefer in ein Thema einzutauchen. So kannst du die Informationen verifizieren und dein Wissen erweitern.
Stelle Folgefragen: Wenn du mit einer Antwort nicht zufrieden bist oder mehr Details benötigst, zögere nicht nachzuhaken. Perplexity kann auf vorherige Antworten aufbauen.
Vergleiche Perspektiven: Bei kontroversen Themen kannst du Perplexity bitten, verschiedene Standpunkte darzulegen. So erhältst du ein ausgewogeneres Bild.
Nutze es als Startpunkt: Perplexity ist ein hervorragendes Tool für den Einstieg in ein Thema. Nutze es, um einen Überblick zu bekommen und identifiziere dann Bereiche, in denen du tiefer recherchieren möchtest.
Die Zukunft von Perplexity: Wohin geht die Reise?
Perplexity entwickelt sich ständig weiter. Einige mögliche zukünftige Entwicklungen könnten sein:
Verbesserte multimodale Fähigkeiten: Die Möglichkeit, Bilder und Audio zu verarbeiten und zu analysieren, könnte Perplexity noch vielseitiger machen.
Personalisierung: Zukünftige Versionen könnten deine Interessen und deinen Wissenstand berücksichtigen, um noch relevantere Antworten zu liefern.
Erweiterte Sprachunterstützung: Eine Verbesserung der Leistung in weniger verbreiteten Sprachen könnte Perplexity für ein noch breiteres globales Publikum zugänglich machen.
Integration mit anderen Tools: Die Möglichkeit, Perplexity nahtlos in Produktivitäts-Apps oder Lernplattformen zu integrieren, könnte seinen Nutzen weiter steigern.
Verbessertes Faktencheck-System: Noch sophistiziertere Methoden zur Überprüfung und Validierung von Informationen könnten die Zuverlässigkeit weiter erhöhen.
Ethische Überlegungen und verantwortungsvoller Einsatz
Mit großer Macht kommt große Verantwortung. Als Nutzer von Perplexity solltest du einige ethische Aspekte berücksichtigen:
Kritisches Denken: Auch wenn Perplexity beeindruckend genau ist, solltest du die Informationen nicht blind akzeptieren. Übe dich in kritischem Denken und überprüfe wichtige Informationen.
Urheberrecht beachten: Wenn du Informationen von Perplexity in deiner eigenen Arbeit verwendest, stelle sicher, dass du die ursprünglichen Quellen korrekt zitierst.
Privatsphäre schützen: Sei vorsichtig mit den persönlichen Informationen, die du in deinen Anfragen preisgibst.
Bewusstsein für KI-Grenzen: Verstehe, dass Perplexity, wie alle KI-Systeme, Grenzen hat. Es kann Fehler machen oder voreingenommen sein.
Verantwortungsvoller Einsatz: Nutze Perplexity, um dein Wissen zu erweitern und informierte Entscheidungen zu treffen, nicht um Fehlinformationen zu verbreiten oder anderen zu schaden.
Fazit: Perplexity als Werkzeug für lebenslanges Lernen
Perplexity ist mehr als nur ein weiterer KI-Chatbot. Es ist ein leistungsfähiges Werkzeug für lebenslanges Lernen und informierte Entscheidungsfindung. Mit seiner Fähigkeit, aktuelle Informationen zu liefern und Quellen transparent zu machen, überbrückt es die Lücke zwischen statischen Wissensdatenbanken und der sich ständig verändernden Welt um uns herum.
Ob du nun ein Student bist, der nach zuverlässigen Quellen für eine Hausarbeit sucht, ein Berufstätiger, der sich über die neuesten Branchentrends informieren möchte, oder einfach ein neugieriger Geist, der die Welt besser verstehen will – Perplexity kann ein wertvoller Begleiter auf deiner Wissensreise sein.
Denk daran: Perplexity ist ein Werkzeug, kein Ersatz für menschliches Denken und Urteilsvermögen. Nutze es weise, hinterfrage kritisch und lass dich von der Fülle an Informationen inspirieren, dein Wissen ständig zu erweitern und zu vertiefen. In einer Welt, die sich schneller denn je verändert, kann Perplexity dir helfen, immer einen Schritt voraus zu sein.
Apple und Meta wollen ihre angekündigten KI-Modelle in der EU nicht ausrollen – angeblich seien die juristischen Risiken aufgrund der Regeln in der EU zu hoch. Begründete Sorge oder Machtspielchen?
KI, KI, KI – es gibt in der Digitalbranche kaum noch ein anderes Thema. Das liegt daran, dass sich die Entwicklung von KI seit der Einführung von ChatGPT in schier atemberaubendem Tempo weiter entwickelt.
Die großen KIs werden in den USA entwickelt, nicht in Europa. Doch Europa hat als erster Kontinent eine Regulierung, den „AI Act“, der das Tempo der Entwicklung bremst.
Mittlerweile sagen erste Konzerne wie Apple oder Meta, dass sie ihre neuesten KI-Lösungen gar nicht erst in Europa anbieten wollen. Aus rechtlichen Gründen. Kann das gewollt gewesen sein und vor allem, ist das vernünftig?
Apple und Meta wollen ihre KI nicht in die EU bringen
Apple und Meta haben jüngst erst neue KI-Modelle angekündigt, die Nutzern das Leben erleichtern sollen. Wieso kommen die jetzt zwar in USA, aber nicht in der EU?
Beide Konzerne argumentieren, dass es für sie entweder rechtlich viel zu unsicher wäre, mit den Lösungen auf den Markt zu kommen – im Fall von Apple übrigens nicht nur eine KI, sondern auch eine Technologie, die es erlaubt, auf einem Mac das iPhone fernzusteuern. Oder wenn man sich an die Regulierungen halte, befürchte man Risiken für Datenschutz und Privatsphäre.
Damit kritisieren die Konzerne weniger den „AI Act“, der KI-Anwendungen in Europa in Risikoklassen unterteilt und riskante KIs reguliert, sondern vielmehr den „Digital Markets Act“, der seit Mai 2023 vollständig gültig ist.
Der DMA verbietet es den großen Gatekeepern, eigene Produkte zu bevorzugen. Wenn also in Apples Betriebssystem ausschließlich die eigenen KI-Modelle integriert sind, könnte das schmerzhafte Bußgelder nach sich ziehen.
Aber auch der AI Act spielt eine Rolle und die hohen Datenschutzstandards, weil sich noch nicht immer genau sagen lässt, welche Daten von KI verarbeitet werden.
KI sollte für Facebook und Instagram trainiert werden
Viele können sich bestimmt erinnern: Vor ein paar Wochen haben Facebook und Instagram damit begonnen, die User zu fragen, ob ihre Daten für eine kommende Meta AI für das Training verwendet werden dürfen.
Das scheint erstmal vom Tisch. In den USA war es nicht erforderlich, die User vorher zu fragen.
Hierzulande ist noch nicht ganz klar, mit welchen Daten eine KI trainiert werden darf. Aber sehr wahrscheinlich ist eine solche Zustimmung tatsächlich erforderlich.
Das macht die Sache aber natürlich sehr kompliziert für Meta: Die müssten genau unterscheiden, welche Daten ins Training fließen dürfen und welche nicht. Wenn Du dagegen bist und ich kein Problem damit habe, was ist mit einem Kommentar von Dir auf ein Posting von mir? Wirklich schwierig.
Letztlich hat Meta argumentiert: Am Ende könnten wir den Nutzern in Europa nur eine zweitklassige KI anbieten, da wir sie nicht ausreichend trainieren können.
Auch das Argument ist nicht von der Hand zu weisen: Jede KI ist umso besser, je besser sie trainiert wurde. Nur: Irgendwo müssen die Daten ja herkommen.
Wenn alle super KIs wollen, aber wenn es geht nichts dafür bezahlen, aber bloß nicht die eigenen Postings analysiert werden dürfen – das geht unterm Strich einfach nicht.
Begründete Zurückhaltung oder Strategie?
Sind die öffentlichen Beschwerden von Apple, Meta und einigen anderen großen Konzernen und ihre Zurückhaltung, neue Produkte und Dienste in der EU einzuführen, also begründet – oder nur Strategie, damit sie von der EU-Kommission einen Persilschein bekommen?
Ich würde sagen: Beides!!!
Die möglichen Strafen bei Verstößen gegen den Digital Markets Act oder den AI Act sind mittlerweile enorm. Da wollen auch große Konzerne zu große Risiken vermeiden. Doch natürlich pokern die Konzerne auch ein wenig. Apple zum Beispiel hat jahrelang argumentiert, ein einheitliches Ladekabel mit USB-C würde Innovation verhindern. Jetzt haben auch iPhones eine Ladebuchse für USB-C.
Natürlich versuchen die Konzerne, den Rahmen abzustecken und die EU-Kommission zu Eingeständnissen bringen.
Hat die EU zu strenge Regeln?
Stellt sich doch die wichtigste Frage überhaupt: Sind die Regeln in Europa zu streng und verhindern Innovation oder schützen sie die Menschen?
Aus Sicht der Konzerne ist das sicher so. Lobo schreibt auch, es gäbe „in Teilen der EU-Politik, der Medienlandschaft und der Öffentlichkeit überraschend häufig eine strukturell anti-fortschrittliche Haltung: eine Ideologie der Tech-Verachtung.“
Ganz so weit würde ich nicht gehen. Aber die Argumente sind wichtig, um sich zu fragen, ob alle Regeln wirklich sinnvoll sind und den Menschen helfen.
In den USA haben wir die fortschrittlichste KI der Welt, in Asien die effizienteste (weil es da gar keine Regeln gibt, die Menschen schützen) – und in Europa die regulierteste. Ist das hilfreich?
Wir alle ärgern uns über Überregulierung beim Datenschutz: Die Konzerne spionieren uns immer noch aus. Ziel verfehlt. Aber beim Arzt müssen wir Formulare unterschreiben, dass der Arzt uns anschreiben darf – und im Kindergarten bekommen die Betreuerinnen Stressherpes, ob sie eine Whatsapp-Gruppe einrichten dürfen.
Aus Europa werden nicht die Speerspitzen der KI kommen (können). Aus vielen Gründen. Aber doch viele interessante Geschäftsmodelle und Ideen rund um die großen Ökosysteme. Wenn die in Europa nicht mehr eingesetzt werden können, ist niemandem geholfen.
Manchmal ist weniger mehr. Und trennschärfer formuliert.
Kaum ein Thema ist so heiß diskutiert wie Künstliche Intelligenz (KI). Die funktioniert um so besser, je mehr Informationen sie gefüttert bekommt. Facebook nutzt hier beispielsweise eure Daten. Wenn ihr das nicht wollt: widersprecht!
Mark Zuckerbergs Meta-Konzern, zu dem bekanntlich Facebook und Instagram gehören (sowie WhatsApp und Threads), will seine KI-Modelle künftig mit Beiträgen deutscher Nutzer trainieren. Wer das nicht möchte, muss widersprechen.
Auch Meta entwickelt Künstliche Intelligenz. Das KI-Modell Llama ist sogar sehr gut und OpenSource zu haben.
Meta AI soll eine Art ChatGPT werden
Jetzt entwickelt der Konzern an der Meta AI, eine Forschungsinitiative und Abteilung von Meta Platforms (ehemals Facebook), die sich auf die Entwicklung und den Einsatz von Künstlicher Intelligenz (KI) konzentriert.
Das Ziel von Meta AI ist es, durch fortschrittliche Forschung und Technologie innovative Lösungen zu schaffen, die das Verständnis und die Interaktion mit der digitalen Welt verbessern.
Meta AI arbeitet an einer Vielzahl von Projekten, die von natürlicher Sprachverarbeitung und Computer Vision bis hin zu maschinellem Lernen und Robotics reichen. Dabei werden sowohl Grundlagenforschung als auch anwendungsbezogene Entwicklungen vorangetrieben.
Ein zentrales Anliegen von Meta AI ist es, KI-Systeme zu entwickeln, die sicher, fair und nützlich für die Gesellschaft sind. Hierzu gehört auch die Erforschung ethischer und sozialer Aspekte der KI, um sicherzustellen, dass die Technologien verantwortungsvoll eingesetzt werden.
Meta AI veröffentlicht regelmäßig Forschungsergebnisse und arbeitet oft mit akademischen Institutionen und anderen Industriepartnern zusammen, um den Fortschritt in der KI-Forschung zu fördern und den Wissensaustausch zu unterstützen.
Durch diese Bemühungen trägt Meta AI dazu bei, die Möglichkeiten der Künstlichen Intelligenz weiter auszubauen und deren Nutzen für die Menschen zu maximieren.
Training für Meta AI steht bevor
Aber auch Künstliche Intelligenz (KI) muss zur Schule gehen. In der KI-Welt wird das „Training“ genannt: Chatbots lernen wie man spricht und schreibt, indem sie sich möglichst viele Texte anschauen.
Bildgenerierende KIs lernen, indem sie sich möglichst viele Bilder und Fotos anschauen. Und prinzipiell gilt: Je mehr valide Daten zum Training vorliegen, desto besser.
Der Meta-Konzern entwickelt fleißig an einer (weiteren) „Meta AI“, die Texte und Bilder erzeugen können soll. Die soll natürlich auch gut Deutsch können. Das geht nicht, ohne sich möglichst viele Texte und Formulierungen von Menschen angeschaut zu haben. Zum Beispiel Postings auf Facebook oder Instagram. Da gibt es jede Menge Input.
Meta will mit Inhalten von Postings die KI trainieren
Genau hier entsteht Widerstand. Meta kündigt seit einigen Tagen – quasi im Kleingedruckten auf Instagram und Facebook – genau das an, dass KI-Modelle nun auch mit den Postings deutscher Nutzer trainiert werden – und erläutert das auch in einem Informationstext auf der Plattform.
Zum Training der KI will Meta nach eigenen Angaben eine Kombination verschiedener Quellen nutzen, darunter Inhalte auf Facebook, Instagram und bislang weniger bekannt Netzwerk Threads. Von der KI gelesen werden Beiträge, Fotos und deren Bildunterschriften, so der Infotext.
Bei einem KI-Training werden keine direkten personenbezogenen Daten gespeichert. Es ist jedoch nicht völlig auszuschließen, dass sich nach einem Training Spuren in der KI finden, die Rückschlüsse auf eine Person zulassen. Während das die einen unbedingt wollen, um auch in KI gefunden zu werden, können andere darauf verzichten.
Privatnachrichten ausgeschlossen
Immerhin: „Wir trainieren unsere KIs nicht mit den Inhalten von Privatnachrichten, die du mit Familienmitgliedern oder Freunden austauschst.“ Private Chats sind also ausgeschlossen. Da die Kommunikation bei WhatsApp und mittlerweile auch beim Facebook Messenger sicher Ende zu Ende verschlüsselt erfolgt, wäre das ohnehin nicht möglich.
Damit das KI-Training in Europa möglich wird, sollen die Datenschutzrichtlinien entsprechend angepasst werden. Die strengen Datenschutzregeln, auch und insbesondere der neue „AI Act“, sehen das vor. Die neuen Regeln sollen am 26. Juni 2024 in Kraft treten.
Wer widersprechen will, muss ein Formular ausfüllen
Neue Regeln gelten aber nur, wenn die User nicht widersprechen. Wer dem Unternehmen Meta oder der rasant wachsenden KI-Technologie generell misstraut (denn niemand kann wissen, ob die von Meta trainierten Modelle nicht auch OpenSource verbreitet werden), hat nun Gelegenheit, der Nutzung seiner eigenen Postings und Beiträge für das KI-Training zu widersprechen.
Allerdings ist das umständlicher als es sein müsste. Anstatt einen simplen Button zum Akzeptieren oder Ablehnen anzubieten, ist es komplizierter. Die Nutzer müssen nach Ansicht von Meta nicht eindeutig zustimmen. Der Konzern beruft sich grundsätzlich auf die Rechtsgrundlage des „berechtigten Interesses“.
Die Folge: Wer nichts unternimmt, stimmt zu, Allerdings haben Nutzer ein Recht auf Widerspruch, von dem sie bis zum Stichtag Gebrauch machen müssten.
So klappt das mit dem Widerspruch
Unter Facebook steht ein Web-Formular zum Widerspruch zur Verfügung. In Facebook selbst ist der Link unscheinbar unter dem Begriff „Widerspruchsrecht“ verlinkt.
Dazu am PC auf das Profilbild oben rechts klicken, am Smartphone auf die drei Striche (Hamburger-Menü) rechts unten tippen.
Danach die Option „Einstellungen und Privatsphäre“ ansteuern und dort die „Einstellungen“.
Ganz unten schließlich die „Datenschutzrichtlinie“ öffnen und im oberen Informationstext auf „Widerspruchsrecht“ klicken oder tippen.
Nutzer müssen ihre Entscheidung begründen
Unter Instagram finde sich dasselbe Formular unter diesem Link. Auch hier gibt es aber auch einen Weg über die Plattform:
Zunächst die eigene Profilseite über das Profilbild aufrufen
Danach am Desktop auf das Zahnrad klicken, am Smartphone auf die drei Stiche oben rechts tippen
Anschließend am PC die „Einstellungen und Privatsphäre“ ansteuern und anschließend unten auf „Datenrichtlinie“ klicken; Smartphone-Nutzer scrollen runter, tippen auf „Info“ und zuletzt auf „Datenschutzrichtlinie“
Nötigenfalls im Informationstext auf die Option „Widerspruchsrecht“ klicken oder tippen.
Das Web-Formular ist selbsterklärend. Allerdings muss der Wohnort angegeben werden (wegen der Gültigkeit der Verordnung), ebenso die E-Mail-Adresse des Meta-Kontos sowie eine schriftliche Erläuterung, warum und wie sich die Verarbeitung der eigenen Daten für das Training der Meta-KI auf die eigene Person auswirken könnte.
Die Begründung muss nicht ausführlich sein. Es reicht aufzuschreiben, dass man es nicht möchte.
Die Verbraucherzentrale schlägt folgende Begründungen vor:
„Ich habe das Urheberrecht an meinen geposteten Daten und erteile kein Nutzungsrecht für KI-Anwendungen.“
„Ich habe Angst davor, dass meine einmal für die KI genutzten Daten nicht mehr ordnungsgemäß gelöscht werden können, weil sie in das KI-Modell untrennbar eingegangen sind.“
„Ich habe schon einmal negative Erfahrungen mit dem Missbrauch meiner Daten gemacht und möchte daher meine Daten grundsätzlich nicht für KI-Anwendungen zur Verfügung stellen.“
Künstliche Intelligenz ist ein Wachstumsmarkt. Doch kaum einer spricht über den Energieaufwand, der mit dem KI-Einsatz einhergeht. Der US-Podcaster Paris Marx schon.
Es vergeht wohl kaum eine Woche, in der ich hier nicht mindestens ein, zwei Mal über Künstliche Intelligenz berichte. Und das sehr gerne, denn KI ist halt ein zunehmend wichtiges Thema.
Auch auf der republica war das so, der Digitalkonferenz in Berlin, die Montag gestartet und heute zu Ende gegangen ist. Da wurde viel über Chancen und Risiken der KI gesprochen.
Einen Bereich klammern aber fast alle aus: Welchen Preis zahlen wir eigentlich? KI ist nämlich extrem energiehungrig – und verbraucht sogar viel Wasser.
Who cares? Leider zu wenige…
Das offizielle Motto der republica lautet „Who cares?“. Ja, wen kümmert’s eigentlich, wie viel Energie Smartphones verbrauchen, wenn wir sie benutzen – und erst recht die immer populärer werdenden KI-Systeme?
Eine Anfrage bei einem ChatBot wie ChatGPT verbraucht so viel Strom wie 300 Mal Googeln. Mit KI Bilder, Audios oder bald Videos herzustellen ein Vielfaches davon.
Wir stehen erst am Anfang, was Künstliche Intelligenz betrifft. Aber eins ist klar: KI wird in alle Bereiche unseres Lebens vordringen, in den Privatbereich, aber auch in den Arbeitsbereich.
KI benötigt enorme Rechenkapazitäten
Und um KI anbieten zu können, braucht es Rechenkapazität – und zwar jede Menge. Deswegen bauen die Anbieter überall auf der Welt Rechenzentren. Und die brauchen vor allem eins: Energie. Strom, aber überraschenderweise auch Wasser und sehr viele Ressourcen.“
Google, Microsoft, Meta: Sie alle betreiben schon jetzt gigantische Rechenzentren, nur für KI-Anwendungen. Wir sehen sie nur nicht. Allein der Strombedarf ist gigantisch.
Prognosen gehen durch rasant steigende Nutzerzahlen von einem Stromverbrauch der weltweiten KI-Systeme von über 80 Terawattstunden pro Jahr aus. Das entspricht dem von ganzen Ländern wie den Niederlanden, Schweden oder Argentinien.
Paris Marx: Wir müssen genauer auf die Kosten schauen
Einer der wenigen, der in den USA laut Kritik übt, ist Paris Marx.
Er ist sehr bekannt für seinen Tech-kritischen Podcast Tech won’t save us – Technik wird uns nicht retten.
Paris Marx erklärt mir im Interview, dass der Energiebedarf der großen Rechenzentren schlichtweg gigantisch ist. Heutige Rechenzentren beherbergen zehntausende von Servern. Die verbrauchen Unmengen an Strom – und erzeugen jede Menge Hitze.
Die muss in Rechenzentren aber runtergekühlt werden. Häufig wird dazu Wasser benutzt. Grundwasser, das in den ländlichen Gebieten dann oft fehlt.
Wer hätte das gedacht: KI verbraucht Wasser
Wasserkühlung ist viel effektiver als Klimaanlagen, spart also Strom. Doch Wasser ist eine begrenzte Ressource – in den USA gibt es im Umfeld schon sehr viele Proteste der Bevölkerung, erzählt mir Paris Marx.
Aber auch für die Herstellung all der Hardware, also der Computer ist ein enormer Energieaufwand nötig, erklärt der Insider – und mahnt vor den Folgen.
Um all die Server für KI-Rechenzentren zu bauen, braucht es unvorstellbare Mengen an Ressourcen, Mineralien zum Beispiel. Um die zu gewinnen, wird ebenfalls jede Menge an Energie und Wasser verbraucht. Die Hardware wird aber schnell wieder aussortiert. Mangels vernünftigem Recycling entsteht so jede Menge Elektromüll.
E-Waste, weil Server schnell ausgemustert werden
Aspekte, die Politik und Konsumenten bislang nicht auf dem Zettel haben. Da der Einsatz von KI in den nächsten Jahren explodieren dürfte, wird das ein zunehmend wichtiges Thema.
Wir brauchen deshalb dringend Transparenz über verbrauchte Ressourcen, mahnen Experten wie Paris Marx – und klare Regeln. Wie in anderen Industrien auch.