ChatGPT und Co: Kann ich Chatbots mittlerweile vertrauen?

ChatGPT und Co: Kann ich Chatbots mittlerweile vertrauen?

ChatGPT feiert bald seinen zweiten Geburtstag. Aus ChatGPT 3 ist mittlerweile ChatGPT 4o geworden. Kinder werden groß.

Chatbots wie ChatGPT, Claude, Perplexity, Gemini, Grok und Co. faszinieren uns und liefern beeindruckende Ergebnisse. Aber wenn es um Wissensfragen geht, lief und läuft es nicht immer rund: Denn oft gab es fette inhaltliche Fehler in den Antworten und so manche Quellenangabe war manchmal schlichtweg „erfunden“.

Der Chatbot von vor zwei Jahren arbeitet deutlich weniger zuverlässig als heute
Der Chatbot von vor zwei Jahren arbeitet deutlich weniger zuverlässig als heute

Chatbots mit besseren Antworten

Aber ändert sicht das gerade? Viele haben den Eindruck, dass ChatGPT und Co. inzwischen bessere Ergebnisse zu liefern scheinen und auch passendere Quellen nennen. Ist ja nicht ganz unwichtig, wenn man sie als Unterstützung fürs Studium, Arbeit und Co. nutzen will. Aber ist das wirklich so? Werden sie tatsächlich besser bei Wissensfragen?

Wir können ihnen auf jeden Fall eher vertrauen als noch zu Anfang. Die Antworten werden wirklich besser. Aber ein blindes Vertrauen ist trotzdem nicht angebracht: Chatbots machen auch heute noch Fehler.

Viele von uns haben den Eindruck, ChatGPT ist vetrauenswürdiger, weil sich zwischen dem ChatGPT 3 aus den November 2022 und dem ChatGPT 4o im Sommer 2024 einiges getan hat. Der Chatbot versteht meine Fragen besser, antwortet präziser und ausführlicher und ist inzwischen auch aktuell.

Das hilft sehr, weil ChatGPT so zum Beispiel den EM von diesem Jahr bereits kennt, sogar dass Spanien gegen England gespielt hat. Vor zwei Jahren undenkbar.

Perplexity ist von Ex-Mitarbeitern bei OpenAI (ChatGPT) entwickelt worden
Perplexity ist von Ex-Mitarbeitern bei OpenAI (ChatGPT) entwickelt worden

Chatbots werden genauer und überprüfen vieles noch mal

Schnellere, direktere Antworten schaffen da natürlich schon mal mehr Vertrauen bei uns. Und es gibt tatsächlich bei Wissensfragen deutlich weniger Fehler, sie arbeiten genauer, sagen Studien. Und weil die meisten Chatbots heute auch Zugriff auf aktuelle Infos haben, hilft das auch, dass viele Antworten eher stimmen als früher.

ChatGPT und einige andere Chatbots wenden einen Kniff an: Wenn sie ihre Antwort bereits fertig haben, überprüfen sie noch mal selbst, ob alles zu stimmen scheint, nötigenfalls auch durch einen Abgleich im Nethz. Sie überprüfen die wichtigsten Fakten noch mal. Das merkt man.

Das gilt eigentlich für alle Chatbots, ob sie nun ChatGPT, Gemini, LLama, Grokq, Perplexity oder Claude heißen.

Und wichtig fürs unser Vertrauen, Chat GPT liefert inzwischen Quellen, sagt woher es was weiß, allerdings nur auf Nachfrage.

Besseres Verständnis

Alles in allem: Deutlich bessere Ergebnisse als noch vor einem Jahr und erst recht als vor zwei Jahren, das belegen gleich mehrere Studien, die in diesem Bereich gemacht werden.

Doch kein Lob ohne „Aber“: Gerade bei den Quellenangaben, also woher hat die KI das Ergebnis, da gab‘s ja in der Vergangenheit viele Diskussionen, auch weil ChatGPT sich manchmal sogar Infos und Quellangaben ausgedacht hat, die nur echt klangen. Ist das ist jetzt anders?

Chatbots wissen nichts, sie suchen nach Wahrscheinlichkeiten

Was man unbedingt verstehen muss: Chatbots „wissen“ nichts, sie berechnen Wahrscheinlichkeiten, während sie die Antworten erzeugen.

Was ist die wahrscheinlich richtige Antwort? Chatbots wie ich, basierend auf Modellen wie GPT-4, haben kein „Wissen“ im herkömmlichen Sinne. Stattdessen basieren sie auf großen Datenmengen und berechnen Wahrscheinlichkeiten, um Antworten zu generieren.

Früher war es tatsächlich so, dass ChatGPT keine Quellen für seine Aussagen lieferte. Das lag daran, dass es als Sprachmodell darauf trainiert wurde, menschenähnlichen Text zu generieren, ohne dabei auf einzelne Quellen im Internet zurückzugreifen.

ChatGPTs sind indviduell zugeschnittene Chatbots
ChatGPTs sind indviduell zugeschnittene Chatbots

Chatbots nennen nun auch Quellen

Inzwischen hat sich das geändert. OpenAI, die Entwickler von ChatGPT, haben die Modelle weiterentwickelt und neue Funktionen hinzugefügt. So kann ChatGPT in neueren Versionen auf Anfrage Quellen für seine Aussagen nennen.

Wichtig für mich und uns alle, man kann inzwischen die Quellen dann direkt anklicken, sehr hilfreich um tiefer einzusteigen und auch zum prüfen, was hat mir die KI daraus gesucht, schafft ja auch Vertrauen.

Allerdings ist die Genauigkeit dieser Quellenangaben noch immer ein Herausforderung. Es kommt gelegentlich vor, dass ChatGPT Quellen erfindet oder falsch zuordnet.

Insgesamt muss man aber sagen, ChatGPTs Antworten sind inzwischen akkurater, wo sich ChatGPT nicht sicher ist, formuliert es der Chatbot auch entsprechend. Sagt zum Beispiel „Die wissenschaftliche Studienlage ist ungenau“ oder „Es sind nicht genügend seriöse Informationen zugänglich“. Solche Transparenz schafft natürlich auch Vertrauen.

Studien belegen die verbesserte Leistung

Der Eindruck, dass die Ergebnisse besser werden, der täuscht nicht: Es gibt auch Studien, die belegen, dass mittlerweile mehr Vertrauen in ChatGPT und CO gerechtfertigt sind.

Eine Studie der Harvard University hat Anfang des Jahres die Genauigkeit und Vollständigkeit der Antworten von großen Sprachmodellen wie ChatGPT im Vergleich zu menschlichen Experten in spezifischen Bereichen wie der Augenheilkunde. Die Ergebnisse zeigten, dass ChatGPT in der Lage ist, präzise und umfassende Antworten zu liefern. Diese Studio bezog sich noch auf ChatGPT 4, mittlerweile gibt es die weiter entwickelte Version 40.

Allerdings hat ChatGPT noch keine klare Vorstellungen von den eigenen Grenzen. Manchmal wäre es besser, ChatGPT würde sagen: Das ist zu komplex, dazu kann ich keine Antwort geben.

Eine andere wissenschaftliche Studie des Beth Israel Deaconess Medical Center aus Israel belegt: ChatGPT ist in der Diagnostik, also beim Erkennen von Krankheiten oder Störungen in der Medizin, heute bereits besser als der Mensch, wohlgemerkt besser als Mediziner. Die Studie ist vom April 2024.

Die Ergebnisse waren beeindruckend. Der Chatbot übertraf in mehreren Bereichen die Leistung der menschlichen Ärzte. Insbesondere bei der klinischen Begründung und dem Stellen von Diagnosen zeigte der Chatbot eine bemerkenswerte Genauigkeit.

ChatGPT kommuniziert wie ein Mensch

Es gibt auch eine Studie der Stanford University, die zeigt, dass gerade die neuste Version von ChatGPT mit uns so kommuniziert, als wäre sie ein Mensch. Das erzeugt natürlich ein – sagen wir mal – „vertrauensvolles Umfeld“. Aber diese Studie sagt nichts darüber aus, ob und wie richtig die Antworten sind.

Zwei Punkte sind wichtig 

A) Studien brauchen Zeit – und bis sie fertig sind, haben die Chatbots schon wieder große Schritt in der Weiterentwicklung gemacht.

Und B) egal wie erstaunlich die Leistungen der KIs. Schaffen viel mehr als vor  zwei Jahren . Sie machen trotzdem Fehler . Machen aber Menschen natürlich auch, selbst wenn ich unter meinen Freunden, die schlausten, die alles lesen und zu wissen scheinen, was frage, kann es sein, dass die mal falsch liegen.

Wir entwickeln ja auch ein Gespür dafür, wann ich ich mich auf eine Antwort bei Freunden und Familie verlassen kann, und wann die selber nicht so ganz wissen wovon sie reden. Aber warum hab ich mit KIs ähnliche Probleme? Warum machen die überhaupt Fehler: Die bekommen doch alle Infos, die online verfügbar sind und vergessen nix.

Problem: Auch KI wird mit Unsinn trainiert

Und genau das ist das Problem, könnte man sage. Denn im Netz steht halt auch jede Menge Blödsinn oder zumindest sehr unterschiedliche Antworten auf die selber Frage 😉

ChatGPT und die anderen KI-Chatbots bekommen eben nicht nur die beste Fachliteratur der Welt zu „lesen“, dann könnten sie keine Fragen zur Aktualität beantworten, sondern sie haben auch studiert, was sie im Internet steht. Also Artikel auf Webseiten, Youtube-Videos, aber auch Postings auf Social Media.

Die Wissenschaft ist sich keineswegs immer einig, und auf Social Media und im Web werden durchaus auch viele Falschbehauptungen, Desinformationen und einfach auch Fehler verbreitet. Die Aufgabe einer KI ist es, all diese Informationen zu sammeln, zu bewerten – der Fachartikel hat mehr Gewicht als 100 Behauptungen in Postings – und sich dann einen Eindruck zu machen.

Das ist nicht leicht, das kennen wir doch von uns selbst: Je mehr Experten wir zu einem Thema hören, desto schwieriger wird es doch, sich festzulegen, was stimmt.

Das führt dann schon mal zu Fehlern und die anderen liegen dann oft an uns, wie wir fragen.

ChatGPT und Co: Richtig fragen ist wichtig

Weil wir doof fragen? Bekommen wir doofe Antworten?

Ein bisschen schon. 🙂 Naja, sagen wir mal, wir sorgen oft für Missverständnisse, weil wir unpräzise Formulierungen beim Fragen werden.

Zum Beispiel, wenn ich frage: Was sind die besten Eissorgten? ChatGPT weiß dann nicht, was die Frage bedeuten soll. Was ist gemeint? Die besten Eissorten in der Lieblings-Eisdiele, in einem Land, am beliebtesten bei Kindern? Die Frage ist viel zu unspezifisch und ohne Kontext nicht objektiv zu beantworten.

Ein anderes Beispiel: Wenn ich einfach nur frage: „Wer ist Michael Müller“, kann der Chatbot unmöglich wissen, wen ich meine – und selbst wenn, kann es schon mal passieren, dass einzelne Stationen des Lebenslaufs durcheinander geraten. Man muss dann genauer fragen: „Was weißt Du über den Politiker Michael Müller aus dem Saarland?“ Das hilft.

Also wenn wir etwas von einer KI wissen wollen sollten wir bei jeder Frage beachten, dass wir so präzise wie möglich sind und auch sagen, was genau wir wissen wollen – und auch, wie ausfürhlich die Informationen sein sollen.

Google Barwd ist in Deutschland gestartet
Google Barwd ist in Deutschland gestartet

Der Prompt ist entscheidend für die Qualität

Ich mach das so, bei der Formulierung der Frage etwas mehr Arbeit, aber dafür danach weniger, weil ich nicht mehrfach nachfragen muss. Das ist nen Problem bei ChatGPT, man bekommt zwar die Quellen muss man aber fragen, ich nutze daher häufig  Perplexity.

Ein KI Chatbot haben viele nicht auf dem Zettel, findet man aber einfach im Netz, den Link packe ich gerne in die Shownotes zu den anderen.  Entwickelt von ehemaligen i OpenAI-also ChatGPT-Entwickklern Perplexity legt großen Wert darauf, viele Quellen zu nennen und die Suchergebnisse zusammenzufassen.

Das ist ein wesentlicher Vorteil für die Recherche, da es Transparenz und Überprüfbarkeit der Informationen ermöglicht. Die Quellangaben lassen sich direkt anklicken, damit man bei Bedarf noch mal in die Tiefe gehen kann und nutzt nicht nur ein trainiertes Modell, sondern sucht auch online nach Informationen und versucht Fakten und Behauptungen überprüft – was zu einer höheren Genauigkeit führt. Da vertrauen ich schon mehr auf die Antworten, prüfe aber auch noch mal nach.

Sag deinem Chatbot doch, wenn er Fehler macht…

Was mache ich denn, wenn ich erkenne, dass ein Chatbot offensichtlich oder nur womöglich einen Fehler gemacht hat?

Chatbots machen Fehler. Das wird in Zukunft zwar besser, aber es wird nie ganz auszuschließen sein,. Aber wenn Du einen Fehler entdeckst oder einen Verdacht hast, dann sag einfach: „Das kann nicht stimmen“ – und begründe es kurz.

Du wirst staunen: Oft sagen die Chatbots dann „Du hast recht“, und korrigieren ihre Antwort oder präzisieren sie. Die Entwickler sind sich darüber im Klaren, dass die Chatbots noch Fehler machen und bringen ihnen dabei, souverän damit umzugehen, im Zweifel noch mal nachzuforschen oder auch den Nutzern zu sagen, wenn die Faktenlage nicht eindeutig ist.

Wir können den KIs nicht komplett vertrauen, aber mehr als vor zwei Jahren, man sollte selbst hinterfragen, oder nachbohren und auf die Quellen bestehen. Aber ich vermute, das Vertrauen wird wachsen.

Bedeutet also: Die Antworten von Chatbots werden besser, sind aber noch nicht perfekt – und wir können selbst Einfluss darauf nehmen, dass wir bessere Antworten bekommen, indem wir ausführliche Fragen stellen.

Chatbots können die Antworten von Chatbots überprüfen

Also mehr Vertrauen als Früher aber vielleicht nicht die wichtige Hausarbeit oder nen Bewebrungsgespräch auf die eine KI Antwprt setzen.

Ein Trick hab ich noch: Wer auf Nummer Sicher gehen will, nimmt die Antwort des einen Chatbots und fragt einen anderen, ob das stimmt. Da die Chatbots unterschiedliche Stärken haben, lassen sich so Fehler oft ausmerzen.

Vergleichsstudien zu großen Sprachmodellen:
Eine Studie untersuchte die Genauigkeit und Vollständigkeit der Antworten von großen Sprachmodellen wie ChatGPT im Vergleich zu menschlichen Experten in spezifischen Bereichen wie der Augenheilkunde. Die Ergebnisse zeigten, dass ChatGPT in der Lage ist, präzise und umfassende Antworten zu liefern, obwohl es noch Einschränkungen in Bezug auf das Bewusstsein für eigene Grenzen gibt.

https://www.sciencedaily.com/releases/2024/04/240401142448.htm

Genauigkeit von Chatbots bei der Zitierung von Fachartikeln:
Eine Untersuchung der Genauigkeit von Chatbots, insbesondere ChatGPT, bei der Zitierung wissenschaftlicher Artikel zeigte, dass es noch Herausforderungen gibt, insbesondere in der korrekten und vollständigen Zitierung von Quellen. Diese Studie hebt die Notwendigkeit weiterer Verbesserungen in der Zuverlässigkeit und Genauigkeit von Chatbots bei der wissenschaftlichen Kommunikation hervor.

https://link.springer.com/article/10.1007/s44217-024-00138-2

Leistungsfähigkeit von Chatbots im klinischen Umfeld:
Eine Studie von Beth Israel Deaconess Medical Center verglich die klinische Entscheidungsfindung von Chatbots mit der von Ärzten. Diese Forschung zeigte, dass Chatbots in bestimmten klinischen Szenarien die Leistung von Ärzten übertreffen können, was auf die potenziellen Vorteile von Chatbots als Unterstützungstools in der medizinischen Diagnose hinweist.

https://www.sciencedaily.com/releases/2024/04/240401142448.htm

Perplexity:
www.perplexity.com

Claude AI:

www.claude.ai

KI und Roboter: China führend

KI und Roboter: China führend

In Shanghai findet die „Worldwide AI Conference“ (WAIC) statt: Es geht um weltweite Standards für KI und Robotik.

Künstliche Intelligenz ist ein Thema, das geht nicht wieder weg. Wir reden alle darüber, ständig – auch hier bei schieb.de.

Nicht, weil wir alle solche Technikfüchse wären, sondern weil KI tatsächlich in unser aller Leben eindringt – nach und nach, in alle Bereiche.

In Shanghai ist am Donnerstag die Weltkonferenz zur Künstlichen Intelligenz gestartet (WAIC). Dort wird unter anderem auch über Regulierung von KI diskutiert. Auch Roboter sind ein Thema.

Der AI Act ist beschlossene Sache: Die EU hat einige relevante Regeln fpr KI aufgeschrieben
Der AI Act ist beschlossene Sache: Die EU hat einige relevante Regeln fpr KI aufgeschrieben

China führend bei KI-Patenten

Künstliche Intelligenz entwickelt sich rasant weiter. China haben wir da nicht unbedingt auf dem Zettel, eher die USA.

Wir sind halt zu sehr auf die uns bekannten Namen wie OpenAI, Microsoft, Google etc. fixiert. Aber die Realität sieht völlig anders aus. Um es mal in Zahlen auszudrücken: China hat in den letzten zehn Jahren 38.000 Patente im Bereich der generativen KI ausgestellt, in den USA waren es nur 6.300.

Das sind gerade mal 20 Prozent. Und in dem Land, in dem vielleicht am meisten über KI-Regulierung gesprochen wird, in Deutschland, waren es gerade mal 700 Patente in zehn Jahren. Mehr als 25% aller Patente im letzten Jahr übrigens.

Der chinesische Staat fördert KI mit dreistelligen Milliardenbeträgen.

China hat in den letzten Wochen erstaunliche KIs präsentiert im Bereich der generativen Videos, also KI-Modelle, die Videos erstellen können. Die sehen alle besser aus als die KI-Modelle von Google oder OpenAI. Wir sollten das also nicht unterschätzen, was China im Bereich KI macht. Das Land ist mittlerweile führend.

Unterschiedliche Arten der KI

USA und China sind also führend. Die Kultur ist im Westen und in Asien doch eine komplett andere. Macht sich das auch in der KI bemerkbar?

Beim Training der KI auf alle Fälle

Die Unterschiede in den Herangehensweisen führen zu verschiedenen Schwerpunkten und Herausforderungen. In westlichen Ländern wird der Fokus oft auf die ethischen Implikationen und den Schutz der Privatsphäre gelegt, während in China die pragmatische Anwendung und die schnelle Implementierung im Vordergrund stehen. Datenschutz gibt es in China nicht.

Dennoch gibt es gemeinsame Ziele, wie die Verbesserung der Lebensqualität und die Förderung wirtschaftlichen Wachstums durch KI. Auch Regulierung. Die Frage ist: Wie reguliert man KI weltweit. Das ist wichtig, denn nur dann macht Regulierung Sinn.

Tesla stellt den Roboter Optimus bereits in der zweiten Generation vor
Tesla stellt den Roboter Optimus bereits in der zweiten Generation vor

Roboter: Tesla mit Optimus (Haushaltsroboter)

Ein anderes großes Thema auf der Konferenz ist die Robotik. Auch Roboter werden immer schlauer – und ohne KI sind sie kaum denkbar.

Ein boomender Markt: Roboter sind heute schon in vielen Bereichen im Einsatz: In der Industrie übernehmen sie schon lange präzise und wiederholbare Aufgaben wie Schweißen oder Montage, etwa bei Autoherstellern in Deutschland. Die Bilder kennen wir auch, wie Roboterarme blitzschnell selbst schwere Aufgaben erledigen.

Doch KI verändert auch die Robotik. Ein Roboter, der immer dieselben sieben Schweißnähte setzt, kommt wunderbar ohne KI aus. Aber ein Roboter, der flexibel auf Situationen reagieren soll, etwa Fehler entdecken und sie beseitigen, faules Obst aus dem Laufband sortieren oder sich in einer fremden Umgebung – etwa einer Wohnung – orientieren, das geht nur mit KI.

Deshalb ist es auch absehbar, dass Roboter in den Haushalt kommen. Staubsauger-Roboter gibt es schon. Aber Autobauer Tesla entwickelt einen Haushaltsroboter namens Optimus, der in China in der zweiten Generation vorgestellt wurde. Er läuft rum, er kann schwere Dinge heben und transportieren, aber auch Wäsche falten. Das braucht zwingend KI. So ein Roboter kostet allerdings noch 20.000 Dollar. Noch. Könnte aber mal ein Massenprodukt werden.

Globale Regeln für KI und Roboter

Das Beispiel der Roboter zeigt natürlich eindrücklich, dass KI nicht mehr länger nur Software ist, sondern sogar Roboter steuert. Wie kann denn nun der Spagat zwischen den unterschiedlichen Interessen von USA, EU und China gelingen?

KI und Roboter sind Zukunftsmärkte. USA und China sind hier die großen Player. Es ist wichtig, dass die beiden großen Rivalen nicht völlig getrennt oder vielleicht sogar gegeneinander entwickeln. Deshalb gibt es sogar eine UN-Resolution, die die internationale Gemeinschaft dazu aufruft, eine „freie, offene, inklusive und nicht-diskriminierende“ Geschäftsumgebung für die KI-Entwicklung zu schaffen.

Also mehr Miteinander als Gegeneinander. Zumindest auf dem Papier. Es ist ein erklärtes Ziel der Konferenz in China, einheitliche Standards und Regulierung für KI zu definieren. Prinzipiell zu begrüßen, da nur globale Standards sinnvoll sind. Der AI Act der EU zum Beispiel, der gilt ja nur für KI, die im EU-Raum eingesetzt wird. Entwickelt wird KI aber vor allem in China und USA. Je besser es gelingt, sich auf Standards zu einigen, desto besser.

Ob es gelingt und was bei der Konferenz herauskommt, wissen wir aber erst, wenn sie vorbei ist.

Perplexity: Der KI-Assistent, der deinen Wissensdurst stillt

Perplexity: Der KI-Assistent, der deinen Wissensdurst stillt

Stell dir vor, du hättest einen persönlichen Assistenten, der nicht nur alle deine Fragen beantwortet, sondern auch immer auf dem neuesten Stand ist und dir zuverlässige Quellen liefert.

Klingt zu gut, um wahr zu sein? Nicht mit Perplexity! Entdecke, wie dieses innovative KI-Tool deine Art zu recherchieren und zu lernen revolutionieren kann.

Du fragst dich wahrscheinlich, was Perplexity von anderen KI-Chatbots unterscheidet. Nun, stell dir vor, du könntest ChatGPT mit einer Suchmaschine und einem Faktenprüfer kreuzen. Das Ergebnis wäre Perplexity: ein leistungsstarker KI-Assistent, der nicht nur antwortet, sondern auch erklärt, woher er seine Informationen hat.

perplexity scrn

Was ist Perplexity und wer steckt dahinter?

Perplexity ist ein KI-gestützter Chatbot, der im Dezember 2022 von einer Gruppe ehemaliger Mitarbeiter von OpenAI, Meta und Google gegründet wurde. Das Unternehmen hat seinen Sitz in San Francisco und wird von Aravind Srinivas geleitet, der zuvor bei OpenAI tätig war.

Der Name „Perplexity“ ist clever gewählt. In der Welt der künstlichen Intelligenz bezieht sich „Perplexity“ auf ein Maß dafür, wie gut ein Sprachmodell eine Sequenz von Wörtern vorhersagen kann.

Je niedriger die Perplexity, desto besser versteht das Modell den Kontext und kann präzisere Vorhersagen treffen. Indem sie ihrem Dienst diesen Namen gaben, signalisieren die Gründer ihr Ziel: ein KI-Tool zu schaffen, das Sprache und Kontext so gut versteht, dass es präzise und hilfreiche Antworten geben kann.

Perplexity unterscheidet sich von anderen Chatbots dadurch, dass es nicht nur auf ein vortrainiertes Sprachmodell zurückgreift, sondern aktiv das Internet durchsucht, um die aktuellsten und relevantesten Informationen zu finden. Es ist wie ein persönlicher Forschungsassistent, der in Echtzeit für dich arbeitet.

Perplexity ist von Ex-Mitarbeitern bei OpenAI (ChatGPT) entwickelt worden
Perplexity ist von Ex-Mitarbeitern bei OpenAI (ChatGPT) entwickelt worden

Die Stärken von Perplexity: Aktualität und Quellenangaben

Eine der größten Stärken von Perplexity ist seine Fähigkeit, auch über aktuelle Ereignisse Auskunft zu geben. Anders als viele andere KI-Modelle, deren Wissen zu einem bestimmten Zeitpunkt „eingefroren“ wurde, kann Perplexity auf die neuesten Online-Informationen zugreifen.

Stell dir vor, du möchtest wissen, wer das letzte Grand-Slam-Turnier gewonnen hat. Während ein statisches KI-Modell dir vielleicht eine veraltete Antwort geben würde, kann Perplexity die aktuellsten Ergebnisse liefern. Wenn du zum Beispiel fragst: „Wer hat die Australian Open 2024 gewonnen?“, wird Perplexity dir nicht nur den Namen des Siegers nennen, sondern auch Details zum Turnierverlauf und vielleicht sogar Reaktionen aus der Tenniswelt liefern.

Ein weiterer wesentlicher Vorteil von Perplexity ist die Angabe von Quellen. Jede Antwort wird mit Links zu den verwendeten Informationsquellen versehen. Das erhöht nicht nur die Glaubwürdigkeit der Antworten, sondern gibt dir auch die Möglichkeit, selbst tiefer in ein Thema einzutauchen.

Nehmen wir an, du fragst nach den Auswirkungen des Klimawandels auf die Arktis. Perplexity wird dir nicht nur eine zusammenfassende Antwort geben, sondern auch Links zu wissenschaftlichen Studien, Berichten von Umweltorganisationen und aktuellen Nachrichten zum Thema bereitstellen. So kannst du die Informationen selbst verifizieren und bei Bedarf weiter recherchieren.

perplexity chatbot

Wie Perplexity deinen Alltag bereichern kann

Perplexity kann in vielen Alltagssituationen ein nützlicher Begleiter sein. Hier sind einige Beispiele:

  1. Reiseplanung: Du planst einen Urlaub in einem Land, das du noch nie besucht hast? Frag Perplexity nach den besten Reisezeiten, Sehenswürdigkeiten, kulturellen Besonderheiten und aktuellen Einreisebestimmungen. Du erhältst nicht nur umfassende Informationen, sondern auch Links zu offiziellen Reiseportalen und aktuellen Reiseberichten.
  2. Kochunterstützung: Du hast Zutaten im Kühlschrank, weißt aber nicht, was du daraus kochen sollst? Gib Perplexity eine Liste deiner verfügbaren Zutaten, und es wird dir Rezeptvorschläge machen, komplett mit Zubereitungsanleitung und Nährwertinformationen. Zusätzlich erhältst du Links zu Kochwebsites und Food-Blogs für weitere Inspiration.
  3. Technische Problemlösung: Dein Smartphone macht Probleme? Beschreibe Perplexity das Problem, und es wird dir Schritt-für-Schritt-Anleitungen zur Fehlerbehebung geben, basierend auf den neuesten Informationen aus Tech-Foren und Herstellersupport-Seiten.
  4. Aktuelle Ereignisse verstehen: Du hast von einem wichtigen politischen Ereignis gehört, verstehst aber den Kontext nicht ganz? Perplexity kann dir einen Überblick über die Situation geben, die Hintergründe erklären und dich mit Links zu fundierten Nachrichtenartikeln und Analysen versorgen.

Die Herausforderungen und Grenzen von Perplexity

Trotz seiner beeindruckenden Fähigkeiten ist Perplexity nicht perfekt. Es gibt einige Herausforderungen und Grenzen, die du im Hinterkopf behalten solltest:

  1. Informationsüberflutung: Manchmal kann Perplexity so viele Informationen liefern, dass es überwältigend sein kann. Es liegt an dir, die relevanten Teile herauszufiltern.
  2. Mögliche Verzerrungen: Obwohl Perplexity versucht, objektiv zu sein, kann es die Voreingenommenheit seiner Quellen widerspiegeln. Es ist wichtig, kritisch zu bleiben und bei kontroversen Themen mehrere Perspektiven zu berücksichtigen.
  3. Sprachliche Einschränkungen: Während Perplexity in vielen Sprachen funktioniert, ist seine Leistung in weniger verbreiteten Sprachen möglicherweise nicht so gut wie im Englischen.
  4. Datenschutzbedenken: Da Perplexity aktiv im Internet sucht, solltest du vorsichtig sein, keine sensiblen persönlichen Informationen in deine Anfragen einzubeziehen.

Perplexity vs. andere KI-Chatbots: Ein Vergleich

Um die Einzigartigkeit von Perplexity zu verstehen, lohnt sich ein Vergleich mit anderen bekannten KI-Chatbots:

  1. ChatGPT: Während ChatGPT auf einem großen, aber statischen Datensatz trainiert wurde, greift Perplexity auf aktuelle Online-Informationen zu. ChatGPT kann kreativere und freiere Antworten geben, aber Perplexity ist bei aktuellen Ereignissen und faktenbasierten Fragen im Vorteil.
  2. Google Bard: Ähnlich wie Perplexity hat auch Google Bard Zugriff auf aktuelle Informationen. Allerdings ist Perplexity transparenter in Bezug auf seine Quellen und bietet oft detailliertere Antworten.
  3. Bing Chat: Microsofts KI-Assistent ähnelt Perplexity in der Fähigkeit, aktuelle Informationen zu liefern. Perplexity hebt sich jedoch durch seine benutzerfreundlichere Oberfläche und die konsequentere Quellenangabe ab.
  4. Anthropic’s Claude: Claude ist bekannt für seine ethischen Überlegungen und detaillierten Antworten. Perplexity punktet hingegen mit seiner Aktualität und den direkten Quellenverweisen.

Wie du Perplexity effektiv nutzen kannst

Um das Beste aus Perplexity herauszuholen, hier einige Tipps:

  1. Sei präzise: Je genauer deine Frage, desto relevanter wird die Antwort sein. Statt „Erzähl mir etwas über Elektroautos“ frag lieber „Was sind die Vor- und Nachteile von Elektroautos im Vergleich zu Benzinfahrzeugen in Bezug auf Umweltauswirkungen und Gesamtbetriebskosten?“
  2. Nutze die Quellen: Klicke auf die bereitgestellten Links, um tiefer in ein Thema einzutauchen. So kannst du die Informationen verifizieren und dein Wissen erweitern.
  3. Stelle Folgefragen: Wenn du mit einer Antwort nicht zufrieden bist oder mehr Details benötigst, zögere nicht nachzuhaken. Perplexity kann auf vorherige Antworten aufbauen.
  4. Vergleiche Perspektiven: Bei kontroversen Themen kannst du Perplexity bitten, verschiedene Standpunkte darzulegen. So erhältst du ein ausgewogeneres Bild.
  5. Nutze es als Startpunkt: Perplexity ist ein hervorragendes Tool für den Einstieg in ein Thema. Nutze es, um einen Überblick zu bekommen und identifiziere dann Bereiche, in denen du tiefer recherchieren möchtest.

Die Zukunft von Perplexity: Wohin geht die Reise?

Perplexity entwickelt sich ständig weiter. Einige mögliche zukünftige Entwicklungen könnten sein:

  1. Verbesserte multimodale Fähigkeiten: Die Möglichkeit, Bilder und Audio zu verarbeiten und zu analysieren, könnte Perplexity noch vielseitiger machen.
  2. Personalisierung: Zukünftige Versionen könnten deine Interessen und deinen Wissenstand berücksichtigen, um noch relevantere Antworten zu liefern.
  3. Erweiterte Sprachunterstützung: Eine Verbesserung der Leistung in weniger verbreiteten Sprachen könnte Perplexity für ein noch breiteres globales Publikum zugänglich machen.
  4. Integration mit anderen Tools: Die Möglichkeit, Perplexity nahtlos in Produktivitäts-Apps oder Lernplattformen zu integrieren, könnte seinen Nutzen weiter steigern.
  5. Verbessertes Faktencheck-System: Noch sophistiziertere Methoden zur Überprüfung und Validierung von Informationen könnten die Zuverlässigkeit weiter erhöhen.

Ethische Überlegungen und verantwortungsvoller Einsatz

Mit großer Macht kommt große Verantwortung. Als Nutzer von Perplexity solltest du einige ethische Aspekte berücksichtigen:

  1. Kritisches Denken: Auch wenn Perplexity beeindruckend genau ist, solltest du die Informationen nicht blind akzeptieren. Übe dich in kritischem Denken und überprüfe wichtige Informationen.
  2. Urheberrecht beachten: Wenn du Informationen von Perplexity in deiner eigenen Arbeit verwendest, stelle sicher, dass du die ursprünglichen Quellen korrekt zitierst.
  3. Privatsphäre schützen: Sei vorsichtig mit den persönlichen Informationen, die du in deinen Anfragen preisgibst.
  4. Bewusstsein für KI-Grenzen: Verstehe, dass Perplexity, wie alle KI-Systeme, Grenzen hat. Es kann Fehler machen oder voreingenommen sein.
  5. Verantwortungsvoller Einsatz: Nutze Perplexity, um dein Wissen zu erweitern und informierte Entscheidungen zu treffen, nicht um Fehlinformationen zu verbreiten oder anderen zu schaden.

Fazit: Perplexity als Werkzeug für lebenslanges Lernen

Perplexity ist mehr als nur ein weiterer KI-Chatbot. Es ist ein leistungsfähiges Werkzeug für lebenslanges Lernen und informierte Entscheidungsfindung. Mit seiner Fähigkeit, aktuelle Informationen zu liefern und Quellen transparent zu machen, überbrückt es die Lücke zwischen statischen Wissensdatenbanken und der sich ständig verändernden Welt um uns herum.

Ob du nun ein Student bist, der nach zuverlässigen Quellen für eine Hausarbeit sucht, ein Berufstätiger, der sich über die neuesten Branchentrends informieren möchte, oder einfach ein neugieriger Geist, der die Welt besser verstehen will – Perplexity kann ein wertvoller Begleiter auf deiner Wissensreise sein.

Denk daran: Perplexity ist ein Werkzeug, kein Ersatz für menschliches Denken und Urteilsvermögen. Nutze es weise, hinterfrage kritisch und lass dich von der Fülle an Informationen inspirieren, dein Wissen ständig zu erweitern und zu vertiefen. In einer Welt, die sich schneller denn je verändert, kann Perplexity dir helfen, immer einen Schritt voraus zu sein.

Ich weiss, wo Du Deine Fotos gemacht hast: Metadaten und KI veraten eine Menge

Ich weiss, wo Du Deine Fotos gemacht hast: Metadaten und KI veraten eine Menge

Wer Fotos macht, hinterlässt Spuren – zum Beispiel in den Metadaten. Die lassen Rückschlüsse auf den Ort der Aufnahme zu. Aber auch KI kann den herausfinden.

Fotos in Sozialen Netzwerken

Wir alle machen heute unzählige Fotos. Andauernd. Schließlich haben wir unsere Kamera immer mit dabei. Mit dem Smartphone. Oft genug verteilen wir viele der Fotos dann gleich, vor allem auf Social Media, vielleicht aber auch über Messenger wie WhatsApp oder Signal.

Schnell verliert man die Kontrolle darüber, wo die Fotos landen – und wer sie sehen kann. Dabei sollten wir unsere Fotos vielleicht nicht so freizügig verteilen. Denn die meisten Fotos enthalten Daten, die Rückschlüsse erlauben, wo ein Foto entstanden ist.

Und wer jetzt abwinkt und meint: Kenne ich doch… Moment. Mittlerweile gibt es sogar eine KI, die nur durch Analyse des Fotos, vor allem des Hintergrunds sagen kann, wo es aufgenommen wurde. Klingt spooky genug?

Metadaten sind zahlreiche Daten und Informationen, die unsichtbar im Foto gespeichert werden
Metadaten sind zahlreiche Daten und Informationen, die unsichtbar im Foto gespeichert werden

Fast jedes Foto hat Metadaten

Man sieht diese Angaben normalerweise auch nicht. Wir sprechen hier über sogenannte Metadaten, die in der Bilddatei enthalten sind, aber nicht im sichtbaren Bereich. Wer sich Metadaten eines Fotos anschauen will, muss etwas Aufwand betreiben.

Doch in allen Betriebssystemen – ob Windows, MacOS, iOS oder Android – ist es möglich, sich die Metadaten anzuschauen. In der Regel muss man das Foto auswählen und dann eine Funktion „Info“ oder „Eigenschaften“ aufrufen, dann erscheinen die Metadaten – auch die sogenannten „Exif“-Daten.

Da steht unter anderen auch, wo die Aufnahme entstanden ist – mit Längen- und Breitengrad. Auch eine Menge weiterer Infos, etwa, mit welcher Kamera oder mit welchem Smartphone ich fotografiert habe. Sogar, welche Blende die Kamera verwendet hat und ob der Blitz ausgelöst wurde.

Wer Fotos teilt, teilt oft auch den Standort

Und wenn ich meine Fotos teile, dann gebe ich all diese Informationen auch weiter?

Prinzipiell schon – aber nicht immer. Wenn du die Fotos mit einem Messenger verschickst, passiert es häufig, dass die Empfänger der Fotos die Metadaten nicht mehr erhalten, der Anbieter der App allerdings schon. So ist es zum Beispiel bei WhatsApp und Facebook Messenger. Signal hingegen entfernt die Metadaten noch vor dem Absenden. Es kommt also drauf an.

Wer ein Foto per E-Mail verschickt oder in die Cloud hochlädt und dann den Link teilt, der teilt auch die Metadaten. Wer hingegen seine Fotos bei Facebook oder Instagram hochlädt, kann sicher sein: Alle, die sich die Fotos anschauen, können den Aufnahmeort nicht sehen, da Facebook und Instagram die Daten vorher entfernen.

Der Meta-Konzern bekommt sie aber schon. Der sammelt alle Daten, auch die Standortdaten der Fotos und weiß also so, wo man sich aufgehalten hat und wo man Fotos macht.

Prinzipiell ist es auch bei Videos möglich; aber viele Apps oder Kameras speichern diese Daten nur, wenn man es ausdrücklich will.

Klare Vorteile von Meta- und Geodaten

Jeder kann die Metadaten aber auch für eigene Zwecke nutzen.

Die Metadaten bieten viele Vorteile. Wer mit hochwertigen Kameras fotografiert und seine Fotos später bearbeiten will, sieht sogar, mit welcher Blende, welchem Objektiv, welcher Belichtungszeit fotografiert wurde – das kann ungeheuer hilfreich sein.

Aber auch wer nur mit dem Smartphone fotografiert, kann Vorteile haben. iPhones und Android-Handys und auch die Cloud-Dienste für Fotos bieten die Möglichkeit, ganz gezielt Fotos herauszusuchen, die an einem bestimmten Ort aufgenommen wurden.

Gib einfach mal „Mallorca“ oder „Bordeaux“ ein in der Foto-Suche – Du wirst dann schon sehen, was ich meine. Die App zeigt dir nur die Fotos, die vor Ort gemacht wurden – oder zeigt in einer Landkarte an, wo welche Fotos entstanden sind. Das ist sehr praktisch.

Aber auch Polizei oder Strafverfolgungsbehörden können diese Geodaten in Fotos im Einzelfall nutzen, etwa wenn sie herausfinden wollen oder müssen, wo ein Foto entstanden ist. In solchen Fällen ist es natürlich hilfreich, wenn die Metadaten noch da sind.

Wenn Metadaten geteilt werden

Kommen wir auf die Nachteile zu sprechen: Was bedeutet es, wenn ich diese Metadaten teile?

Mark Zuckerberg bedankt sich: Je mehr Daten, desto besser. Das gilt ganz besonders für Metadaten. Aber nicht nur der Meta-Konzern, jeder, der viele Fotos von dir in die Hände bekommt, kann Bewegungsprofile anfertigen. Weiss, wann du Tennis spielst und wo, an welchen Orten du bevorzugt Urlaub machst und wo deine Freunde wohnen.

Standortdaten sind vielleicht die sensibelsten Informationen, die man teilen kann. Weil man gewiss nicht möchte, dass Fremde wissen, wo man sich aufhält – außer vielleicht, wenn man gerade in Paris ist und den Eiffelturm postet. Da ist es offensichtlich, dass man möchte, dass jeder weiß, wo man gerade ist.

Aber wer ein Refugium hat, von dem niemand erfahren soll, der ist gut beraten, dort keine Fotos zu machen und die zu teilen.

KI  kann heute ziemlich genau den Ort einer Aufnahme ermitteln – auch ohne Metadaten
KI kann heute ziemlich genau den Ort einer Aufnahme ermitteln – auch ohne Metadaten

Metadaten los werden

Wenn ich also nicht möchte, dass andere meine Standortdaten teilen, muss ich diese Metadaten loswerden.

Sagen wir mal so: Facebook, Whatsapp und Instagram sind so freundlich, die Metadaten abzuschneiden, bevor sie an Dritte weitergegeben werden. Doch Meta sammelt die Daten, wie bereits erwähnt.

Wer die Metadaten entfernen möchte, kann das bei jedem Foto manuell machen – oder Tools benutzen, die das schneller erledigen und bei vielen Fotos gleichzeitig. Solche Tools nennen sich ExifTool oder Gimp auf dem Desktop, oder Metapho (iOS) oder Photo Exif Editor (Android) – oder man geht auf eine Webseite wie EXIF.tools.

Es macht also Mühe. Aber wenn man Fotos von seinem Refugium publizieren möchte oder einfach nicht möchte, dass andere wissen wo man ist, gilt: Entweder gar keine Fotos veröffentlichen oder sich vorher die Mühe machen, die Metadaten zu entfernen.

Geospy: Eine KI erkennt den Aufnahmeort

Es gibt jetzt aber auch KIs, auch ohne Metadaten rausfinden, wo ein Foto aufgenommen wurde. Klingt irgendwie spooky.

Die KI nennt sich Geospy AI und wurde von einem kleinen Team von drei Brüdern in den USA entwickelt. Ich habe mit den Gründern gesprochen, um die genaue Funktionsweise und auch die Motivation zu verstehen.

Die Handhabung ist wirklich einfach: Webseite aufrufen – die ist für jeden frei zugänglich –, ein Foto hochladen. Fertig, das Ergebnis steht auf dem Bildschirm, Zum Beispiel ein Foto vom letzten Trip, ein Straßenzug mit schicken Häusern. Man ahnt, das könnte England sein. Doch die KI zeigt tatsächlich die genaue Position in London.

Jeder kann Geospy benutzen, im Web. Es kostet nicht mal was.

Einzige Bedingung: Die Fotos müssen draußen aufgenommen worden sein. Man muss etwas von der Landschaft und der Stadt sehen.

Geospy: Eine KI, die Fotos auf Hinweise untersucht
Geospy: Eine KI, die Fotos auf Hinweise untersucht

Noch keine perfekte Genauigkeit

Die Genauigkeit ist im Augenblick noch sehr durchwachsen. Manchmal klappt das erstaunlich gut, manchmal liegt sie aber auch total daneben. Ein Foto aus London oder Paris funktioniert super, vor allem wenn Häuser oder markante Punkte zu sehen sind, und sei es nur angedeutet. Auf dem Land funktioniert es noch nicht so gut.

Die Betreiber sagen aber auch: Die KI steht ganz am Anfang. Sie befindet sich noch im Testbetrieb, Betastadium, und muss noch lernen. So ist das bei jeder KI.

Die öffentlich für jeden zugängliche Version soll auch gar nicht so genau sein, damit kein Schindluder damit getrieben wird. Doch die Betreiber haben auch eine Pro-Version am Start. Die ist sehr viel präziser. Die Pro-Version soll kostenpflichtig sein und ist für Polizei, Strafvollzugsbehörden und Journalisten – gedacht. Also für alle, die manchmal rausfinden müssen, wo ein Foto gemacht wurde.

Das erklärte Ziel der Betreiber: Jede Aufnahme genau zuordnen zu können.

So findet die KI den Ort der Aufnahme

Das Unternehmen ist sehr zurückhaltend mit Informationen. Laut Betreiber hat die sich Millionen von Fotos angeschaut, auch Straßenfotos. Ich gehe davon aus, die KI wurde mit den Bildern aus Google Streetview und/oder Apple Lookaround „gefüttert“, also daran trainiert. Diese Daten sind öffentlich zugänglich und zeigen die halbe Welt von der Straße aus, das wäre naheliegend. Dazu kommen noch weitere öffentlich zugängliche Fotos.

Darüber hinaus erkennt die KI Baustil, Wetterverhältnisse, Vegetation und viele andere Details, das hilft beim Sherlock Holmes spielen und erlaubt Rückschlüsse. Auch das habe ich probiert: Ein Foto, das ich am Gardesee gemacht habe. Die KI erkennt das treffend, obwohl es eigentlich keine konkreten Hinweise gibt. Der Ort stimmt nicht ganz genau, es ist der Nachbarort. Schon spooky. Bei anderen Fotos haut sie völlig daneben. Es läuft also noch längst nicht perfekt. Aber je mehr die KI trainiert wird, desto besser wird sie.

Nicht immer trift Geospy ins Schwarze
Nicht immer trift Geospy ins Schwarze

Vorsicht beim Posten von Fotos

Aber was bedeutet das für die Zukunft: Was für einen selbst manchmal nützlich sein kann, ist doch gleichzeitig auch ein Fluch?

Unbedingt. Denn wenn irgendwann fast jedes auf Social Media gepostete Foto Rückschlüsse auf den aktuellen Aufenthaltsort erlaubt, kann es ein zunehmendes Risiko werden, die Bilder zu posten. Man möchte sich nicht vorstellen, was Stalker damit anstellen. Sie können ihre Opfer noch einfacher ausspionieren. Noch weniger Privatsphäre, zumindest wenn wir Fotos posten.

Wir werden also womöglich besser aufpassen müssen, was im Hintergrund eines Bildes zu sehen ist – oder nur noch in Innenräumen fotografieren. Noch arbeitet diese KI alles andere als perfekt – irgendwann aber schon. Dann wird man darüber sprechen müssen, was erlaubt ist und was nicht.

„Apple Intelligence“: KI wird zum vielseitigen Assistenten

„Apple Intelligence“: KI wird zum vielseitigen Assistenten

Apple hat auf der Entwicklerkonferenz WWDC24 eine eigene KI vorgestellt. Siri soll deutlich schlauer werden und greift dazu unter anderem auf ChatGPT zurück. User können künftig per Sprache Apps steuern.

Apple Intelligence = AI

Die Gerüchte haben sich bestätigt: Auch Apple steigt nun auf den KI-Schnellzug auf. Das schien auch dringend nötig, denn anders als Google, Microsoft, Meta oder Amazon hatte Apple bislang keine eigene KI am Start.

Das ändert sich jetzt – und das Apple-like: Unter dem Begriff „Apple Intelligence“ fasst der Apple-Konzern einen ganzen Strauß unterschiedlicher KI-Funktionen zusammen, die Apple-Chef Tim Cook im kalifornischen Hauptquartier auf der Entwicklerkonferenz WWDC24 vorgestellt hat – und Apple-Nutzern künftig zur Verfügung stehen soll.

Falls es Euch noch nicht gleich aufgefallen ist: Der gewählte Name Apple Intelligence ist ein strategischer Schachzug, denn er lässt sich „AI“ abkürzen, die englischsprachige Abkürzung für KI ganz generell.

Das wirkt sprachlich fast so, als wollte das Unternehmen den Begriff kapern. Künftig wird man in der englischsprachigen Welt nicht immer direkt wissen, ob mit „AI“ KI ganz allgemein oder die von Apple gemeint ist.

Auch ChatGPT ist mit eingebaut - da wo nötig
Auch ChatGPT ist mit eingebaut – da wo nötig

KI soll in alle Geräte kommen

Apple wirft nicht einfach eine weitere (generative) KI auf den Markt, sondern hat eine KI entwickelt, die eng mit den Betriebssystemen verzahnt ist. Die KI soll schnell und jederzeit zur Verfügung stehen.

Apples eigene KI soll in allen künftigen Apple-Betriebssystem stecken, ob MacOS für Macs (die neue Version wurde „Sequoia“ getauft), iOS 18 für iPhone oder iPadOS 18 für iPad. Selbst auf der Smartwatch des Apfel-Konzerns werden einige KI-Funktionen zur Verfügung stehen.

Das ändert wirklich alles, denn zum ersten Mal sind jede Menge KI-Funktionen in nahezu allen Bereichen auf einem Desktop (Mac) oder Mobilgerät (iOS, iPadOS) verfügbar. In vielen Fällen fällt es gar nicht auf, dass man da gerade KI benutzt. Es steht auch nicht dran.

Siri lernt echtes Verstehen – und versteht Kontext

Vor allem der Sprachassistent „Siri“ wird aufgemotzt: In den letzten 13 Jahren seit seiner Erfindung haben sich Siris Fähigkeiten nicht wesentlich weiterentwickelt. Wer sich nicht an die strikten Befehle des Assistenten hält, wird nicht verstanden. Das ist in Zeiten von ChatGPT – einem Chatbot, der fast alles versteht – natürlich nicht mehr zeitgemäß.

Das neue Siri soll natürliche Sprache verstehen – und auch den Kontext. Wer zum Beispiel fragt: „Wann kommt meine Frau an“, versteht Siri die Anfrage ganz genau. Siri weiß, wie die Mitglieder der Familie oder Freunde heißen, kennt – etwa durch Einträge im Kalender oder Nachrichten und Mails – die Umstände und schaut dann nach, ob die Maschine pünktlich ist.

Siri wird so zu einem Assistenten. Das ist nur möglich, weil die erforderlichen Informationen direkt oder indirekt in den Geräten stecken. Auf solche Informationen können Chatbots wie ChatGPT oder Gemini nur zugreifen, wenn man sie ihnen ausdrücklich zur Verfügung stellt.

Apps steuern und bedienen

Auch die Apps lassen sich per Sprache steuern: „Suche alle Fotos meiner Tocher“. Und dann: „Die aus Florenz und mit dem roten T-Shirt“. Per KI lassen sich Prozesse anstoßen, Apps starten, Funktionen nutzen – ohne Tippen, Klicken oder Wischen. Alle App-Entwickler können diese Funktionen in ihre Apps integrieren. Es wäre also auch denkbar, eine Reisebuchungs-App zu sagen: „Ich benötige ein Zimmer mit Meerblick auf Mallorca über Pfingsten“.

Es ist gar nicht so einfach, aus dem Stand einen Chatbot und eine generative KI wie ChatGPT oder Gemini (Google) zu entwickeln. Deshalb hat sich Apple entschlossen, mit OpenAI zu kooperieren: Im Sprachassistenten Siri steckt künftig auch ChatGPT. Kostenlos.

Apples KI kann direkt in den Apps Texte zusammenfassen, umschreiben oder Inhalte zusammenfassen
Apples KI kann direkt in den Apps Texte zusammenfassen, umschreiben oder Inhalte zusammenfassen

KI läuft größtenteils im eigenen Gerät

Eine Besonderheit ist, dass viele KI-Funktionen direkt in den Geräten laufen sollen. Das bringt eine Menge Vorteile: Es braucht kein Internet, es wird keine Bandbreite verbraucht, wenn man unterwegs KI-Dienste benötigt, es spart jede Menge Energie – und die Antworten kommen viel schneller.

Apples KI soll zum Beispiel Zusammenfassungen von Texten erstellen können, zum Beispiel eine lange E-Mail oder Nachricht. Wer mag, kann die KI sogar Antworten lassen. Auch ist es möglich, einen geschriebenen Text umformulieren zu lassen, etwa von förmlich in persönlich (oder umgekehrt) oder kürzer zu fassen.

Es lassen sich aber auch – in gewissem Rahmen – Bilder mit der KI erzeugen, etwa individuelle Emojis. Auch ist es möglich, mit einem Fingerschnipp störende Objekte aus einem Foto zu retuschieren. Eine Funktion, die Google in seinen „Pixel“-Smartphones schon länger anbietet. KI ist das neue Killer-Feature für alle Hersteller.

Apple Intelligence ist mit den meisten meisten neueren Geräten kompatibel
Apple Intelligence ist mit den meisten meisten neueren Geräten kompatibel

Apple verspricht Privatsphäre

Ein Aspekt ist noch wichtig: Apple garantiert beim KI-Einsatz komplette Privatsphäre. Viele Aufgaben kann die KI direkt in den Geräten erledigen, verlassen das Gerät also nicht. Was nicht direkt im Gerät möglich ist, wird an Apple-eigene Server übertragen, die keine persönlichen Daten empfangen. Das passt zur Strategie des Konzerns, die Daten der Nutzer zu schützen.

Meta AI soll mit Postings von Nutzer trainiert werden

Meta AI soll mit Postings von Nutzer trainiert werden

Mark Zuckerbergs Meta-Konzern, zu dem bekanntlich Facebook und Instagram gehören (sowie WhatsApp und Threads), will seine KI-Modelle künftig mit Beiträgen deutscher Nutzer trainieren. Wer das nicht möchte, muss widersprechen.

Auch Meta entwickelt Künstliche Intelligenz. Das KI-Modell Llama ist sogar sehr gut und OpenSource zu haben.

Meta AI soll eine Art ChatGPT werden

Jetzt entwickelt der Konzern an der Meta AI, eine Forschungsinitiative und Abteilung von Meta Platforms (ehemals Facebook), die sich auf die Entwicklung und den Einsatz von Künstlicher Intelligenz (KI) konzentriert.

Das Ziel von Meta AI ist es, durch fortschrittliche Forschung und Technologie innovative Lösungen zu schaffen, die das Verständnis und die Interaktion mit der digitalen Welt verbessern.

Meta AI arbeitet an einer Vielzahl von Projekten, die von natürlicher Sprachverarbeitung und Computer Vision bis hin zu maschinellem Lernen und Robotics reichen. Dabei werden sowohl Grundlagenforschung als auch anwendungsbezogene Entwicklungen vorangetrieben.

Ein zentrales Anliegen von Meta AI ist es, KI-Systeme zu entwickeln, die sicher, fair und nützlich für die Gesellschaft sind. Hierzu gehört auch die Erforschung ethischer und sozialer Aspekte der KI, um sicherzustellen, dass die Technologien verantwortungsvoll eingesetzt werden.

Meta AI veröffentlicht regelmäßig Forschungsergebnisse und arbeitet oft mit akademischen Institutionen und anderen Industriepartnern zusammen, um den Fortschritt in der KI-Forschung zu fördern und den Wissensaustausch zu unterstützen.

Durch diese Bemühungen trägt Meta AI dazu bei, die Möglichkeiten der Künstlichen Intelligenz weiter auszubauen und deren Nutzen für die Menschen zu maximieren.

Die Funktion zum Widerspruch ist gut versteckt
Die Funktion zum Widerspruch ist gut versteckt

Training für Meta AI steht bevor

Aber auch Künstliche Intelligenz (KI) muss zur Schule gehen. In der KI-Welt wird das „Training“ genannt: Chatbots lernen wie man spricht und schreibt, indem sie sich möglichst viele Texte anschauen.

Bildgenerierende KIs lernen, indem sie sich möglichst viele Bilder und Fotos anschauen. Und prinzipiell gilt: Je mehr valide Daten zum Training vorliegen, desto besser.

Der Meta-Konzern entwickelt fleißig an einer (weiteren) „Meta AI“, die Texte und Bilder erzeugen können soll. Die soll natürlich auch gut Deutsch können. Das geht nicht, ohne sich möglichst viele Texte und Formulierungen von Menschen angeschaut zu haben. Zum Beispiel Postings auf Facebook oder Instagram. Da gibt es jede Menge Input.

Meta will mit Inhalten von Postings die KI trainieren

Genau hier entsteht Widerstand. Meta kündigt seit einigen Tagen – quasi im Kleingedruckten auf Instagram und Facebook – genau das an, dass KI-Modelle nun auch mit den Postings deutscher Nutzer trainiert werden – und erläutert das auch in einem Informationstext auf der Plattform.

Zum Training der KI will Meta nach eigenen Angaben eine Kombination verschiedener Quellen nutzen, darunter Inhalte auf Facebook, Instagram und bislang weniger bekannt Netzwerk Threads. Von der KI gelesen werden Beiträge, Fotos und deren Bildunterschriften, so der Infotext.

Bei einem KI-Training werden keine direkten personenbezogenen Daten gespeichert. Es ist jedoch nicht völlig auszuschließen, dass sich nach einem Training Spuren in der KI finden, die Rückschlüsse auf eine Person zulassen. Während das die einen unbedingt wollen, um auch in KI gefunden zu werden, können andere darauf verzichten.

Das Kleingedruckte: Wer der Nutzung seiner Daten widersprechen möchte, muss ein Formular ausfüllen
Das Kleingedruckte: Wer der Nutzung seiner Daten widersprechen möchte, muss ein Formular ausfüllen

Privatnachrichten ausgeschlossen

Immerhin: „Wir trainieren unsere KIs nicht mit den Inhalten von Privatnachrichten, die du mit Familienmitgliedern oder Freunden austauschst.“ Private Chats sind also ausgeschlossen. Da die Kommunikation bei WhatsApp und mittlerweile auch beim Facebook Messenger sicher Ende zu Ende verschlüsselt erfolgt, wäre das ohnehin nicht möglich.

Damit das KI-Training in Europa möglich wird, sollen die Datenschutzrichtlinien entsprechend angepasst werden. Die strengen Datenschutzregeln, auch und insbesondere der neue „AI Act“, sehen das vor. Die neuen Regeln sollen am 26. Juni 2024 in Kraft treten.

Wer widersprechen will, muss ein Formular ausfüllen

Neue Regeln gelten aber nur, wenn die User nicht widersprechen. Wer dem Unternehmen Meta oder der rasant wachsenden KI-Technologie generell misstraut (denn niemand kann wissen, ob die von Meta trainierten Modelle nicht auch OpenSource verbreitet werden), hat nun Gelegenheit, der Nutzung seiner eigenen Postings und Beiträge für das KI-Training zu widersprechen.

Allerdings ist das umständlicher als es sein müsste. Anstatt einen simplen Button zum Akzeptieren oder Ablehnen anzubieten, ist es komplizierter. Die Nutzer müssen nach Ansicht von Meta nicht eindeutig zustimmen. Der Konzern beruft sich grundsätzlich auf die Rechtsgrundlage des „berechtigten Interesses“.

Die Folge: Wer nichts unternimmt, stimmt zu, Allerdings haben Nutzer ein Recht auf Widerspruch, von dem sie bis zum Stichtag Gebrauch machen müssten.

So klappt das mit dem Widerspruch

Unter Facebook steht ein Web-Formular zum Widerspruch zur Verfügung. In Facebook selbst ist der Link unscheinbar unter dem Begriff „Widerspruchsrecht“ verlinkt.

  1. Dazu am PC auf das Profilbild oben rechts klicken, am Smartphone auf die drei Striche (Hamburger-Menü) rechts unten tippen.
  2. Danach die Option „Einstellungen und Privatsphäre“ ansteuern und dort die „Einstellungen“.
  3. Ganz unten schließlich die „Datenschutzrichtlinie“ öffnen und im oberen Informationstext auf „Widerspruchsrecht“ klicken oder tippen.

Nutzer müssen ihre Entscheidung begründen

Unter Instagram finde sich dasselbe Formular unter diesem Link. Auch hier gibt es aber auch einen Weg über die Plattform:

  1. Zunächst die eigene Profilseite über das Profilbild aufrufen
  2. Danach am Desktop auf das Zahnrad klicken, am Smartphone auf die drei Stiche oben rechts tippen
  3. Anschließend am PC die „Einstellungen und Privatsphäre“ ansteuern und anschließend unten auf „Datenrichtlinie“ klicken; Smartphone-Nutzer scrollen runter, tippen auf „Info“ und zuletzt auf „Datenschutzrichtlinie“
  4. Nötigenfalls im Informationstext auf die Option „Widerspruchsrecht“ klicken oder tippen.

Das Web-Formular ist selbsterklärend. Allerdings muss der Wohnort angegeben werden (wegen der Gültigkeit der Verordnung), ebenso die E-Mail-Adresse des Meta-Kontos sowie eine schriftliche Erläuterung, warum und wie sich die Verarbeitung der eigenen Daten für das Training der Meta-KI auf die eigene Person auswirken könnte.

Die Begründung muss nicht ausführlich sein. Es reicht aufzuschreiben, dass man es nicht möchte.

Die Verbraucherzentrale schlägt folgende Begründungen vor:

  • „Ich habe das Urheberrecht an meinen geposteten Daten und erteile kein Nutzungsrecht für KI-Anwendungen.“
  • „Ich habe Angst davor, dass meine einmal für die KI genutzten Daten nicht mehr ordnungsgemäß gelöscht werden können, weil sie in das KI-Modell untrennbar eingegangen sind.“
  • „Ich habe schon einmal negative Erfahrungen mit dem Missbrauch meiner Daten gemacht und möchte daher meine Daten grundsätzlich nicht für KI-Anwendungen zur Verfügung stellen.“
Energiefresser Künstliche Intelligenz: KI verbraucht viel Energie und Ressourcen

Energiefresser Künstliche Intelligenz: KI verbraucht viel Energie und Ressourcen

Künstliche Intelligenz ist ein Wachstumsmarkt. Doch kaum einer spricht über den Energieaufwand, der mit dem KI-Einsatz einhergeht. Der US-Podcaster Paris Marx schon.

Es vergeht wohl kaum eine Woche, in der ich hier nicht mindestens ein, zwei Mal über Künstliche Intelligenz berichte. Und das sehr gerne, denn KI ist halt ein zunehmend wichtiges Thema.

Auch auf der republica war das so, der Digitalkonferenz in Berlin, die Montag gestartet und heute zu Ende gegangen ist. Da wurde viel über Chancen und Risiken der KI gesprochen.

Einen Bereich klammern aber fast alle aus: Welchen Preis zahlen wir eigentlich? KI ist nämlich extrem energiehungrig – und verbraucht sogar viel Wasser.

Who cares: Kaum jemand interessiert der Aufwand, der für KI erforderlich ist
Who cares: Kaum jemand interessiert der Aufwand, der für KI erforderlich ist

Who cares? Leider zu wenige…

Das offizielle Motto der republica lautet „Who cares?“. Ja, wen kümmert’s eigentlich, wie viel Energie Smartphones verbrauchen, wenn wir sie benutzen – und erst recht die immer populärer werdenden KI-Systeme?

Eine Anfrage bei einem ChatBot wie ChatGPT verbraucht so viel Strom wie 300 Mal Googeln. Mit KI Bilder, Audios oder bald Videos herzustellen ein Vielfaches davon.

Wir stehen erst am Anfang, was Künstliche Intelligenz betrifft. Aber eins ist klar: KI wird in alle Bereiche unseres Lebens vordringen, in den Privatbereich, aber auch in den Arbeitsbereich.

Generative KI wie ChatGPT ist super praktisch
Generative KI wie ChatGPT ist super praktisch

KI benötigt enorme Rechenkapazitäten

Und um KI anbieten zu können, braucht es Rechenkapazität – und zwar jede Menge. Deswegen bauen die Anbieter überall auf der Welt Rechenzentren. Und die brauchen vor allem eins: Energie. Strom, aber überraschenderweise auch Wasser und sehr viele Ressourcen.“

Google, Microsoft, Meta: Sie alle betreiben schon jetzt gigantische Rechenzentren, nur für KI-Anwendungen. Wir sehen sie nur nicht. Allein der Strombedarf ist gigantisch.

Prognosen gehen durch rasant steigende Nutzerzahlen von einem Stromverbrauch der weltweiten KI-Systeme von über 80 Terawattstunden pro Jahr aus. Das entspricht dem von ganzen Ländern wie den Niederlanden, Schweden oder Argentinien.

Paris Marx ist ein angesehener Tech-Kritiker aus Kanada
Paris Marx ist ein angesehener Tech-Kritiker aus Kanada

Paris Marx: Wir müssen genauer auf die Kosten schauen

Einer der wenigen, der in den USA laut Kritik übt, ist Paris Marx.

Er ist sehr bekannt für seinen Tech-kritischen Podcast Tech won’t save us – Technik wird uns nicht retten.

Paris Marx erklärt mir im Interview, dass der Energiebedarf der großen Rechenzentren schlichtweg gigantisch ist. Heutige Rechenzentren beherbergen zehntausende von Servern. Die verbrauchen Unmengen an Strom – und erzeugen jede Menge Hitze.

Die muss in Rechenzentren aber runtergekühlt werden. Häufig wird dazu Wasser benutzt. Grundwasser, das in den ländlichen Gebieten dann oft fehlt.

Wer hätte das gedacht: KI verbraucht Wasser

Wasserkühlung ist viel effektiver als Klimaanlagen, spart also Strom. Doch Wasser ist eine begrenzte Ressource – in den USA gibt es im Umfeld schon sehr viele Proteste der Bevölkerung, erzählt mir Paris Marx.

Aber auch für die Herstellung all der Hardware, also der Computer ist ein enormer Energieaufwand nötig, erklärt der Insider – und mahnt vor den Folgen.

Um all die Server für KI-Rechenzentren zu bauen, braucht es unvorstellbare Mengen an Ressourcen, Mineralien zum Beispiel. Um die zu gewinnen, wird ebenfalls jede Menge an Energie und Wasser verbraucht. Die Hardware wird aber schnell wieder aussortiert. Mangels vernünftigem Recycling entsteht so jede Menge Elektromüll.

E-Waste, weil Server schnell ausgemustert werden

Aspekte, die Politik und Konsumenten bislang nicht auf dem Zettel haben. Da der Einsatz von KI in den nächsten Jahren explodieren dürfte, wird das ein zunehmend wichtiges Thema.

Wir brauchen deshalb dringend Transparenz über verbrauchte Ressourcen, mahnen Experten wie Paris Marx – und klare Regeln. Wie in anderen Industrien auch.