Während im stationären Handel die Preise relativ stabil sind und sich selten ändern, ist das bei Online-Händlern wie Amazon anders: Mehrmals am Tag gehen die Preise eines Produktes nach oben und nach unten. Schwer, damit Schritt zu halten. Es sei denn, ihr lest weiter!
Stell dir vor, eine KI, die nicht nur blitzschnell antwortet, sondern auch wirklich nachdenkt – wie ein Mensch. Genau das hat OpenAI jetzt mit ihrem neuen Modell geschafft. Revolution oder nur Hype?
OpenAI hat ein neues KI-Modell vorgestellt, das komplexe Probleme durchdenkt und dabei sogar in IQ-Tests brilliert. Mit beeindruckenden 83% Erfolgsquote bei der internationalen Mathematik-Olympiade und einem IQ von 120 stellt dieses Modell alles bisher Dagewesene in den Schatten.
OpenAI ist ein Durchbruch gelungen
OpenAI ist das Unternehmen, das die KI offenbar am schnellsten voranbringt. Eun Durchbruch!
Das neue KI-Modell o1 von OpenAI ist anders als seine Vorgänger. Das neue Modell haut nicht gleich eine Antwort raus, sondern „denkt“ nach. Wie ein Mensch. Stellen wir uns für einen Moment vor, wie das ist, wenn wir über eine komplizierte Frage nachdenken. Wir überlegen kurz, was die Frage bedeutet, denken dann nach und geben dann eine durchdachte Antwort. Manchmal überlegen wir auch noch, wie wir das gerade am besten formulieren, je nach Situation. Genau so funktioniert auch o1.
Im Gegensatz zu früheren Modellen wie GPT-4, die blitzschnell antworten, nimmt sich o1 mehr Zeit. Es durchdenkt Probleme Schritt für Schritt, ähnlich wie ein Mensch. Das macht o1 jetzt schon besonders gut in Bereichen wie Mathematik, Naturwissenschaften und Programmierung. Ein Beispiel: Bei einem schwierigen Mathe-Test löste das bisherige Top-Modell GPT-4 nur 13% der Aufgaben. o1 schaffte dagegen beeindruckende 83%.
Das ist ein großer Schritt in Richtung KI, die komplexe Probleme lösen kann.
ChatGPT O1 hat einen IQ von 120
In „Künstlicher Intelligenz“ steckt das Wort „Intelligenz“, natürlich! 😉 Aber kann man denn sagen, wie „intelligent“ ein solches KI-Modell wirklich ist?
Das wurde jetzt untersucht. OpenAIs neues Modell o1 hat in einem offiziellen IQ-Test von Mensa Norway bemerkenswerte Ergebnisse erzielt. Das Modell erreichte einen IQ-Wert von 120, was deutlich über dem menschlichen Durchschnitt von 100 liegt.
Dieser Wert platziert O1 mal eben in den oberen 10% der Bevölkerung hinsichtlich der kognitiven Fähigkeiten, die in diesem Test gemessen werden. Das Ergebnis unterstreicht die fortschrittlichen Fähigkeiten des neuen KI-Modells im logischen Denken und in der Mustererkennung.
Frühere Modelle wie GPT-4 und Claude 3 haben deutlich niedrigere Werte erzielt, so im Bereich 80 bis 90. Also ein erheblicher Fortschritt, der da gemacht wurde:
Allerdings muss man auch sagen, dass der IQ-Test nur einen recht begrenzten Bereich des menschlichen Denkens erfasst. Emotionale Intelligenz oder Kreativität spielen nicht die geringste Rolle dabei.
Wann ist uns KI überlegen?
Stellt sich die Frage: Bedeutet das nun, dass die aktuelle KI uns überlegen ist?
In einigen Bereichen schon. In der Qualifikationsprüfung für die internationale Mathematik-Olympiade hat O1 eine Erfolgsquote von 83% hingelegt. Die KI hat in Physik, Chemie und Biologie das Wissen eines Doktoranden. Außerdem kann O1 auch extrem gut programmieren.
Doch vieles kann O1 auch nicht. Es kann auch nicht eigenständig „neue Hypothesen generieren“ und „Behandlungsstrategien entwickeln“, sondern immer nur basierend auf Mustern aus den Trainingsdaten den Output generieren.
Auch ein komplexer Taschenrechner bleibt ein Taschenrechner. Ich halte es für wirklich wesentlich und wichtig, diese Unterschiede zu verstehen um solche KI-Modelle zielgenau nutzen zu können.
Noch nicht auf menschlichem Niveau
Auch, wenn das neue KI-Modell O1 komplexe Reasoning-Fähigkeiten besitzt, fehlen ihm doch immer noch Bewusstsein, Emotionen und vor allem natürlich Lebenserfahrung: Kernelemente menschlichen Denkens, daher bleibt „Nachdenken“ in diesem Zusammenhang immer in Anführungszeichen.
Das neue KI-Modell O1 verarbeitet Daten und erkennt Muster, „denkt“ aber nicht im menschlichen Sinne. O1 mag in spezifischen Bereichen beeindruckende Leistungen erzielen, ist aber trotzdem noch weit davon entfernt, die Komplexität und Vielseitigkeit menschlicher Intelligenz zu erreichen. Noch.
Was man wissen muss: Der Rechenaufwand für dieses „Schleifendrehen“ und Dinge von verschiedenen Seiten betrachten ist deutlich höher. Das System ist langsamer und teurer als die Vorgängermodelle und ihm fehlen auch wichtige Funktionen wie Bilderkennung. Man kann eben – noch – nicht alles haben.
Apples neues iPhone 16 verspricht eine KI-Revolution – aber deutsche Nutzer gucken in die Röhre. Erfahrt hier, warum das Smartphone der Zukunft an Deutschlands Grenzen Halt macht und welche spannenden Funktionen Ihr verpassen könntet.
Von der smarten Siri bis zur intelligenten Fotosuche: Entdecken Sie, was das neue „Apple Intelligence“ alles kann und warum die EU-Gesetze uns vorerst einen Strich durch die Rechnung machen.
Apple hat sich auch dieses Jahr viel Mühe gegeben, in seinem September-Event die Bestseller des Hauses – iPhone, Apple Watch und die Kopfhörer AirPods – rechtzeitig vor Weihnachten aufzumöbeln und zu vermarkten. Denn nur wenn es etwas Neues gibt, kaufen die Leute.
Neue iPhone 16 bieten mehr Foto und Video
Die entscheidende Frage ist immer: Wie viel ist wirklich neu? Dieses Jahr hat Apple dem iPhone einen neuen Prozessor spendiert, der deutlich leistungsfähiger ist. Außerdem gibt es ein rund 0,5 Zentimeter größeres Display. Ebenso höhere Auflösung und Bildqualität bei Foto und Video.
Die Kamera lässt sich jetzt durch einen separaten Kamera-Button aktivieren und steuern, was zweifellos ein Vorteil und längst überfällig ist, weil die meisten ihre Smartphones heute in erster Linie als Kamera benutzen.
Im Vordergrund steht „Apple Intelligence“
Doch die zweifellos wichtigsten Neuerungen sind die komplett neuen KI-Funktionen im Gerät, „Apple Intelligence“ genannt. So wie andere Hersteller, vor allem Google und Huawei, setzt auch Google auf die Macht der KI, um das Smartphone besser bedienbar und leistungsfähiger zu machen.
Der Sprachassistent Siri soll nun deutlich besser verstehen, was die User sagen. Zum einen durch leistungsfähigere Mikrofone, vor allem aber durch KI. Siri versteht demnächst den Kontext: „Ruf Mama an“ oder „Schicke meinem Mann die Ankunftszeit“ werden künftig ausgeführt, weil der Kontext verstanden wird. Siri kennt dann z.B. die Familienmitglieder und weiß auch, dass ein Flug bevorsteht und kann die Ankunftszeit ermitteln.
Siri soll endlich Alltagssprache verstehen
Auch soll es künftig möglich sein, in Alltagssprache und weniger roboterhaft mit Siri zu sprechen, und es wird verstanden. Auch können User Bezug auf den aktuellen Inhalt des Displays nehmen. Der eingebaute A18-Prozessor erledigt die meisten Aufgaben im Gerät, es ist seltener als früher nötig, dafür online zu gehen. Das bedeutet kürzere Reaktionszeiten.
Viele andere KI-Funktionen versprechen eine einfachere Bedienung: Apple Intelligence ist in der Lage, E-Mails auf Wunsch umzuformulieren (freundlicher, offizieller), bestimmte Nachrichten aufzuspüren (finde den jüngsten Newsletter vom WDR) oder auch bestimmte Fotos oder Videos zu finden (alle Fotos, in denen ich ein blaues Shirt trage).
Vieles davon kann direkt im eingebauten Prozessor erledigt werden, was gut ist, weil auf diese Weise keine Daten nach außen dringen und die Aufgaben schnell erfüllt sind.
KI-Funktionen kommen vorerst nicht nach Deutschland
Es gibt nur ein Problem: Diese KI-Funktionen kommen vorerst nicht nach Europa, und damit auch nicht nach Deutschland.
Apple hat angekündigt, dass es seine neuen KI-gestützten Funktionen vorerst nicht in der Europäischen Union einführen wird. Als Grund nennt das Unternehmen die Anforderungen des Digital Markets Act (DMA), insbesondere die Interoperabilitätsvorschriften.
Der DMA schreibt Konzernen wie Apple vor, seine Betriebssysteme und Plattformen zu öffnen: Eine „Apple Intelligence“ exklusiv zu machen und andere KI-Anbietern nicht die Möglichkeit zu bieten, ebenfalls tief ins Betriebssystem integriert zu werden, könnte mit der EU-Regulierung kollidieren.
Könnte. Doch will Apple kein Risiko eingehen, schließlich drohen bis zu 10% des globalen Umsatzes als potenzielle Strafe.
EU-Regeln verhindern den Einsatz von KI
Apple argumentiert, dass die Einhaltung der EU-Regeln die Integrität der Produkte gefährden und Risiken für die Privatsphäre und Datensicherheit der Nutzer mit sich bringen würde.
Die Verantwortung für diese Situation liegt sowohl bei Apple als auch bei der EU-Regulierung. Während die EU mit dem DMA darauf abzielt, einen faireren Wettbewerb im digitalen Markt zu schaffen und die Macht großer Technologieunternehmen einzuschränken, sieht Apple die Anforderungen als problematisch für seine Produktintegrität an.
Apple hat angekündigt, mit der Europäischen Kommission zusammenzuarbeiten, um eine Lösung zu finden, die es ermöglicht, diese Funktionen auch EU-Kunden anzubieten, ohne deren Sicherheit zu gefährden.
Derzeit ist unklar, wann und ob diese Funktionen in der EU verfügbar sein werden. Apple stelle eine mögliche Einführung für 2025 in Aussicht.
Auch Google hält KI-Funktionen in EU zurück
Apple ist keineswegs das einzige Unternehmen, das mit der EU-Regulierung Schwierigkeiten hat: Auch Google hält KI-Funktionen zurück. Das brandneue Google Pixel 9, erst vor wenigen Tagen veröffentlicht, bietet ebenfalls eine Reihe neuer KI-Funktionen, die auf dem Tensor G4-Chip und Googles Gemini-KI basieren.
Zu den Highlights gehören der neue Gemini-Assistent (vergleichbar mit ChatGPT), der komplexere Aufgaben und natürlichere Gespräche ermöglicht, sowie KI-gestützte Kamerafunktionen wie „Add Me“ für Gruppenfotos, verbesserte Zoom-Fähigkeiten und Magic Editor zur Bildbearbeitung.
Funktionen wie „Call Notes“, die Gespräche automatisch zusammenfassen können, kommen ebenfalls vorerst nicht in die EU. Auch Google nennt als Grund die Anforderungen des Digital Markets Act (DMA), insbesondere die Interoperabilitätsvorschriften.
Ähnlich wie Apple argumentiert Google, dass die Einhaltung dieser Vorschriften die Integrität der Produkte gefährden und Risiken für die Privatsphäre und Datensicherheit der Nutzer mit sich bringen würde.
Für alle, die gerne die neuen Luxus-Handys vollständig nutzen wollen, sind das keine guten Nachrichten. Allem Anschein nach greifen die EU-Regel zu weit, vor allem, weil man nicht den Nutzern die Wahl lässt. Das wäre schließlich auch eine Möglichkeit.
Die diesjährige IFA in Berlin präsentiert KI-Innovationen für den Haushalt. Von selbst-denkenden Kühlschränken bis hin zu virtuellen Köchen – die Zukunft hält Einzug in unsere Wohnungen.
Die IFA, die dieses Jahr ihr 100-jähriges Jubiläum feiert, steht als wichtigste Messe für Konsumerelektronik diesmal ganz im Zeichen der künstlichen Intelligenz (KI) und ihrer Auswirkungen auf unseren Alltag.
Die IFA präsentiert in diesem Jahr unzählige KI-Innovationen, auch und vor allem für den Haushalt. Von selbst-denkenden Kühlschränken bis hin zu virtuellen Köchen: KI hält Einzug in unsere Wohnungen.
KI revolutioniert den Haushalt
Von der Küche bis zum Wohnzimmer: „Smarte“ und durch KI unterstützte Helfer sind eindeutig auf dem Vormarsch. Beispiel Smarte Küchenhelfer: Moderne Backöfen erkennen dank KI-Technologie automatisch, welches Gericht zubereitet wird und passen Temperatur sowie Garzeit entsprechend an. Das verspricht nicht nur perfekte Ergebnisse, sondern auch eine erhebliche Zeitersparnis für Hobbyköche.
Der deutsche Hersteller Siemens hingegen hat seinen „IQ500“-Backöfen eine KI-gesteuerte Dampffunktion spendiert. Die Intensität wird dem Garfortschritt dynamisch angepasst.
Der koreanische Hersteller LG Electronics präsentiert Waschmaschinen mit der „AI DD 2.0“-Technologie, die selbst erkennen kann, wie verschmutzt die Kleidung ist und das passende Waschprogramm auswählt. Die KI-Waschmaschine soll in der Lage sein, eigenständig den Grad der Verschmutzung sowie Materialbeschaffenheit und Ladegewicht zu erkennen und zu analysieren.
Wenn die KI das Waschprogramm bestimmt
Und dann kommt die KI zum Einsatz: Basierend auf den ermittelten Daten entscheidet die Maschine., welches Waschprogramm optimal passt. Sechs verschiedene Arten von Trommelbewegung soll für eine besonders schonende Reinigung der Kleidung sorgen. Tierhaare werden ebenso erkannt wie tiefe Verschmutzungen. Laut Hersteller lässt sich so Wasser und Waschpulver einsparen und Schäden an der Kleidung um bis zu 10% reduzieren.
Aber auch Böden werden mit KI-Hile gereinigt: Saugroboter der neuesten Generation nutzen KI-Funktionen, um Bodenbeschaffenheiten zu unterscheiden, Hindernisse zu erkennen und detaillierte Karten der Räume zu erstellen. Dies ermöglicht eine effizientere und gründlichere Reinigung.
Fernsehen: 8K und schärfere Bilder
Aber auch im klassischen Segment der IFA, den Fernsehgeräten, gibt es noch Neuigkeiten und Weiterentwicklungen. Der koreanische Hersteller Samsung zeigt seine „Neo QLED 8K AI“-TVs, die dank eines KI-Prozessors mit einem scharfen und lebensechten Bild überzeugen.
Dank 8K-Upscaling (also Hochrechnen des meist HD-Bildes) ermöglichen es die Fernsehgeräte, dass selbst konventionelle Inhalte wie im Fernsehen noch üblich ohne Abstriche in 8K-Qualität genossen werden können.
KI spielt auch bei Fernsehern eine zunehmende Rolle. Im Bereich Entertainment präsentiert der koreanische Hersteller LG Electronics seinen neuesten OLED-Fernseher mit der „AI Picture Pro“ Technologie. Diese KI analysiert nicht nur das Bild in Echtzeit für eine optimale Darstellung, sondern lernt auch die Sehgewohnheiten des Nutzers kennen und schlägt personalisierte Inhalte vor.
Sprachassistenten und „smarte“ Lautsprecher waren zuletzt im Vergleich zu ChatGPT und anderen Chatbots immer dümmer geworden. Nun bewegen sich die Geräte von einfachen Sprachbefehlen zu echten Dialogen, indem echte KI in die Smartspeaker einzieht.
Beispiel Amazon: Der Hersteller plant, den „smarten“ Lautsprecher „Echo“ mit Alexa durch den deutlich überlegenen Chatbot Claude von Anthropic zu ersetzen oder erweitern. Damit ziehen die smarten Chatbots auf gewisse Weise ins Wohnzimmer. Sie verstehen künftig Anweisungen wie: „Wenn es regnet und windig ist, bitte die Rollläden einfahren.“
Nachhaltigkeit als zentrales Thema
Neben KI rückt das Thema Nachhaltigkeit immer stärker in den Fokus der IFA 2024. Die Elektronikindustrie reagiert auf die wachsende Nachfrage nach umweltfreundlichen Produkten und ressourcenschonenden Technologien.
Energieeffizienz im Fokus: Diverse Hersteller präsentieren Haushaltsgeräte, die dank innovativer Technologien deutlich weniger Energie verbrauchen. Intelligente Strommanagement-Systeme optimieren den Verbrauch und reduzieren Kosten für die Verbraucher.
Reparierbarkeit und Langlebigkeit: Ein wichtiger Aspekt der Nachhaltigkeit ist die Verlängerung der Produktlebensdauer. Auf der IFA 2024 werden Geräte vorgestellt, die einfacher zu reparieren und zu warten sind. Miele beispielsweise demonstriert mit „AI-Diagnostics“ ein KI-gesteuertes Programm, das Gerätestörungen in Waschmaschinen und Trocknern live beheben kann.
Herausforderungen und Ausblick
Trotz der vielversprechenden Innovationen steht die Elektronikindustrie vor Herausforderungen. Die Branche kämpft mit rückläufigen Umsätzen, bedingt durch die wirtschaftliche Unsicherheit und die Nachwirkungen der Corona-Pandemie.
Dennoch blicken die Veranstalter optimistisch in die Zukunft. Mit über 1.800 Ausstellern und einem erwarteten Besucherandrang von mehr als 180.000 Menschen verspricht die IFA 2024, ihrem Ruf als Innovationsmotor gerecht zu werden.
Die IFA 2024 unterstreicht einmal mehr ihre Bedeutung als Plattform für zukunftsweisende Technologien. Sie zeigt, wie KI und Nachhaltigkeit Hand in Hand gehen können, um unser Leben zu verbessern und gleichzeitig die Umwelt zu schonen. Besucher dürfen sich auf faszinierende Einblicke in die Zukunft des smarten und nachhaltigen Zuhauses freuen
Googeln oder Chatbot fragen? Die Frage stellt sich künftig häufiger – nicht unbedingt zur reinen Freude von Google.
Im Internet suchen, im Netz recherchieren: Kann man sagen, sagt aber keiner. Alle sagen: „Googeln“ dazu. Das ist so sehr in unserem Sprachgebrauch, dass Googeln ganz offiziell im Duden steht. Niemand wird die Marktmacht von Google bestreiten wollen.
Die allermeisten Suchanfragen gehen bei uns, aber auch in den USA an Google. Dabei gibt es durchaus andere Suchmaschinen. Trotzdem hat ein amerikanisches Gericht Google jetzt als „Monopolist“ eingestuft.
Doch wie lange kann Google die Position noch halten, angesichts der Tatsache, dass immer mehr Menschen auch mit Chatbots recherchieren und suchen?
Google, der Monopolist
Wenn ein Unternehmen so stark ist wie Google, so bekannt und so erfolgreich, da fragt man sich natürlich schon immer, ob da alles mit rechten Dingen zugeht. Ein US-Gericht hat nun in einem Urteil festgestellt: Google ist ein Monopolist und verhält sich auch so.
Schon vor einigen Jahren hatte das US-Justizministerium sowie einige US-Bundesstaaten gegen Google geklagt, weil das Unternehmen sich nach Ansicht der Kläger über das Gesetz stelle – und nach eigenen Regeln spiele, um die immerhin vorhandene Konkurrenz – darunter die Suchmaschine Bing von Microsoft – verdrängen wolle.
Ganz konkret ging es darum, dass Google Unternehmen wie Apple oder Mozilla dafür bezahlt, dass sie Google in ihren Browsern Safari und Firefox als Standard-Suchmaschine eintragen. Die aller wenigsten Menschen ändern diese Einstellung. Google zahlt Apple und Mozilla Milliarden dafür, dass die Browser so eingestellt sind. Nach dem Urteil wird das so nicht weitergehen dürfen. Apple wird es verkraften, wenn Milliarden wegfallen. Die Mozilla Foundation, die den einst so populären Browser Firefox entwickelt, ist auf das Geld als nahezu einzige Einnahmequelle angewiesen.
In Europa freie Suchmaschinen-Wahl – in USA noch nicht
Wenn Ihr nun denkt: Also ich werde doch immer gefragt, wenn ich ein Betriebssystem wie Windows oder mein neues Handy einrichte, welche Suchmaschine ich benutzen möchte…
Stimmt: Hier in Europa ist das so – spätestens seit dem „Digital Markets Act“ müssen Konzerne wie Google, Apple und Microsoft das machen. In den USA aber nicht. Da können sich Konzerne wie Google also die Sichtbarkeit erkaufen. Und Google macht das eben auch.
Man könnte denken: Ist doch egal, welche Suchmaschine jemand benutzt. Doch das ist nicht zu Ende gedacht: Google lebt vor allem von den Anzeigen, die auf der Suchmaschine verkauft werden. Je mehr Menschen, desto mehr Umsatz. Je weniger ernsthafte Konkurrenz, desto höhere Preise kann Google für seine Anzeigen nehmen. In der Tat hat der Konzern zuletzt die Preise für Anzeigenplätze immer teurer gemacht.
Noch ist Google die Suchmaschine schlechthin, die alle kennen. Doch immer mehr Menschen nutzen nun auch Chatbots, um sich Fragen beantworten zu lassen.
Chatbots sind eine Bedrohung für Google
Das ist eine ernsthafte Bedrohung. Als vor zwei Jahren die erste Version von ChatGPT öffentlich gemacht wurde, haben Google-Manager „Alarmstufe rot“ ausgerufen. Sie sind sich der Bedrohung durch Chatbots absolut bewusst – und entwickeln ja auch selbst Chatbots.
Doch nun hat OpenAI, das Unternehmen hinter ChatGPT, ein ganz neues Produkt im Test: SearchGPT. Eine Mischung aus Suchmaschine und Chatbot, könnte man sagen. SearchGPT versteht auch komplexe Anfragen – das kann die Google-Suche bislang nicht.
Beantwortet Fragen, wo möglich, nennt aber auch alle relevanten Quellen, wo man sich weiter informieren kann. Nutzer können aber auch Folgefragen stellen, denn SearchGPT hat wie ein Chatbot ein Kontextverständnis.
Das ist ein sehr interessanter Ansatz, den OpenAI da verfolgt: Im Prinzip werden die Vorteile beider Welten miteinander verbunden. Man kann in natürlicher Sprache nachfragen, wird verstanden, bekommt Antworten und Fundstellen. Ideal für Recherchen.
SearchGPT als Alternative zu Google
Bislang nicht. Der Testbetrieb in geschlossen, mit 10.000 Testern weltweit. Doch der Druck in dieser Szene ist so hoch, dass ich davon ausgehe, dass OpenAI diesen Dienst schon sehr bald für alle öffnet. Es wird ganz sicher nicht mehr lange dauern – und Google dann enorm unter Druck setzen. Den einen Platzhirsch, der alle Suchanfragen abbekommt, diese Zeiten scheinen vorbei zu sein.
Der Unterschied des Energiebedarfs ist allerdings enorm. Eine Google-Suchanfrage verbraucht in etwa so viel Energie, dass eine 100-Watt-Birne 10 Sekunden lang leuchtet. Eine Chatbot-Anfrage verbraucht bis zu 300 Mal so viel Energie: Das lässt eine 100-Watt-Birne mehrere Minuten lang leuchten.
Ein komplett unterschätzter Aspekt, den wir auch bedenken sollten, wenn wir zwischen Suchmaschine und Chatbot wählen.
Die KI-Revolution frisst ihre Kinder: Neueste Forschungen zeigen, dass künstliche Intelligenz durch das Training mit selbst generierten Inhalten in eine gefährliche Abwärtsspirale geraten könnte. Wir beleuchten die Hintergründe dieses drohenden „KI-Kollapses“ und zeigen mögliche Auswege auf.
Stell dir vor, du züchtest Pflanzen, die sich selbst bestäuben. Klingt effizient, oder? Doch mit jeder Generation werden die Pflanzen schwächer, bis sie schließlich eingehen. Genau dieses Schicksal könnte unseren KI-Modellen bevorstehen.
Die Gefahr lauert im eigenen Code
Künstliche Intelligenz ist hungrig – nach Daten. Um immer besser zu werden, verschlingen moderne Sprachmodelle riesige Mengen an Text. Doch woher kommen diese Daten? Zunehmend aus den Federn (oder besser: den Prozessoren) der KI selbst. Und genau hier liegt das Problem.
Forscher warnen: Wenn KI-Modelle vermehrt mit Inhalten trainiert werden, die von KI generiert wurden, droht ein Teufelskreis. Die Qualität der Ausgaben könnte rapide abnehmen, bis die Modelle nur noch Unsinn produzieren. Dieses Phänomen wird als „KI-Kollaps“ bezeichnet.
Autophagie der künstlichen Intelligenz
Um diesen Prozess besser zu verstehen, lohnt sich ein Blick in die Biologie. In der Zellbiologie gibt es einen Vorgang namens Autophagie (wörtlich: „Selbstverzehr“). Dabei bauen Zellen eigene Bestandteile ab, um sich mit Nährstoffen zu versorgen. In Maßen ist das ein wichtiger Recycling-Mechanismus. Gerät er jedoch außer Kontrolle, kann er zum Zelltod führen.
Ähnlich verhält es sich mit KI-Modellen, die zu stark auf selbstgenerierte Inhalte zurückgreifen. Sie „verzehren“ gewissermaßen ihre eigenen Outputs, was zunächst effizient erscheint. Doch dabei schleichen sich Fehler und Verzerrungen ein, die sich mit jeder „Generation“ verstärken.
Der schrumpfende Genpool der KI
Ein weiterer hilfreicher Vergleich stammt aus der Genetik. In kleinen, isolierten Populationen kann es zur „Inzuchtdepression“ kommen. Der Genpool wird immer kleiner, schädliche Mutationen häufen sich an. Das Ergebnis: Die Population wird anfälliger für Krankheiten und Umwelteinflüsse.
Übertragen auf die KI bedeutet das: Wenn Modelle hauptsächlich mit ihren eigenen Erzeugnissen trainiert werden, verengt sich ihr „Wissenspool“. Kreativität und Vielseitigkeit leiden, während sich Fehler und Vorurteile verstärken. Im schlimmsten Fall könnte dies zum vollständigen Versagen der Modelle führen.
Die Studie, die alles ins Rollen brachte
Doch woher stammen diese alarmierenden Erkenntnisse? Eine kürzlich veröffentlichte Studie von Forschern der Stanford University und von Google DeepMind hat für Aufsehen gesorgt. Sie simulierten, was passiert, wenn KI-Modelle über mehrere Generationen hinweg mit selbst generierten Texten trainiert werden.
Das Ergebnis war erschreckend: Die Qualität der Ausgaben verschlechterte sich drastisch. Nach nur wenigen Iterationen produzierten die Modelle kaum noch sinnvolle Inhalte. Die Forscher nannten dieses Phänomen „model collapse“ – Modellkollaps.
Warum jetzt? Der perfekte Sturm
Du fragst dich vielleicht, warum dieses Problem gerade jetzt akut wird. Dafür gibt es mehrere Gründe:
Explosion von KI-generierten Inhalten:ChatGPT, GPT-4 und Co. produzieren täglich Millionen von Texten, die ins Internet gelangen.
Datenhunger der Modelle: Immer größere Modelle benötigen immer mehr Trainingsdaten.
Aktualitätsdruck: Um up-to-date zu bleiben, greifen Entwickler verstärkt auf neue, oft KI-generierte Inhalte zurück.
Kostenfaktor: Das Erstellen hochwertiger, menschengemachter Datensätze ist teuer und zeitaufwendig.
Die Folgen: Mehr als nur schlechte Texte
Ein Kollaps der KI-Modelle hätte weitreichende Konsequenzen. Stell dir vor:
Chatbots, die nur noch Kauderwelsch von sich geben
Übersetzungsdienste, die Texte bis zur Unkenntlichkeit verzerren
KI-gestützte Suchmaschinen, die irrelevante oder falsche Ergebnisse liefern
Doch es geht um mehr als nur Unannehmlichkeiten. In einer Welt, in der KI zunehmend in kritischen Bereichen wie Medizin, Finanzen oder Verkehr eingesetzt wird, könnte ein Versagen der Modelle katastrophale Folgen haben.
Lösungsansätze: Wie wir den Kollaps verhindern können
Zum Glück ist die Situation nicht aussichtslos. Forscher und Entwickler arbeiten bereits an Strategien, um den drohenden KI-Kollaps abzuwenden. Hier einige vielversprechende Ansätze:
Diverse Datenquellen: Eine bewusste Mischung aus KI-generierten und menschengemachten Inhalten kann die „genetische Vielfalt“ der Modelle erhalten.
Qualitätskontrolle: Strenge Filter und menschliche Überprüfung können helfen, minderwertige KI-Outputs aus Trainingsdaten fernzuhalten.
Transparenz und Kennzeichnung: KI-generierte Inhalte sollten als solche gekennzeichnet werden, um eine bewusste Auswahl zu ermöglichen.
Fokus auf Verständnis statt Nachahmung: Forschung in Richtung echter KI-Kognition könnte langfristig die Abhängigkeit von reinen Sprachmodellen verringern.
Ethische Richtlinien: Klare Regeln für den Umgang mit KI-generierten Daten könnten helfen, einen verantwortungsvollen Einsatz sicherzustellen.
Fazit: Wachsamkeit ist der Preis der Freiheit
Die Warnung vor dem KI-Kollaps ist ein wichtiger Weckruf. Sie zeigt uns, dass wir trotz aller Fortschritte vorsichtig und wachsam bleiben müssen. KI ist ein mächtiges Werkzeug, aber wie jedes Werkzeug muss es mit Bedacht eingesetzt werden.
Als Nutzer und Entwickler von KI tragen wir alle Verantwortung. Indem wir uns der Risiken bewusst sind und aktiv an Lösungen arbeiten, können wir dafür sorgen, dass KI auch in Zukunft ein Segen und keine Bürde für die Menschheit ist.
Die Geschichte der Technologie lehrt uns: Jede Revolution bringt ihre eigenen Herausforderungen mit sich. Der drohende KI-Kollaps ist eine solche Herausforderung. Doch mit Weisheit, Zusammenarbeit und Innovation können wir sie meistern – und den Weg in eine KI-gestützte Zukunft ebnen, die uns allen dient.
Quellen:
Studie von Stanford University und Google DeepMind
Elon Musk provoziert gerne: Zuletzt hat ein Fake-Video gepostet, das mit KI erstellt wurde und die demokratische Präsidentschaftskandidatin kompromittiert. Das ist selbst nach X-Nutzungsregeln nicht erlaubt.
Wenn einer wie Elon Musk auf Twitter, heute X etwas postet, ist Aufmerksamkeit garantiert: Der Multimilliardär hat keineswegs nur Feinde, sondern auch viele Fans, auf X alleine jedenfalls 192 Mio. Follower.
Vor einer Weile postet der Mann dann ein Video, das aussieht wie eins dieser Kampagnen-Videos für die Präsidentschaftswahl für Kamala Harris – und überschreibt es nur mit einem „This is amazing“.
Das Problem: Das Video enthält viele KI-Elemente wie Stimmen oder Bilder. Ein Fake, in der die Kandidatin der Demokraten lächerlich gemacht wird. Ohne Kennzeichnung. Die große Gefahr, dass mit solchen Inhalten auch Stimmung gemacht wird, ist spätestens damit eingetreten. Was kann man tun?
Was ist im Spot zu sehen und was davon ist KI?
Wir sehen einen Clip, nicht ganz zwei Minuten, der schnell geschnitten ist, viele öffentliche Auftritte von Kamala Harris auch mit Joe Biden zeigt. Es sieht aus, wie einer dieser typischen amerikanischen Wahlwerbespots, wie sie im US-Fernsehen üblich sind: Die eigenen Leistungen loben, den Gegner niedermachen.
Man hört eine Erzählstimme, die wie die von Kamala Harris klingt. Die wurde jedoch teilweise aus anderen Clips genommen, teilweise aber mit KI erzeugt. Der Unterschied ist praktisch nicht zu hören.
Doch sie sagt Dinge, die sie nie sagen würde: „Ich, Kamala Harris, bin eure demokratische Präsidentschaftskandidatin, weil Joe Biden in der Debatte endlich seine Senilität offengelegt hat.“
Sie sei nur aufgestellt worden, weil sie eine Frau sei und eine Person of Color. Also eher etwas für eine Comedy-Sendung – im Post wird es von Elon Musk aber weder als Satire, noch als KI-generiert angekündigt. Das Video verfügt auch über keine solchen Hinweise.
KI-Fakes im politischen Kontext auf X verboten
Die laute Kritik an dem Post richtet sich vor allem an die Tatsache, dass der Post eigentlich selbst nach X-Richtlinien verboten gehört.
Genau: Eigentlich ist es laut Nutzungsbedingungen ausdrücklich verboten, „synthetische, manipulierte oder aus dem Zusammenhang gerissene Medien zu teilen, die Menschen täuschen oder verwirren und zu Schäden führen können“. Beiträge, die irreführende Medien enthalten, kann X löschen oder zumindest kennzeichnen, „damit ihre Authentizität verdeutlicht und zusätzlicher Kontext geliefert wird“.
Nur gut gekennzeichnete Satire oder Memes sind erlaubt; aber auch nur, wenn sie entsprechend gekennzeichnet sind und nicht zu Verwirrungen führen. Man darf davon ausgehen, dass ein normaler User wahrscheinlich nicht damit weggekommen wäre. Ein Elon Musk darf alles, scheint er sagen zu wollen.
Neben der Tatsache, dass Musk die Verwirrung in diesem konkreten Fall zulässt, macht er sie in meinen Augen sogar hoffähig – jeder kann sagen: Musk macht es doch auch. Das ist schon ein erhebliches Problem.
KI-Fakes können dramatische Folgen haben
Welche Rolle aber spielt es, dass hier mit KI hantiert wurde?
Man muss ja sagen, dass sich die politischen Gegner ohnehin nichts schenken in den USA. Und auch die Medien lassen keine Gelegenheit aus, sich über Trump oder Biden lustig zu machen, mit Zuspitzungen und auch unlauteren Verkürzungen.
Der eine ein Idiot, der andere senil – auch bei uns ist das oft so. Das bedeutet: Die Menschen sind doch sowieso schon gewohnt, keine Argumente und sachlichen Auseinandersetzungen zu hören, sondern nur Persönliches.
Wenn nun noch mit Hilfe von KI Stimmen, Bilder und vermehrt auch Videos erstellt werden können, die absolut echt wirken, wie sollen sich da noch Echt und Fake auseinanderhalten lassen? Völlig unmöglich, vor allem in erhitzten Debatten.
Deshalb ist es ein zwingendes Minimum, dass Satire, Memes und vor allem KI-generierte Inhalte gekennzeichnet sein müssen. Eindeutig. Auch wenn das längst nicht ausreicht.
WDR setzt auf Kennzeichnung echter Inhalte
Der WDR geht einen anderen Weg, er will echte Inhalte kennzeichnen, um sie leichter von Fakes unterscheiden zu können – etwas, was ich immer gefordert habe.
Denn niemals wird man schaffen, dass immer und überall KI-Fakes ausreichend gekennzeichnet. Wenn jedoch die seriösen Inhalte und Quellen verlässlich für jeden überprüfbar sind, ist das ein großer Fortschritt.
Der WDR ist zwei Initiativen zur Kennzeichnung vertrauenswürdiger Inhalte beigetreten: der „Content Authenticity Initiative“ (CAI) und der damit verbundenen „Coalition for Content Provenance and Authenticity“ (C2PA), zu der auch Sony, Adobe, BBC, Microsoft, Intel und wie andere gehören.
Die gesamte Produktion, von der Aufnahme mit Kamera oder Mikro, über den Schnitt bis zur Sendung oder dem Onlinestellen muss sicherstellen, dass Manipulationen ausgeschlossen sind.
So lässt sich später überprüfen: Das kommt wirklich von der Tagesschau, vom WDR, aus einer Behörde oder Firmenzentrale. Das ist ein guter und wichtiger Anfang, für mehr Vertrauenswürdigkeit von Medien zu sorgen.
ChatGPT feiert bald seinen zweiten Geburtstag. Aus ChatGPT 3 ist mittlerweile ChatGPT 4o geworden. Kinder werden groß.
Chatbots wie ChatGPT, Claude, Perplexity, Gemini, Grok und Co. faszinieren uns und liefern beeindruckende Ergebnisse. Aber wenn es um Wissensfragen geht, lief und läuft es nicht immer rund: Denn oft gab es fette inhaltliche Fehler in den Antworten und so manche Quellenangabe war manchmal schlichtweg „erfunden“.
Chatbots mit besseren Antworten
Aber ändert sicht das gerade? Viele haben den Eindruck, dass ChatGPT und Co. inzwischen bessere Ergebnisse zu liefern scheinen und auch passendere Quellen nennen. Ist ja nicht ganz unwichtig, wenn man sie als Unterstützung fürs Studium, Arbeit und Co. nutzen will. Aber ist das wirklich so? Werden sie tatsächlich besser bei Wissensfragen?
Wir können ihnen auf jeden Fall eher vertrauen als noch zu Anfang. Die Antworten werden wirklich besser. Aber ein blindes Vertrauen ist trotzdem nicht angebracht: Chatbots machen auch heute noch Fehler.
Viele von uns haben den Eindruck, ChatGPT ist vetrauenswürdiger, weil sich zwischen dem ChatGPT 3 aus den November 2022 und dem ChatGPT 4o im Sommer 2024 einiges getan hat. Der Chatbot versteht meine Fragen besser, antwortet präziser und ausführlicher und ist inzwischen auch aktuell.
Das hilft sehr, weil ChatGPT so zum Beispiel den EM von diesem Jahr bereits kennt, sogar dass Spanien gegen England gespielt hat. Vor zwei Jahren undenkbar.
Chatbots werden genauer und überprüfen vieles noch mal
Schnellere, direktere Antworten schaffen da natürlich schon mal mehr Vertrauen bei uns. Und es gibt tatsächlich bei Wissensfragen deutlich weniger Fehler, sie arbeiten genauer, sagen Studien. Und weil die meisten Chatbots heute auch Zugriff auf aktuelle Infos haben, hilft das auch, dass viele Antworten eher stimmen als früher.
ChatGPT und einige andere Chatbots wenden einen Kniff an: Wenn sie ihre Antwort bereits fertig haben, überprüfen sie noch mal selbst, ob alles zu stimmen scheint, nötigenfalls auch durch einen Abgleich im Nethz. Sie überprüfen die wichtigsten Fakten noch mal. Das merkt man.
Das gilt eigentlich für alle Chatbots, ob sie nun ChatGPT, Gemini, LLama, Grokq, Perplexity oder Claude heißen.
Und wichtig fürs unser Vertrauen, Chat GPT liefert inzwischen Quellen, sagt woher es was weiß, allerdings nur auf Nachfrage.
Besseres Verständnis
Alles in allem: Deutlich bessere Ergebnisse als noch vor einem Jahr und erst recht als vor zwei Jahren, das belegen gleich mehrere Studien, die in diesem Bereich gemacht werden.
Doch kein Lob ohne „Aber“: Gerade bei den Quellenangaben, also woher hat die KI das Ergebnis, da gab‘s ja in der Vergangenheit viele Diskussionen, auch weil ChatGPT sich manchmal sogar Infos und Quellangaben ausgedacht hat, die nur echt klangen. Ist das ist jetzt anders?
Chatbots wissen nichts, sie suchen nach Wahrscheinlichkeiten
Was man unbedingt verstehen muss: Chatbots „wissen“ nichts, sie berechnen Wahrscheinlichkeiten, während sie die Antworten erzeugen.
Was ist die wahrscheinlich richtige Antwort? Chatbots wie ich, basierend auf Modellen wie GPT-4, haben kein „Wissen“ im herkömmlichen Sinne. Stattdessen basieren sie auf großen Datenmengen und berechnen Wahrscheinlichkeiten, um Antworten zu generieren.
Früher war es tatsächlich so, dass ChatGPT keine Quellen für seine Aussagen lieferte. Das lag daran, dass es als Sprachmodell darauf trainiert wurde, menschenähnlichen Text zu generieren, ohne dabei auf einzelne Quellen im Internet zurückzugreifen.
Chatbots nennen nun auch Quellen
Inzwischen hat sich das geändert. OpenAI, die Entwickler von ChatGPT, haben die Modelle weiterentwickelt und neue Funktionen hinzugefügt. So kann ChatGPT in neueren Versionen auf Anfrage Quellen für seine Aussagen nennen.
Wichtig für mich und uns alle, man kann inzwischen die Quellen dann direkt anklicken, sehr hilfreich um tiefer einzusteigen und auch zum prüfen, was hat mir die KI daraus gesucht, schafft ja auch Vertrauen.
Allerdings ist die Genauigkeit dieser Quellenangaben noch immer ein Herausforderung. Es kommt gelegentlich vor, dass ChatGPT Quellen erfindet oder falsch zuordnet.
Insgesamt muss man aber sagen, ChatGPTs Antworten sind inzwischen akkurater, wo sich ChatGPT nicht sicher ist, formuliert es der Chatbot auch entsprechend. Sagt zum Beispiel „Die wissenschaftliche Studienlage ist ungenau“ oder „Es sind nicht genügend seriöse Informationen zugänglich“. Solche Transparenz schafft natürlich auch Vertrauen.
Studien belegen die verbesserte Leistung
Der Eindruck, dass die Ergebnisse besser werden, der täuscht nicht: Es gibt auch Studien, die belegen, dass mittlerweile mehr Vertrauen in ChatGPT und CO gerechtfertigt sind.
Eine Studie der Harvard University hat Anfang des Jahres die Genauigkeit und Vollständigkeit der Antworten von großen Sprachmodellen wie ChatGPT im Vergleich zu menschlichen Experten in spezifischen Bereichen wie der Augenheilkunde. Die Ergebnisse zeigten, dass ChatGPT in der Lage ist, präzise und umfassende Antworten zu liefern. Diese Studio bezog sich noch auf ChatGPT 4, mittlerweile gibt es die weiter entwickelte Version 40.
Allerdings hat ChatGPT noch keine klare Vorstellungen von den eigenen Grenzen. Manchmal wäre es besser, ChatGPT würde sagen: Das ist zu komplex, dazu kann ich keine Antwort geben.
Eine andere wissenschaftliche Studie des Beth Israel Deaconess Medical Center aus Israel belegt: ChatGPT ist in der Diagnostik, also beim Erkennen von Krankheiten oder Störungen in der Medizin, heute bereits besser als der Mensch, wohlgemerkt besser als Mediziner. Die Studie ist vom April 2024.
Die Ergebnisse waren beeindruckend. Der Chatbot übertraf in mehreren Bereichen die Leistung der menschlichen Ärzte. Insbesondere bei der klinischen Begründung und dem Stellen von Diagnosen zeigte der Chatbot eine bemerkenswerte Genauigkeit.
ChatGPT kommuniziert wie ein Mensch
Es gibt auch eine Studie der Stanford University, die zeigt, dass gerade die neuste Version von ChatGPT mit uns so kommuniziert, als wäre sie ein Mensch. Das erzeugt natürlich ein – sagen wir mal – „vertrauensvolles Umfeld“. Aber diese Studie sagt nichts darüber aus, ob und wie richtig die Antworten sind.
Zwei Punkte sind wichtig
A) Studien brauchen Zeit – und bis sie fertig sind, haben die Chatbots schon wieder große Schritt in der Weiterentwicklung gemacht.
Und B) egal wie erstaunlich die Leistungen der KIs. Schaffen viel mehr als vor zwei Jahren . Sie machen trotzdem Fehler . Machen aber Menschen natürlich auch, selbst wenn ich unter meinen Freunden, die schlausten, die alles lesen und zu wissen scheinen, was frage, kann es sein, dass die mal falsch liegen.
Wir entwickeln ja auch ein Gespür dafür, wann ich ich mich auf eine Antwort bei Freunden und Familie verlassen kann, und wann die selber nicht so ganz wissen wovon sie reden. Aber warum hab ich mit KIs ähnliche Probleme? Warum machen die überhaupt Fehler: Die bekommen doch alle Infos, die online verfügbar sind und vergessen nix.
Problem: Auch KI wird mit Unsinn trainiert
Und genau das ist das Problem, könnte man sage. Denn im Netz steht halt auch jede Menge Blödsinn oder zumindest sehr unterschiedliche Antworten auf die selber Frage 😉
ChatGPT und die anderen KI-Chatbots bekommen eben nicht nur die beste Fachliteratur der Welt zu „lesen“, dann könnten sie keine Fragen zur Aktualität beantworten, sondern sie haben auch studiert, was sie im Internet steht. Also Artikel auf Webseiten, Youtube-Videos, aber auch Postings auf Social Media.
Die Wissenschaft ist sich keineswegs immer einig, und auf Social Media und im Web werden durchaus auch viele Falschbehauptungen, Desinformationen und einfach auch Fehler verbreitet. Die Aufgabe einer KI ist es, all diese Informationen zu sammeln, zu bewerten – der Fachartikel hat mehr Gewicht als 100 Behauptungen in Postings – und sich dann einen Eindruck zu machen.
Das ist nicht leicht, das kennen wir doch von uns selbst: Je mehr Experten wir zu einem Thema hören, desto schwieriger wird es doch, sich festzulegen, was stimmt.
Das führt dann schon mal zu Fehlern und die anderen liegen dann oft an uns, wie wir fragen.
ChatGPT und Co: Richtig fragen ist wichtig
Weil wir doof fragen? Bekommen wir doofe Antworten?
Ein bisschen schon. 🙂 Naja, sagen wir mal, wir sorgen oft für Missverständnisse, weil wir unpräzise Formulierungen beim Fragen werden.
Zum Beispiel, wenn ich frage: Was sind die besten Eissorgten? ChatGPT weiß dann nicht, was die Frage bedeuten soll. Was ist gemeint? Die besten Eissorten in der Lieblings-Eisdiele, in einem Land, am beliebtesten bei Kindern? Die Frage ist viel zu unspezifisch und ohne Kontext nicht objektiv zu beantworten.
Ein anderes Beispiel: Wenn ich einfach nur frage: „Wer ist Michael Müller“, kann der Chatbot unmöglich wissen, wen ich meine – und selbst wenn, kann es schon mal passieren, dass einzelne Stationen des Lebenslaufs durcheinander geraten. Man muss dann genauer fragen: „Was weißt Du über den Politiker Michael Müller aus dem Saarland?“ Das hilft.
Also wenn wir etwas von einer KI wissen wollen sollten wir bei jeder Frage beachten, dass wir so präzise wie möglich sind und auch sagen, was genau wir wissen wollen – und auch, wie ausfürhlich die Informationen sein sollen.
Der Prompt ist entscheidend für die Qualität
Ich mach das so, bei der Formulierung der Frage etwas mehr Arbeit, aber dafür danach weniger, weil ich nicht mehrfach nachfragen muss. Das ist nen Problem bei ChatGPT, man bekommt zwar die Quellen muss man aber fragen, ich nutze daher häufig Perplexity.
Ein KI Chatbot haben viele nicht auf dem Zettel, findet man aber einfach im Netz, den Link packe ich gerne in die Shownotes zu den anderen. Entwickelt von ehemaligen i OpenAI-also ChatGPT-Entwickklern Perplexity legt großen Wert darauf, viele Quellen zu nennen und die Suchergebnisse zusammenzufassen.
Das ist ein wesentlicher Vorteil für die Recherche, da es Transparenz und Überprüfbarkeit der Informationen ermöglicht. Die Quellangaben lassen sich direkt anklicken, damit man bei Bedarf noch mal in die Tiefe gehen kann und nutzt nicht nur ein trainiertes Modell, sondern sucht auch online nach Informationen und versucht Fakten und Behauptungen überprüft – was zu einer höheren Genauigkeit führt. Da vertrauen ich schon mehr auf die Antworten, prüfe aber auch noch mal nach.
Sag deinem Chatbot doch, wenn er Fehler macht…
Was mache ich denn, wenn ich erkenne, dass ein Chatbot offensichtlich oder nur womöglich einen Fehler gemacht hat?
Chatbots machen Fehler. Das wird in Zukunft zwar besser, aber es wird nie ganz auszuschließen sein,. Aber wenn Du einen Fehler entdeckst oder einen Verdacht hast, dann sag einfach: „Das kann nicht stimmen“ – und begründe es kurz.
Du wirst staunen: Oft sagen die Chatbots dann „Du hast recht“, und korrigieren ihre Antwort oder präzisieren sie. Die Entwickler sind sich darüber im Klaren, dass die Chatbots noch Fehler machen und bringen ihnen dabei, souverän damit umzugehen, im Zweifel noch mal nachzuforschen oder auch den Nutzern zu sagen, wenn die Faktenlage nicht eindeutig ist.
Wir können den KIs nicht komplett vertrauen, aber mehr als vor zwei Jahren, man sollte selbst hinterfragen, oder nachbohren und auf die Quellen bestehen. Aber ich vermute, das Vertrauen wird wachsen.
Bedeutet also: Die Antworten von Chatbots werden besser, sind aber noch nicht perfekt – und wir können selbst Einfluss darauf nehmen, dass wir bessere Antworten bekommen, indem wir ausführliche Fragen stellen.
Chatbots können die Antworten von Chatbots überprüfen
Also mehr Vertrauen als Früher aber vielleicht nicht die wichtige Hausarbeit oder nen Bewebrungsgespräch auf die eine KI Antwprt setzen.
Ein Trick hab ich noch: Wer auf Nummer Sicher gehen will, nimmt die Antwort des einen Chatbots und fragt einen anderen, ob das stimmt. Da die Chatbots unterschiedliche Stärken haben, lassen sich so Fehler oft ausmerzen.
Vergleichsstudien zu großen Sprachmodellen: Eine Studie untersuchte die Genauigkeit und Vollständigkeit der Antworten von großen Sprachmodellen wie ChatGPT im Vergleich zu menschlichen Experten in spezifischen Bereichen wie der Augenheilkunde. Die Ergebnisse zeigten, dass ChatGPT in der Lage ist, präzise und umfassende Antworten zu liefern, obwohl es noch Einschränkungen in Bezug auf das Bewusstsein für eigene Grenzen gibt.
Genauigkeit von Chatbots bei der Zitierung von Fachartikeln: Eine Untersuchung der Genauigkeit von Chatbots, insbesondere ChatGPT, bei der Zitierung wissenschaftlicher Artikel zeigte, dass es noch Herausforderungen gibt, insbesondere in der korrekten und vollständigen Zitierung von Quellen. Diese Studie hebt die Notwendigkeit weiterer Verbesserungen in der Zuverlässigkeit und Genauigkeit von Chatbots bei der wissenschaftlichen Kommunikation hervor.
Leistungsfähigkeit von Chatbots im klinischen Umfeld: Eine Studie von Beth Israel Deaconess Medical Center verglich die klinische Entscheidungsfindung von Chatbots mit der von Ärzten. Diese Forschung zeigte, dass Chatbots in bestimmten klinischen Szenarien die Leistung von Ärzten übertreffen können, was auf die potenziellen Vorteile von Chatbots als Unterstützungstools in der medizinischen Diagnose hinweist.