Der Tech-Gigant Google plant, ab 2030 kleine modulare Atomreaktoren zu nutzen, um den enormen Energiehunger seiner KI-Systeme zu stillen. Was steckt hinter dieser überraschenden Entscheidung und was bedeutet sie für die Zukunft der Künstlichen Intelligenz?
Stellt euch vor, ihr fragt ChatGPT eine simple Frage – und verbraucht dabei zehnmal so viel Energie wie bei einer Google-Suche. Willkommen in der energiehungrigen Welt der KI, in der selbst Tech-Riesen wie Google zu unkonventionellen Methoden greifen müssen, um ihren Stromverbrauch zu decken.
Der KI-Boom und seine energetischen Folgen
Künstliche Intelligenz ist in aller Munde, doch hinter den beeindruckenden Fähigkeiten von ChatGPT, DALL-E und Co. verbirgt sich ein gewaltiger Energiehunger. Laut Schätzungen von Goldman Sachs wird sich der Stromverbrauch von US-Rechenzentren zwischen 2023 und 2030 etwa verdreifachen. Das Electric Power Research Institute prognostiziert, dass Datenzentren bis zum Ende des Jahrzehnts bis zu neun Prozent der gesamten Stromerzeugung der USA verbrauchen könnten – mehr als eine Verdoppelung des aktuellen Verbrauchs.
Google, als einer der führenden Akteure im KI-Bereich, steht vor der Herausforderung, diesen massiven Energiebedarf zu decken und gleichzeitig seine Klimaziele einzuhalten. Der Konzern hat sich verpflichtet, bis 2030 klimaneutral zu wirtschaften. Doch die Realität sieht anders aus: Im vergangenen Jahr stiegen Googles CO2-Emissionen um 13 Prozent, wobei der Energiekonsum der Rechenzentren eine zentrale Rolle spielte.
Googles überraschende Lösung: Mini-Atomkraftwerke
In einem überraschenden Schritt hat Google nun angekündigt, ab 2030 Energie aus neuartigen kleinen Atomreaktoren des Entwicklers Kairos Power einzukaufen. Bis 2035 soll die jährliche Leistung dieser Mini-AKWs 500 Megawatt erreichen – verteilt auf sechs oder sieben Kraftwerke.
Michael Terrell, Senior Director für Energie und Klima bei Google, erklärte gegenüber der Financial Times: „Wir sind der Meinung, dass Kernenergie eine wichtige Rolle spielen kann, um unseren Bedarf rund um die Uhr auf saubere Weise zu decken.“ Diese Entscheidung macht Google zum ersten Technologieunternehmen weltweit, das einen solchen Vertrag über den Bau von Atomreaktoren abgeschlossen hat.
Die Technologie hinter den Mini-AKWs
Die von Kairos Power entwickelten modularen Reaktoren unterscheiden sich von herkömmlichen Atomkraftwerken. Sie werden nicht mit Wasser, sondern mit geschmolzenen Fluorid-Salzen gekühlt. Laut Kairos macht dies die Reaktoren sicherer, da die Kühlflüssigkeit nicht verkocht. Zudem sollen die kompakten Reaktoren in Fabriken vorgefertigt und am Einsatzort nur noch installiert werden.
Allerdings steckt diese Technologie noch in den Kinderschuhen. Kairos Power erhielt erst 2023 die Genehmigung zum Bau eines Testreaktors in Tennessee. Es bleibt abzuwarten, ob die ambitionierten Zeitpläne eingehalten werden können.
Warum keine erneuerbaren Energien?
Angesichts des Klimawandels und der Fortschritte im Bereich der erneuerbaren Energien mag Googles Entscheidung für Atomkraft überraschen. Tatsächlich setzt der Konzern weiterhin stark auf erneuerbare Energien: 2023 lag der Anteil CO2-freier Energie im Verbrauch von Googles Rechenzentren und Büros bei 64 Prozent.
Doch der immense und vor allem konstante Energiebedarf von KI-Systemen stellt eine besondere Herausforderung dar. Während Solar- und Windenergie von Wetter und Tageszeit abhängig sind, bieten Atomkraftwerke eine zuverlässige Grundlast. Google scheint zu dem Schluss gekommen zu sein, dass eine Mischung aus erneuerbaren Energien und Atomkraft der beste Weg ist, um sowohl den Energiebedarf zu decken als auch die Klimaziele zu erreichen.
KI und Energieverbrauch: Ein wachsendes Problem
Der enorme Energieverbrauch von KI-Systemen wirft wichtige Fragen auf. Eine einzelne Anfrage bei ChatGPT verbraucht etwa 0,003 Kilowattstunden Strom – zehnmal so viel wie eine Google-Suche. Multipliziert man dies mit den Millionen von Anfragen, die täglich gestellt werden, ergibt sich ein besorgniserregender Energiebedarf.
Experten warnen, dass der Energiehunger der KI zu einem ernsthaften Problem werden könnte. Nicht nur für die Umwelt, sondern auch für die Entwicklung der Technologie selbst. Wenn der Energieverbrauch weiter so drastisch steigt, könnte dies die Weiterentwicklung und den breiten Einsatz von KI-Systemen bremsen.
Alternativen und Zukunftsperspektiven
Google ist nicht das einzige Unternehmen, das auf Atomkraft setzt, um den KI-Energiebedarf zu decken. Auch Microsoft plant, einen stillgelegten Reaktor im Kraftwerk Three Mile Island für seine Rechenzentren zu reaktivieren. Amazon hat ebenfalls Vereinbarungen zur Nutzung von Atomstrom getroffen.
Doch es gibt auch andere Ansätze: Microsoft investiert beispielsweise in ein Rechenzentrum in Kenia, das vollständig mit Geothermie betrieben werden soll. Und das Start-up Exowatt, an dem auch OpenAI-Chef Sam Altman beteiligt ist, entwickelt modulare Solarsysteme speziell für KI-Unternehmen.
Fazit: Die energetische Herausforderung der KI-Revolution
Googles Entscheidung für Mini-Atomkraftwerke zeigt deutlich, vor welchen Herausforderungen die Tech-Industrie im Zeitalter der KI steht. Der immense Energiebedarf droht, die Klimaziele der Unternehmen zu untergraben und könnte zum Bremsklotz für die weitere Entwicklung werden.
Die Lösung wird vermutlich in einem Mix aus verschiedenen Energiequellen liegen – von erneuerbaren Energien über effizientere Rechenzentren bis hin zu neuen Nukleartechnologien. Gleichzeitig wird es entscheidend sein, die Effizienz von KI-Systemen weiter zu verbessern, um den Energieverbrauch zu senken.
Als Nutzer und Gesellschaft müssen wir uns bewusst sein, dass jede KI-Anfrage einen energetischen Fußabdruck hinterlässt. Die Herausforderung wird sein, die Vorteile der KI zu nutzen, ohne dabei unsere Umweltziele aus den Augen zu verlieren. Die kommenden Jahre werden zeigen, ob und wie wir diesen Balanceakt meistern können.
Du denkst, du bist ein Prompt-Profi? Vorsicht! Selbst erfahrene Nutzer tappen oft in diese 6 fiesen Fallen beim Formulieren von KI-Anweisungen. Hier erfährst du, wie du deine Prompts optimierst und bessere Ergebnisse erzielst.
Stell dir vor, du gibst deinem KI-Assistenten eine Anweisung und er antwortet mit „Tut mir leid, das kann ich nicht.“ Frustrierend, oder? Keine Sorge, mit unseren Tipps passiert dir das nicht mehr!
Künstliche Intelligenz ist ein mächtiges Werkzeug – wenn du weißt, wie du es richtig einsetzt. Leider machen viele Nutzer immer wieder die gleichen Fehler beim Formulieren ihrer Prompts. Das Ergebnis? Unbrauchbare oder irreführende Antworten. Aber keine Panik! Wir zeigen dir, wie du diese 6 häufigen Fallen beim Prompt-Writing umgehst und deine KI-Interaktionen auf ein neues Level hebst.
1. Zu vage Anweisungen
Einer der häufigsten Fehler beim Schreiben von KI-Prompts ist es, ungenaue oder allgemeine Anweisungen zu geben. Wenn du nur eine vage Aufgabe wie „Schreib etwas über Hunde“ stellst, erhältst du vermutlich eine ebenso vage Antwort, die weder detailliert noch besonders hilfreich ist.
Um dies zu vermeiden, solltest du dein Ziel und die gewünschten Details klar angeben. Versuche, präzise zu formulieren, indem du das Thema eingrenzt, spezifische Informationen verlangst und den Umfang der Antwort definierst.
Statt „Schreib etwas über Hunde“ könntest du schreiben: „Verfasse einen 300-Wörter-Artikel über die Vor- und Nachteile der Haltung von Golden Retrievern in Stadtwohnungen, einschließlich Informationen über ihren Pflegeaufwand, Bewegungsbedürfnisse und Verhalten.“ Diese Klarheit hilft der KI, eine strukturierte und relevante Antwort zu geben, die deinen Erwartungen entspricht.
2. Mangelnder Kontext
Ein häufiges Missverständnis bei der Arbeit mit KI ist die Annahme, dass die KI automatisch versteht, was du brauchst, ohne dass du die Situation beschreibst. KI-Modelle basieren jedoch auf den Informationen, die du ihnen gibst.
Wenn du keinen Kontext lieferst, bleibt die Antwort oft ungenau oder irrelevant. Je mehr Hintergrundinformationen du zur Verfügung stellst, desto genauer kann die KI deine Anforderungen erfassen und entsprechende Antworten generieren.
Zum Beispiel: Wenn du sagst „Gib mir Instagram-Post-Ideen“, weiß die KI nicht, welches Unternehmen oder welche Branche gemeint ist. Stattdessen könntest du sagen: „Ich bin Marketingmanager eines veganen Snack-Unternehmens und möchte eine Social-Media-Kampagne starten.
Kannst du mir 5 kreative Instagram-Post-Ideen vorschlagen, die unsere umweltfreundliche Verpackung und die Nachhaltigkeitsbotschaft hervorheben?“ Mit dieser detaillierten Beschreibung versteht die KI genau, was du benötigst.
3. Zu komplexe Anfragen
Es kann verlockend sein, eine sehr umfangreiche Frage in einem einzigen Prompt zu stellen, aber das führt oft zu unscharfen Ergebnissen. KI-Modelle verarbeiten Informationen effizienter, wenn sie in kleinere, überschaubare Teile aufgeteilt sind.
Statt eine verschachtelte Anfrage zu stellen, die mehrere Fragen oder Details in sich vereint, ist es sinnvoller, die Anfrage in mehrere aufeinanderfolgende Schritte zu unterteilen.
Zum Beispiel, anstatt zu fragen „Erstelle einen Marketingplan für ein Jahr, der Social Media, Content-Erstellung und bezahlte Werbung umfasst“, könntest du die Anfragen aufteilen: „Was sind effektive Social-Media-Strategien für ein Jahr?“, gefolgt von „Welche Inhalte eignen sich am besten für einen Blog in der Marketingstrategie?“.
Dies hilft der KI, sich auf spezifische Aspekte zu konzentrieren und bessere, detailliertere Antworten zu liefern.
4. Vergessen der Zielgruppe
Einer der wichtigsten Aspekte beim Schreiben von Texten – sei es für Menschen oder mit Hilfe einer KI – ist es, die Zielgruppe im Blick zu behalten. Jede Zielgruppe hat unterschiedliche Vorkenntnisse, Bedürfnisse und Erwartungen.
Wenn du nicht klar angibst, für wen der Text bestimmt ist, könnte die KI eine Antwort generieren, die entweder zu komplex oder zu einfach ist. Zum Beispiel, wenn du „Erkläre die Blockchain-Technologie“ sagst, könnte die KI eine technisch anspruchsvolle oder allgemeinverständliche Antwort liefern – aber ohne die Zielgruppe zu kennen, ist es Glückssache, ob die Antwort passt.
Formuliere daher präzise: „Erkläre die Blockchain-Technologie so, dass 12-jährige Kinder sie verstehen können“, oder „Erkläre Blockchain für Finanzexperten, die bereits grundlegendes Wissen über Kryptografie haben.“ So stellst du sicher, dass die Antwort den Erwartungen deiner Leser entspricht.
5. Fehlende Formatierungsanweisungen
Oft wird übersehen, dass die Form der Antwort genauso wichtig sein kann wie der Inhalt. Eine klar strukturierte und leicht lesbare Antwort ist viel wertvoller als eine unstrukturierte. Wenn du eine bestimmte Formatierung wünschst, solltest du dies explizit in deinem Prompt angeben.
Wenn du z. B. eine Liste, eine Tabelle oder eine strukturierte Schritt-für-Schritt-Anleitung benötigst, teile dies der KI mit.
Zum Beispiel: „Erstelle eine 5-Punkte-Checkliste für die Vorbereitung einer Geschäftsreise. Verwende Aufzählungszeichen und fette Überschriften für die wichtigsten Punkte.“ Diese Art von Anweisung sorgt dafür, dass die KI die Informationen so präsentiert, wie du sie brauchst, was die Nutzbarkeit der Antwort erheblich steigert.
6. Ignorieren ethischer Richtlinien
Während KI-Modelle mächtige Werkzeuge sind, haben sie auch ihre Grenzen – insbesondere, wenn es um ethische Richtlinien geht.
Es ist wichtig, diese Beschränkungen zu verstehen und zu respektieren. Versuche nicht, die KI dazu zu bringen, unethische oder regelwidrige Inhalte zu generieren, denn das Modell ist darauf trainiert, solche Anfragen zu verweigern.
Statt zu versuchen, ethische Vorgaben zu umgehen, solltest du deine Prompts im Einklang mit den moralischen Standards und Nutzungsrichtlinien formulieren. Dies fördert verantwortungsbewussten Umgang mit der Technologie und sorgt für Ergebnisse, die ethisch und nützlich sind.
Zum Beispiel, wenn du nach umstrittenen Inhalten fragst, formuliere deine Frage so, dass sie auf eine neutrale und informative Antwort abzielt, anstatt provokative oder unethische Inhalte zu fordern.
OpenAI bringt frischen Wind in die KI-Welt: Mit „Canvas“ wird ChatGPT nun interaktiv und visuell, und neue APIs erweitern die Möglichkeiten für Entwickler erheblich. Erfahre, was diese Neuerungen bedeuten und wie sie dich beim Arbeiten mit KI unterstützen können.
Deine KI wird kreativer: Was bedeutet das neue Canvas?
Mit dem neuen Feature namens „Canvas“ wird ChatGPT interaktiver als je zuvor.
Stell dir vor, ChatGPT verwandelt sich von einem simplen Textfeld in eine dynamische Arbeitsfläche – genau das ist jetzt möglich. Wenn Du zum Beispiel einen von ChatGPT ausgelieferten Text bearbeiten möchtest, dann nicht mehr gleich den gesamten – Du kannst sagen, worauf Du Dich beziehen möchtest. Konkurrent Claude bietet eine ähnliche Funktion schon länger an.
Canvas bietet eine visuelle Umgebung, in der du deine Ideen, Notizen und sogar Diagramme direkt mit der KI austauschen kannst. Du kannst damit verschiedene Konzepte verknüpfen und Inhalte auf eine Art und Weise organisieren, die intuitiver und effizienter ist.
Das macht besonders für kreative Aufgaben einen großen Unterschied: Ob du eine Mindmap erstellst oder zusammen mit ChatGPT ein Storyboard planst – das alles wird visuell ansprechend und interaktiver als je zuvor. Canvas ist eine Arbeitsfläche, die es dir erlaubt, Gedanken visuell zu erfassen und im Dialog mit der KI weiterzuentwickeln.
Von Text zu visuellem Brainstorming
Bisher waren deine Interaktionen mit ChatGPT rein textbasiert. Canvas bricht diese Grenze auf: Du kannst jetzt Texte, Zeichnungen und Elemente visuell zusammenbringen und organisieren. Stell dir vor, du startest mit einer einfachen Textidee – doch anstatt nur Textantworten zu erhalten, entwickelt sich eine kollaborative visuelle Landschaft. Das Tool hilft dir, deine Ideen zu visualisieren, zu erweitern und auf einem Bildschirm zu strukturieren.
Die Auswirkungen auf den Arbeitsprozess sind groß: Statt Informationen nur linear zu verarbeiten, kannst du non-linear arbeiten, Dinge verschieben und neue Zusammenhänge entdecken. Besonders spannend ist, dass die visuelle Darstellung auch für Teams nützlich sein kann, da gemeinsame Brainstorming-Sessions dadurch flexibler und anschaulicher werden.
Neue APIs: Mehr Power für Entwickler
Neben Canvas hat OpenAI auch neue APIs angekündigt, die die Integration von KI in eigene Anwendungen stark vereinfachen. Die neuen Schnittstellen bieten erweiterten Zugriff auf die KI-Modelle von OpenAI und erlauben es, deren Funktionalität tief in eigene Systeme zu integrieren.
Für Entwickler bedeutet das vor allem mehr Flexibilität und Kontrolle: Du kannst die APIs nutzen, um benutzerdefinierte Workflows zu erstellen, sei es zur Automatisierung von Aufgaben, zur Integration in Kundenservices oder für ganz eigene, innovative Anwendungsideen. Die neuen APIs sind so gestaltet, dass auch weniger erfahrene Entwickler von den fortschrittlichen Möglichkeiten profitieren können.
Einfachere Anbindung und neue Möglichkeiten
Mit der vereinfachten Anbindung will OpenAI vor allem die Einstiegshürde senken. Was früher komplexe Integration bedeutete, ist jetzt durch die neuen Schnittstellen erheblich einfacher geworden. Die APIs unterstützen eine Vielzahl von Funktionen – etwa das Generieren von Texten, die Sprachsynthese oder das Extrahieren von Daten.
Damit können Entwickler Anwendungen erschaffen, die auf natürliche Sprache reagieren, die Konversationen auf einem hochentwickelten Niveau führen und sogar kreativ Inhalte erschaffen. Die Nutzungsmöglichkeiten sind fast unbegrenzt – von Chatbots bis zu personalisierten Benutzererlebnissen in Webseiten oder Apps.
Claude: Eine ähnliche Vision von Anthropics KI-Interaktion
Anthropic, das Unternehmen hinter Claude, bietet ebenfalls eine interaktive Art der Zusammenarbeit mit KI an. Claude verfolgt das Ziel, natürliche und kontextreiche Interaktionen zu ermöglichen und setzt dabei auf eine Kombination aus textbasierter und visueller Unterstützung. Im Gegensatz zu Canvas, das eine explizit visuelle Arbeitsumgebung schafft, bleibt Claude vorerst stärker auf das Textbasierte fokussiert, bietet aber eine flexible Kontextverwaltung, die für Entwickler und Kreative sehr nützlich sein kann.
Claude ist besonders auf einfache Bedienbarkeit und Sicherheit ausgelegt. Es erlaubt Nutzern, Informationen im Kontext einer laufenden Unterhaltung zu behalten und durch Rückfragen oder spezifizierte Anfragen weiterzuentwickeln. Zwar ist Claude nicht explizit als visuelles Tool gedacht, wie es Canvas bietet, aber es bietet dennoch eine nahtlose Integration in Arbeitsabläufe, die auf dynamische Konversationsführung setzen.
Ein Gamechanger für Kreative und Entwickler
Die Neuerungen, die OpenAI mit Canvas und den neuen APIs vorgestellt hat, könnten zu einem echten Gamechanger werden. Insbesondere für Kreative, die bisher mit den rein textbasierten Funktionen gearbeitet haben, bietet Canvas eine völlig neue Art der Interaktion. Entwickler hingegen profitieren von den erweiterten Möglichkeiten der APIs, die die Nutzung und Einbindung von KI in eigene Systeme erleichtern.
Für viele Nutzer wird Canvas wahrscheinlich der nächste logische Schritt sein, um ihre Zusammenarbeit mit der KI noch weiter auszubauen. Von der bloßen Textgenerierung hin zu einem vollständig interaktiven Erleben – das könnte die Art und Weise, wie wir mit Künstlicher Intelligenz arbeiten, nachhaltig verändern.
OpenAI macht ChatGPT vielseitiger
Mit Canvas und den neuen APIs geht OpenAI einen bedeutenden Schritt in Richtung einer noch vielseitigeren KI. Die Möglichkeit, auf einer visuellen Ebene mit der KI zu interagieren, macht kreative Prozesse intuitiver und ansprechender. Gleichzeitig können Entwickler durch die erweiterten APIs die Technologie einfacher und umfassender nutzen, was neue Anwendungsszenarien öffnet.
Die Zukunft der KI-Interaktion wird somit deutlich vielseitiger und zugänglicher – für Einzelanwender, Kreative und Entwickler gleichermaßen. Es bleibt spannend zu sehen, welche innovativen Projekte und Ideen in den kommenden Monaten auf Basis dieser neuen Werkzeuge entstehen werden. Wenn du neugierig bist, probier es einfach aus – die neuen Features bieten viele Möglichkeiten, um deine Arbeit mit KI auf das nächste Level zu heben.
Während im stationären Handel die Preise relativ stabil sind und sich selten ändern, ist das bei Online-Händlern wie Amazon anders: Mehrmals am Tag gehen die Preise eines Produktes nach oben und nach unten. Schwer, damit Schritt zu halten. Es sei denn, ihr lest weiter!
Stell dir vor, eine KI, die nicht nur blitzschnell antwortet, sondern auch wirklich nachdenkt – wie ein Mensch. Genau das hat OpenAI jetzt mit ihrem neuen Modell geschafft. Revolution oder nur Hype?
OpenAI hat ein neues KI-Modell vorgestellt, das komplexe Probleme durchdenkt und dabei sogar in IQ-Tests brilliert. Mit beeindruckenden 83% Erfolgsquote bei der internationalen Mathematik-Olympiade und einem IQ von 120 stellt dieses Modell alles bisher Dagewesene in den Schatten.
OpenAI ist ein Durchbruch gelungen
OpenAI ist das Unternehmen, das die KI offenbar am schnellsten voranbringt. Eun Durchbruch!
Das neue KI-Modell o1 von OpenAI ist anders als seine Vorgänger. Das neue Modell haut nicht gleich eine Antwort raus, sondern „denkt“ nach. Wie ein Mensch. Stellen wir uns für einen Moment vor, wie das ist, wenn wir über eine komplizierte Frage nachdenken. Wir überlegen kurz, was die Frage bedeutet, denken dann nach und geben dann eine durchdachte Antwort. Manchmal überlegen wir auch noch, wie wir das gerade am besten formulieren, je nach Situation. Genau so funktioniert auch o1.
Im Gegensatz zu früheren Modellen wie GPT-4, die blitzschnell antworten, nimmt sich o1 mehr Zeit. Es durchdenkt Probleme Schritt für Schritt, ähnlich wie ein Mensch. Das macht o1 jetzt schon besonders gut in Bereichen wie Mathematik, Naturwissenschaften und Programmierung. Ein Beispiel: Bei einem schwierigen Mathe-Test löste das bisherige Top-Modell GPT-4 nur 13% der Aufgaben. o1 schaffte dagegen beeindruckende 83%.
Das ist ein großer Schritt in Richtung KI, die komplexe Probleme lösen kann.
ChatGPT O1 hat einen IQ von 120
In „Künstlicher Intelligenz“ steckt das Wort „Intelligenz“, natürlich! 😉 Aber kann man denn sagen, wie „intelligent“ ein solches KI-Modell wirklich ist?
Das wurde jetzt untersucht. OpenAIs neues Modell o1 hat in einem offiziellen IQ-Test von Mensa Norway bemerkenswerte Ergebnisse erzielt. Das Modell erreichte einen IQ-Wert von 120, was deutlich über dem menschlichen Durchschnitt von 100 liegt.
Dieser Wert platziert O1 mal eben in den oberen 10% der Bevölkerung hinsichtlich der kognitiven Fähigkeiten, die in diesem Test gemessen werden. Das Ergebnis unterstreicht die fortschrittlichen Fähigkeiten des neuen KI-Modells im logischen Denken und in der Mustererkennung.
Frühere Modelle wie GPT-4 und Claude 3 haben deutlich niedrigere Werte erzielt, so im Bereich 80 bis 90. Also ein erheblicher Fortschritt, der da gemacht wurde:
Allerdings muss man auch sagen, dass der IQ-Test nur einen recht begrenzten Bereich des menschlichen Denkens erfasst. Emotionale Intelligenz oder Kreativität spielen nicht die geringste Rolle dabei.
Wann ist uns KI überlegen?
Stellt sich die Frage: Bedeutet das nun, dass die aktuelle KI uns überlegen ist?
In einigen Bereichen schon. In der Qualifikationsprüfung für die internationale Mathematik-Olympiade hat O1 eine Erfolgsquote von 83% hingelegt. Die KI hat in Physik, Chemie und Biologie das Wissen eines Doktoranden. Außerdem kann O1 auch extrem gut programmieren.
Doch vieles kann O1 auch nicht. Es kann auch nicht eigenständig „neue Hypothesen generieren“ und „Behandlungsstrategien entwickeln“, sondern immer nur basierend auf Mustern aus den Trainingsdaten den Output generieren.
Auch ein komplexer Taschenrechner bleibt ein Taschenrechner. Ich halte es für wirklich wesentlich und wichtig, diese Unterschiede zu verstehen um solche KI-Modelle zielgenau nutzen zu können.
Noch nicht auf menschlichem Niveau
Auch, wenn das neue KI-Modell O1 komplexe Reasoning-Fähigkeiten besitzt, fehlen ihm doch immer noch Bewusstsein, Emotionen und vor allem natürlich Lebenserfahrung: Kernelemente menschlichen Denkens, daher bleibt „Nachdenken“ in diesem Zusammenhang immer in Anführungszeichen.
Das neue KI-Modell O1 verarbeitet Daten und erkennt Muster, „denkt“ aber nicht im menschlichen Sinne. O1 mag in spezifischen Bereichen beeindruckende Leistungen erzielen, ist aber trotzdem noch weit davon entfernt, die Komplexität und Vielseitigkeit menschlicher Intelligenz zu erreichen. Noch.
Was man wissen muss: Der Rechenaufwand für dieses „Schleifendrehen“ und Dinge von verschiedenen Seiten betrachten ist deutlich höher. Das System ist langsamer und teurer als die Vorgängermodelle und ihm fehlen auch wichtige Funktionen wie Bilderkennung. Man kann eben – noch – nicht alles haben.
Googeln oder Chatbot fragen? Die Frage stellt sich künftig häufiger – nicht unbedingt zur reinen Freude von Google.
Im Internet suchen, im Netz recherchieren: Kann man sagen, sagt aber keiner. Alle sagen: „Googeln“ dazu. Das ist so sehr in unserem Sprachgebrauch, dass Googeln ganz offiziell im Duden steht. Niemand wird die Marktmacht von Google bestreiten wollen.
Die allermeisten Suchanfragen gehen bei uns, aber auch in den USA an Google. Dabei gibt es durchaus andere Suchmaschinen. Trotzdem hat ein amerikanisches Gericht Google jetzt als „Monopolist“ eingestuft.
Doch wie lange kann Google die Position noch halten, angesichts der Tatsache, dass immer mehr Menschen auch mit Chatbots recherchieren und suchen?
Google, der Monopolist
Wenn ein Unternehmen so stark ist wie Google, so bekannt und so erfolgreich, da fragt man sich natürlich schon immer, ob da alles mit rechten Dingen zugeht. Ein US-Gericht hat nun in einem Urteil festgestellt: Google ist ein Monopolist und verhält sich auch so.
Schon vor einigen Jahren hatte das US-Justizministerium sowie einige US-Bundesstaaten gegen Google geklagt, weil das Unternehmen sich nach Ansicht der Kläger über das Gesetz stelle – und nach eigenen Regeln spiele, um die immerhin vorhandene Konkurrenz – darunter die Suchmaschine Bing von Microsoft – verdrängen wolle.
Ganz konkret ging es darum, dass Google Unternehmen wie Apple oder Mozilla dafür bezahlt, dass sie Google in ihren Browsern Safari und Firefox als Standard-Suchmaschine eintragen. Die aller wenigsten Menschen ändern diese Einstellung. Google zahlt Apple und Mozilla Milliarden dafür, dass die Browser so eingestellt sind. Nach dem Urteil wird das so nicht weitergehen dürfen. Apple wird es verkraften, wenn Milliarden wegfallen. Die Mozilla Foundation, die den einst so populären Browser Firefox entwickelt, ist auf das Geld als nahezu einzige Einnahmequelle angewiesen.
In Europa freie Suchmaschinen-Wahl – in USA noch nicht
Wenn Ihr nun denkt: Also ich werde doch immer gefragt, wenn ich ein Betriebssystem wie Windows oder mein neues Handy einrichte, welche Suchmaschine ich benutzen möchte…
Stimmt: Hier in Europa ist das so – spätestens seit dem „Digital Markets Act“ müssen Konzerne wie Google, Apple und Microsoft das machen. In den USA aber nicht. Da können sich Konzerne wie Google also die Sichtbarkeit erkaufen. Und Google macht das eben auch.
Man könnte denken: Ist doch egal, welche Suchmaschine jemand benutzt. Doch das ist nicht zu Ende gedacht: Google lebt vor allem von den Anzeigen, die auf der Suchmaschine verkauft werden. Je mehr Menschen, desto mehr Umsatz. Je weniger ernsthafte Konkurrenz, desto höhere Preise kann Google für seine Anzeigen nehmen. In der Tat hat der Konzern zuletzt die Preise für Anzeigenplätze immer teurer gemacht.
Noch ist Google die Suchmaschine schlechthin, die alle kennen. Doch immer mehr Menschen nutzen nun auch Chatbots, um sich Fragen beantworten zu lassen.
Chatbots sind eine Bedrohung für Google
Das ist eine ernsthafte Bedrohung. Als vor zwei Jahren die erste Version von ChatGPT öffentlich gemacht wurde, haben Google-Manager „Alarmstufe rot“ ausgerufen. Sie sind sich der Bedrohung durch Chatbots absolut bewusst – und entwickeln ja auch selbst Chatbots.
Doch nun hat OpenAI, das Unternehmen hinter ChatGPT, ein ganz neues Produkt im Test: SearchGPT. Eine Mischung aus Suchmaschine und Chatbot, könnte man sagen. SearchGPT versteht auch komplexe Anfragen – das kann die Google-Suche bislang nicht.
Beantwortet Fragen, wo möglich, nennt aber auch alle relevanten Quellen, wo man sich weiter informieren kann. Nutzer können aber auch Folgefragen stellen, denn SearchGPT hat wie ein Chatbot ein Kontextverständnis.
Das ist ein sehr interessanter Ansatz, den OpenAI da verfolgt: Im Prinzip werden die Vorteile beider Welten miteinander verbunden. Man kann in natürlicher Sprache nachfragen, wird verstanden, bekommt Antworten und Fundstellen. Ideal für Recherchen.
SearchGPT als Alternative zu Google
Bislang nicht. Der Testbetrieb in geschlossen, mit 10.000 Testern weltweit. Doch der Druck in dieser Szene ist so hoch, dass ich davon ausgehe, dass OpenAI diesen Dienst schon sehr bald für alle öffnet. Es wird ganz sicher nicht mehr lange dauern – und Google dann enorm unter Druck setzen. Den einen Platzhirsch, der alle Suchanfragen abbekommt, diese Zeiten scheinen vorbei zu sein.
Der Unterschied des Energiebedarfs ist allerdings enorm. Eine Google-Suchanfrage verbraucht in etwa so viel Energie, dass eine 100-Watt-Birne 10 Sekunden lang leuchtet. Eine Chatbot-Anfrage verbraucht bis zu 300 Mal so viel Energie: Das lässt eine 100-Watt-Birne mehrere Minuten lang leuchten.
Ein komplett unterschätzter Aspekt, den wir auch bedenken sollten, wenn wir zwischen Suchmaschine und Chatbot wählen.