Google bohrt seine Suchmaschine auf: Künftig bekommen Nutzer oft direkt Antworten präsentiert – und Hilfen angeboten. Im Vordergrund steht Google Gemini.
Die Suchmaschine Google verändert sich radikal: KI beantwortet künftig viel mehr Fragen direkt, findet Stellen in Videos und reagiert auf natürliche Sprache.
Google hat viel Erfahrung mit KI
Google hat bereits seit vielen Jahren große Investitionen in die Entwicklung von Künstlicher Intelligenz getätigt und kann dabei auf beachtliche Erfolge zurückblicken. Bereits im Jahr 2011 gründete das Unternehmen seine dedizierten KI-Forschungsabteilung Google Brain, die seitdem wegweisende Fortschritte erzielt hat.
So konnte Google mit seinem AlphaGo-Programm 2016 erstmals einen menschlichen Weltmeister im traditionellen Brettspiel Go besiegen – ein Meilenstein für die KI-Forschung.
In den folgenden Jahren baute Google seine KI-Fähigkeiten weiter aus und integrierte sie zunehmend in seine Produktpalette, etwa in Form der Sprachassistentin Google Assistant oder der Bilderkennungs-Technologie Google Lens.
Heute zählt Google zu den führenden Akteuren im Bereich der künstlichen Intelligenz und treibt die Weiterentwicklung dieser Schlüsseltechnologie kontinuierlich voran.
Auf der Entwicklerkonferenz Google I/O im kalifornischen Mountain View hat der Konzern hinter der bekannten Suchmaschine einen Blick in die nähere Zukunft gewährt.
Eins wurde deutlich: Google setzt vollständig auf Künstliche Intelligenz (KI). Google will künftig häufiger das Googeln selbst übernehmen. Anstatt auf eine Anfrage eine Linkliste mit passenden Webseiten zu präsentieren, sollen künftig sogenannte KI-basierte Übersichten möglichst konkrete Antworten liefern. Weiteres Surfen im Netz überflüssig.
Google beantwortet viele Fragen künftig direkt
Wer zum Beispiel nach Rezepten für einen Kindergeburtstag sucht, bekommt nicht einfach eine Liste mit Rezepte-Webseiten präsentiert, sondern bereits fertige Rezepte. Sagt man der KI auch noch, wie viele Kinder kommen und welche Unverträglichkeiten vorliegen oder Veganer dabei sind, passt die KI die Rezepte entsprechend an.
Webseiten ansteuern überflüssig.
Auch komplexere Anfragen sollen künftig möglich sein. „Finde die besten Zahnärzte in Köln und informiere mich darüber, wie lange ich dahin fahre und wo am schnellsten ein Termin zu bekommen ist.“ Oder: „Ich muss mich glutenfrei ernähren. Welche Restaurants in der Umgebung eignen sich da?“
So etwas lässt sich bislang nicht mit einer Google-Suchanfrage herausfinden. Möglicherweise schon sehr bald.
Aktuelle Situationen „verstehen“
Google KI kann aber auch Videos und Situationen analysieren. Künftig wird die Google-Suche auf aktuelle Situationen reagieren können. Die Kette ist vom Fahrrad gesprungen: Einfach die Kamera vom Smartphone draufhalten und Google fragen. Es folgen konkrete Anleitungen, was zu tun ist.
Gezeigt wurde eine Alltagssituation: Eine Fotokamera funktioniert wie gewünscht – ein Hebel klemmt.
Der Nutzer aktiviert die Kamera im Handy, zeigt das Problem und fragt: „Wieso klemmt dieser Hebel?“ – und die KI erklärt nicht nur, wodurch so etwas entstehen kann, sondern macht auch konkrete Vorschläge, das Problem zu lösen. Es gibt auch Hinweise auf Youtube-Videos, in denen genau das thematisiert wird.
Auch die „Assistenten“ werden verbessert
Google entwickelt sich weg von der reinen Suchmaschine, die passende Treffer auf Webseiten oder in Videos findet, hin zum konkreten Assistenten.
Apropos: Die „Google Assistenten“ in den smarten Lautsprechern oder Android-Handys werden ebenfalls aufgebohrt. Aus heutiger Sicht sind die strohdumm.
Die Google-Tochter Deepmind, die schon vor Jahren KI-Systeme gebaut hat, die Weltmeister in Schach und Go geschlagen hat, arbeitet an moderne KI-Agenten, die künftig an die Stelle des „Google Assistant“ treten sollen.
Sprechen mit der KI – und Fragen stellen
Künftige Systeme sprechen flüssiger, verstehen besser, sprechen viele Sprachen, drücken sich emotionaler aus und können auch Fotos oder aktuelle Sitationen erkennen. „Wo habe ich meine Brille hingelegt?“ Wer die Kamera freigibt und das Zimmer abschwenkt, könnte eine Hilfe bekommen.
Viele dieser Neuerungen wurden nur einen Tag vorher auch von OpenAI für den Chatbot ChatGPT vorgestellt. Das Unternehmen hat eine neue Version ChatGPT 4o vorgestellt – mit „o“ für „omnimodal“. ChatGPT kann demnächst mehrere Dinge gleichzeitig: Sprache verstehen und sprechen, Bilder erkennen und erzeugen, aktuelle Situationen analysieren und sogar singen.
Wettstreit der KI-Anbieter
Es gibt erkennbar einen Wettkampf um die beste KI-Technologie für den Alltag. Nichts scheint dem Google-Konzern aktuell wichtiger, als neue KI-Lösungen für alles Mögliche zu entwickeln.
Gemini kann jetzt schon auch in Google-Mail-Konten suchen oder Youtube-Videos finden. Das geht schneller und komfortabler als selbst nach der Rechnung eines bestimmten Unternehmens zu suchen oder ein Video zu finden, in dem eine Frau anderen Frauen erklärt, wie man sich am besten verteidigt.
„Wo habe ich meine Brille hingelegt?“
Google und andere Anbieter wollen KI-Systeme anbieten, die verstehen und helfen – in jeder aktuellen Situation. Für Anbieter von Webseiten zum Beispiel bedeutet das aber auch, künftig weniger Besucher zu bekommen. Denn wenn Google die Fragen schon beantwortet, ist kein Besuch mehr auf der Webseite nötig. Das wird eine Herausforderung für viele Unternehmen werden.
Sie werden ihre Inhalte anpassen müssen. So, dass KI-Systeme sie verstehen und sie als Lösung präsentieren. Die beste Salbe, die bei Mückenstichen hilft kommt von X. Das japanische Restaurant in Düsseldorf hat um 13 Uhr noch einen Tisch frei.
KI verändert nicht nur die Art wie wir suchen, sondern alles – und gibt den Konzernen hinter den KI-Modellen deutlich mehr Macht.
Viele der Neuheiten kommen zuerst in den USA, nach und nach aber auch nach Europa.