Künstliche Intelligenz ist das Trendthema des Jahres – und leider auch ein Magnet für Falschinformationen. Eine aktuelle Analyse von NewsGuard zeigt besorgniserregende Entwicklungen: Im Netz verbreiten sich massenhaft Fake News zu ChatGPT und anderen KI-Systemen. Was steckt dahinter und wie können wir uns schützen?
OpenAI-Chef Sam Altman plant offenbar ein KI-Betriebssystem auf Abonnementbasis, das ChatGPT als Grundlage nutzen soll. Handelt es sich um Zukunftsmusik oder eine echte Bedrohung für Google und Microsoft Windows?
Die neue PDF-Funktion in ChatGPTs Deep-Research-Modus könnte zum Game-Changer für Studenten, Wissenschaftler und alle werden, die mit umfangreichen Dokumenten arbeiten. OpenAI hat seinem KI-Modell damit ein praktisches Werkzeug spendiert, das die Informationsverarbeitung auf ein neues Level hebt. Zeit für einen genaueren Blick.
Bei einem Feldversuch ist es gelungen, Menschen in einem Online-Forum unbemerkt mit Maschinen diskutieren zu lassen – ein gleichzeitig interessantes und erschreckendes Experiment.
Was passiert, wenn Forscher Künstliche Intelligenz heimlich in Online-Diskussionen einschleusen? Genau das ist auf der Plattform Reddit geschehen – und sorgt jetzt für erheblichen Wirbel. Denn die betroffenen Nutzer wussten nichts davon. Der Fall zeigt, wie dringend wir Regeln für den Einsatz von KI brauchen.
Viele Menschen nutzen ChatGPT – aber kaum jemand weiß, dass es im Hintergrund verschiedene Modelle gibt, die sich teilweise stark unterscheiden. Nicht nur bei der Leistung, sondern auch beim Funktionsumfang und den Nutzungslimits.