KI-Gipfel und mehr Regulierungen aus dem Weißen Haus

von | 03.11.2023 | KI

Künstliche Intelligenz (KI) entwickelt sich rasant. Aufgrund mehrerer warnenden offenen Briefe in den vergangenen Monate sind viele Regierungen wach geworden: Auf einem KI-Gipfel wurde Maßnahmen besprochen und beschlossen.

Es vergeht doch kaum eine Woche, in der wir nicht lesen oder hören, was Künstliche Intelligenz wieder alles neu kann. Keine Frage: KI ist dabei, in all unsere Lebensbereiche vorzudringen. Auch in die Arbeit – und die Medien. Die KI-Unternehmen, meist große Konzerne aus den USA, entwickeln fleißig neue Ideen und Möglichkeiten.

Plötzlich kann KI reden, Bilder erzeugen oder die Überwachung übernehmen. Regeln, was KI darf und was nicht, gibt es bislang kaum. Doch das ändert sich allmählich. Diese Woche hat es in London einen internationalen KI-Gipfel gegeben – und das Weiße Haus hat am Montag ebenfalls diverse Regulierungen und Maßnahmen für KI auf den Weg gebracht.

Roboter sind nur eine Visualisierung von KI

28 Länder haben sich auf dem KI-Gipfel getroffen

Erster KI-Gipfel in London

Der erste KI-Gipfel seiner Art hat in London stattgefunden (der nächste soll in Paris sein): Elon Musk war dabei, aber auch viele Regierungsvertreter – sogar USA und China. Und für Deutschland war Robert Habeck vor Ort. Worum ist es gegangen?

Es war ein Zusammentreffen führender Wirtschaftsnationen, 28 Länder insgesamt. Es ging um die zentrale Frage: Wie leistungsfähig wird KI noch werden, wann kommt eine „Superintelligenz“, die per Definition leistungsfähiger ist als der Mensch – und wie lässt sich das Potenzial von KI heben und gleichzeitig das Risiko eindämmen, dass Menschen mit KI Schaden anrichten oder die KI gar sich eigenständig entwickelt.

Es hat in den vergangenen Monaten etliche offene Briefe gegeben, sogar von Menschen und Entwicklern aus der Branche, die sagen: Es braucht dringend Rahmenbedingungen für KI. Es braucht Regeln, Regulierung und Grenzen für KI, anderenfalls braue sich Unheil zusammen.

Diese Kritiker, die teilweise einst selbst KI entwickelt haben oder es noch tun, werten es als großen Erfolg, dass es nun zu einem derart prominent besetzten KI-Gipfel gekommen ist.

Das Weiße Haus hat einige Regeln für KI erlassen

Das Weiße Haus hat einige Regeln für KI erlassen

Ergebnisse des KI-Gipfel in London

Aber kann man sagen, ob und was konkret dabei herausgekommen ist?

Ich würde sagen: Ja. Das Problembewusstsein ist in der Politik angekommen. In der Erklärung der Gipfelteilnehmer heißt es: „Es besteht das Potenzial für ernsthaften, sogar katastrophalen Schaden, sei er absichtlich oder unbeabsichtigt, der aus den bedeutendsten Fähigkeiten dieser KI-Modelle resultiert“.

In dieser Wahrnehmung ist KI nicht nur ein praktisches Werkzeug, mit dem Menschen Gefährliches anstellen könnten – und das verhindert werden muss –, sondern es geht Gefahr von der KI selbst aus.

Viele sagen: Deshalb müsse nicht nur reguliert werden, wie KI eingesetzt wird, sondern vor allem, wie sie ist. Eine Denkrichtung der KI-Sicherheit, die AI safety genannt wird.

Regeln für KI durch das Weiße Haus

Das Weiße Haus hat Anfang der Woche ebenfalls verschiedene Regeln für KI bekannt gegeben.

Konkret geht es im Dekret von Joe Bidens Administration um die Frage, ob KI in der Lage wäre, jemandem beim Entwickeln biologischer Waffen behilflich zu sein. Oder bei einer Bombe. Beides ist absolut denkbar: Wenn eine KI bei der Forschung zu Impfstoffen helfen kann, dann auch das Gegenteil.

Eine KI könnte also nicht nur neue Wege finden, Menschen zu schaden, sondern auch die Rezeptur verraten und beim Bau einer Bombe helfen. Die Fähigkeiten wären ohne Frage vorhanden, heute schon. In der „Executive Order“ aus dem Weißen Haus von Montag steht konkret, dass das zu verhindern sei.

Keine KI der großen US-Konzerne dürfe die Eigenschaft besitzen oder die Möglichkeit bieten, Dinge zu tun, die der öffentlichen Sicherheit widersprechen. In der Tat ist es heute schon so: Wer ChatGPT fragt, wie sich eine Biobombe bauen lässt, erfährt eine Abfuhr. Gut möglich aber, dass Fragen, die eher wissenschaftlicher und theoretischer Natur sind, von der KI beantwortet werden.

Das müssen die KI-Anbieter künftiger verhindern und unterbinden. In Zukunft müssen die Unternehmen, die KI entwickeln, der Regierung Ergebnisse von durch Behörden konzipierten Tests vorlegen, bevor eine Genehmigung erfolgt. Wie ein TÜV fürs Auto – nur komplizierter.

Eine Stärke von KI ist die Analyse großer Datenmengen

Eine Stärke von KI ist die Analyse großer Datenmengen

Chancen und Risiken von KI

Geht es denn gar nicht auch um die Chancen – und wie man sie hebt?

Doch: Im Dekret des Weißen Hauses steht ausdrücklich, dass KI-Forschung unter diesen neuen Regeln vorangetrieben werden müsse. Auch müssten Fachkräfte aus dem Ausland angeworben werden. Ein klares Signal aus Washington, dass man in den USA nicht vorhat, die Vorreiterrolle aufzugeben – im Gegenteil. Aber auch auf dem KI-Gipfel wurde über die Entwicklung gesprochen.

Es ging dabei vor allem um sogenannte „frontier models“, was sich mit „Vorreitermodelle“ übersetzen lässt. Die beteiligten Regierungen versprechen sich unter anderem Kooperation in der Erforschung dieser Modelle.

Es soll also nicht jeder sein eigenes Süppchen kochen. Frank Hutter, Professor für „Machine Learning“ an der Universität Freiburg, sagt, dass Warnungen vor Horror-Szenarien „vielleicht sogar zu viel Gehör finden“. Es komme jetzt darauf an, Geld in die Forschung zu investieren und Unternehmen zu fördern, die an sicherer und offener KI arbeiten, vor allem in Deutschland und Europa.

Wahre Worte. Denn wir wollen eins sicher nicht: In Sachen KI völlig von den USA abhängig sein. Es gibt aber eine Menge aufzuholen.

 

Schieb App