CEO of OpenAI: KI wie GPT könnte der Welt großen Schaden zufügen

Die Technologie der künstlichen Intelligenz (KI) könnte der Welt “erheblichen Schaden zufügen”, sagte der CEO von OpenAI, Sam Altman, gegenüber Politikern in den Vereinigten Staaten.
In einer Rede vor dem US-Kongress sagte Altman, die Idee einer staatlichen Regulierung von KI sei angesichts der potenziellen Risiken für die Gesellschaft “ziemlich klug”.

altman
Sam Altman, chief executive officer and co-founder of OpenAI, during a Senate Judiciary Subcommittee hearing in Washington, DC, US, on Tuesday, May 16, 2023. Congress

Der CEO von AI sagte vor dem Senatsausschuss, dass der Einsatz von künstlicher Intelligenz zur Beeinträchtigung der Integrität von Wahlen “sehr besorgniserregend” sei, und fügte hinzu, dass er reguliert werden müsse. “Ich bin beunruhigt”, sagte CEO Sam Altman über kommende Wahlen und die Entwicklung der KI im Allgemeinen und fügte hinzu, dass Regeln und Richtlinien erforderlich seien.

“My worst fears are that we, the field the technology the industry, cause significant harm to the world.”

“Meine schlimmsten Befürchtungen sind, dass wir – die AI technologie – der Welt erheblichen Schaden zufügen. Ich denke, das kann auf viele verschiedene Arten geschehen”, sagte Altman. Er ging nicht näher darauf ein, aber die Warnungen der Kritiker reichen von der Verbreitung von Fehlinformationen und Vorurteilen bis hin zur völligen Zerstörung biologischen Lebens. “Ich denke, wenn diese Technologie schief geht, kann sie sehr schief gehen, und wir wollen das deutlich machen”, so Altman weiter. “Wir wollen mit der Regierung zusammenarbeiten, um dies zu verhindern.”Er schlug die Einrichtung einer US-amerikanischen oder globalen Behörde vor, die die leistungsfähigsten KI-Systeme lizenzieren und die Befugnis haben sollte, “diese Lizenz zu entziehen und die Einhaltung der Sicherheitsstandards zu gewährleisten”.

Neben Altman sagten zwei weitere KI-Experten vor dem Ausschuss aus: Gary Marcus, Professor für Psychologie und Neuralwissenschaften an der New York University, und Christina Montgomery, IBM Chief Privacy & Trust Officer. Die drei Zeugen sprachen sich für eine Steuerung der KI sowohl auf Bundes- als auch auf globaler Ebene aus, allerdings mit leicht unterschiedlichen Ansätzen.
“Wir haben Maschinen gebaut, die wie Stiere im Porzellanladen sind: Leistungsstark, rücksichtslos und schwer zu kontrollieren”, sagte Marcus. Um dem entgegenzuwirken, schlug er das Modell einer Aufsichtsbehörde wie der Food and Drug Administration vor, so dass die Entwickler die Sicherheit ihrer KI nachweisen und zeigen müssten, warum die Vorteile mögliche Schäden überwiegen.

Als Senator Josh Hawley (R., Mo.) Forschungsergebnisse zitierte, die zeigen, dass Large Language Models (LLMs) wie ChatGPT Informationen aus den sozialen Medien nutzen können, um die öffentliche Meinung genau vorherzusagen, fragte er Altman, ob böswillige Akteure diese Technologie nutzen könnten, um Antworten zu verfeinern (to fine tune responses, d.h. kleine Anpassungen vornehmen, um ein gewünschtes Ergebnis zu erzielen)und Menschen zu manipulieren, damit sie ihre Meinung zu einem bestimmten Thema ändern. Altman sagte, dass diese Möglichkeit, die er als ““one-on-one interactive disinformation,” bezeichnete, eine seiner größten Sorgen sei und dass eine Regulierung zu diesem Thema “sehr klug” wäre.

Altman stellte einen allgemeinen Drei-Punkte-Plan vor, wie der Kongress KI-Entwickler regulieren könnte.
Erstens sprach er sich für die Einrichtung einer Bundesbehörde aus, die Lizenzen für die Erstellung von KI-Modellen ab einer bestimmten Fähigkeitsschwelle erteilen und diese Lizenzen auch widerrufen kann, wenn die Modelle die von der Regierung festgelegten Sicherheitsrichtlinien nicht erfüllen.
Die Idee war für die Gesetzgeber nicht neu. Mindestens vier Senatoren, sowohl Demokraten als auch Republikaner, haben in ihren Fragen die Idee der Schaffung einer neuen Aufsichtsbehörde angesprochen oder unterstützt.
Zweitens sagte Altman, die Regierung solle Sicherheitsstandards für leistungsstarke KI-Modelle schaffen (z. B. ein Verbot der Selbstreplikation eines Modells) und spezifische Funktionstests einführen, die die Modelle bestehen müssen, wie z. B. die Überprüfung der Fähigkeit des Modells, korrekte Informationen zu produzieren, oder sicherzustellen, dass es keine gefährlichen Inhalte erzeugt.
Und drittens forderte er die Gesetzgeber auf, unabhängige Prüfungen von Experten zu verlangen, die nicht mit den Entwicklern oder der Regierung verbunden sind, um sicherzustellen, dass die KI-Tools innerhalb der gesetzlichen Richtlinien arbeiten.
Diese Anhörung war weniger kämpferisch als viele andere hochkarätige Auseinandersetzungen zwischen Gesetzgebern und Tech-Führungskräften. Das lag vor allem daran, dass die Zeugen die Gefahren des ungehinderten Wachstums und der Nutzung eines Tools wie der fortgeschrittenen KI, z. B. des Chatbots ChatGPT von OpenAI, anerkannten und kaum andere Ansichten geäußert wurden. Die Senatoren haben alleerdings einige der heikleren Fragen, die von Experten oft aufgeworfen worden sind, nicht gestellt, z. B. warum OpenAI sich entschlossen hat, seine KI der Öffentlichkeit zugänglich zu machen, bevor das System auf Sicherheitsrisiken getestet wurde, und überhaupt wie, nach welchen Kriterien und Zielsetzungen OpenAI seine aktuelle Version von GPT-4 im Besonderen entwickelt hat.

Die Besorgnis über die KI veranlasste Hunderte der größten Namen der Tech-Branche, darunter Elon Musk, im März einen offenen Brief zu unterzeichnen, in dem sie die KI-Labors aufforderten, das Training superstarker Systeme wegen der Risiken, die sie für “die Gesellschaft und die Menschheit” darstellen, für sechs Monate zu unterbrechen. Und Anfang dieses Monats kündigte Geoffry Hinton, der als “Pate” der KI bezeichnet wurde, seinen Posten bei Google, indem er sagte, er bedauere seine Arbeit und warnte vor den Gefahren der Technologie.

Fazit
Jetzt, nachdem das AI Sprachmodell bereits mllionenfach verbreitet ist und immer noch viral geht, kommt der Schritt in die Öffentlichkeit angesichts der Dringlichkeit der notwendigen Regularien zur Gefahrenabwehr viel zu spät. Politische Regularien sind ganz sicher notwendig, um zumindest den gefährlichsten Missbrauch ansatzweise zu verhindern. Jedoch läßt sich die Entwicklung nicht mehr auf Null stellen, zumal bereits andere global Player wie Google und Microsoft mit ihren AI Systemen ähnlich ungebremst auf den Markt drängen. Auch die immer wieder von den Entwicklern beschworene Selbstregulierung der Systeme mittels interner Kontrollmechanismen wird nur bedingt wirken. Die Komplexität dieser Modelle mit ihren systemimanenten Freiheitsgraden lassen eine wirksame Kontrolle nicht zu, es wird immer Möglichkeiten geben, generative Sprachmodelle missbräuchlich zu verwenden. Es bleibt der Appell an den User, noch mehr als bisher, allen von der IT-Welt angebotenen “Fakten” aüßerst kritisch zu begegnen und Strategien zu entwickeln Fake von Fakt zu unterscheiden. Zugegeben, eine gewaltige Herausforderung.

Thanks to Aadit Sheth for tweeting this information , NYT, Time Magazine, BBC.

Bernd Riebe, 19 Mai, 2023

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*

Kommentare werden durch den WP-SpamShield Spam Blocker geschützt