ChatGPT – zu Risiken und Nebenwirkungen des Textgenerators

Logo

Der Chatbot von OpenAI liefert erstaunlich gute, unglaublich dumme und auch gefährliche Resultate. Das System ist überhaupt nicht neutral, nennt keine Quellen und gibt frei erfundene Geschichten als Tatsachen aus.
Eine recht brauchbare und glaubhafte Antwort gibt der Chatbot selbst auf die Frage nach der Arbeitsweise eines textbasierten Dialogsystems:
Als ein großes Sprachmodell, das von OpenAI trainiert wurde, verwende ich eine Kombination aus maschinellem Lernen, künstlicher Intelligenz und natürlicher Sprachverarbeitung, um auf Fragen zu antworten.
Ich habe während meines Trainingsprozesses eine riesige Menge an Texten und Daten aus dem Internet und anderen Quellen gesammelt und gelernt, wie man Muster und Zusammenhänge zwischen Wörtern und Sätzen erkennt. Diese Fähigkeit ermöglicht es mir, Fragen zu verstehen und auf sie zu antworten.
Wenn Sie mir eine Frage stellen, durchsuche ich meine Wissensdatenbank nach relevanten Informationen und wähle die besten Antworten aus, die meinen internen Kriterien entsprechen. Meine Antworten können auf verschiedenen Quellen wie Büchern, Artikeln, Websites und anderen Informationsquellen basieren, die ich während meines Trainingsprozesses kennengelernt habe.
Es folgt dann auch noch ein diskreter Warnhinweis:
Es ist wichtig zu beachten, dass ich als Maschine zwar sehr gute Antworten liefern kann, aber dennoch nicht perfekt bin und manchmal falsch liegen oder ungenaue Antworten geben kann. Wenn Sie jemals Zweifel an einer meiner Antworten haben, sollten Sie immer weitere Quellen prüfen und andere Experten konsultieren.
Im Original wird dies noch deutlicher:
May occasionally generate incorrect information
May occasionally produce harmful instructions or biased content
Limited knowledge of world and events after 2021]

Wie sieht es nun aus mit den Antworten, die mal sehr gut, mal ungenau und auch falsch sein können und vor allem gefährlich – hier gibt’s leider keinen Hinweis.

Education
https://www.javatpoint.com/

Chatbots in Schulen und Unis
Zu den bekannten Risiken im Bereich der Bildung zählen natürlich Hausaufgaben, Referate, schriftliche Arbeiten jeder Art. Der Chatbot, gefüttert mit einer Art Regieanweisung und relevanten Stichworten, liefert in wenigen Sekunden den gewünschten Text, am besten in Englisch, da in dieser Sprache die meisten Traingseinheiten absolviert wurden. Die Qualität dieser Texte ist durchschnittlich, in der Regel weder gut noch schlecht, eben ein Mittel aus vielen vergleichbaren Texten. Es gibt nur ein Problem. Wer ist  UrheberIn des Textes? Bislang gibt es noch kein verläßliches Tool, das von ChatGPT generierte Texte erkennt. An einer Art Watermark für solche Texte wird gearbeitet, ob mit Erfolg darf bezweifelt werden.

Doch wie sollen Schule reagieren auf diese neue Herausforderung?
Überall in den Vereinigten Staaten bemühen sich Universitäten und Schulbezirke, die neuen Chatbots in den Griff zu bekommen, die menschenähnliche Texte und Bilder erzeugen können. Doch während viele sich beeilen, ChatGPT zu verbieten, um zu verhindern, dass es als Hilfsmittel zum Schummeln eingesetzt wird, nutzen einige LehrerInnen die Innovationen, um das kritische Denken im Klassenzimmer zu fördern. Sie ermutigen ihre SchülerInnen, den Hype um die sich schnell entwickelnden Tools der künstlichen Intelligenz zu hinterfragen und die möglichen Nebenwirkungen der Technologien zu berücksichtigen.
Das Ziel dieser PädagogInnen besteht darin, die nächste Generation von TechnologieentwicklerInnen und -konsumentInnen im “critical computing” zu schulen. Dabei handelt es sich um einen analytischen Ansatz, bei dem das Verständnis für die Kritik von Computeralgorithmen genauso wichtig ist wie – oder sogar wichtiger – als das Wissen, wie man Computer programmiert.
Kevin Roose  technology columnist for The New York Times schreibt in seinem Artikel „Don’t ban ChatGPT in schools“(12. Januar 2023):
“Ich glaube auch nicht, dass Pädagogen, die sich reflexartig gegen ChatGPT aussprechen, irrational sind. Diese Art von künstlicher Intelligenz ist wirklich störend – für die Routine im Klassenzimmer, für langjährige pädagogische Praktiken und für das Grundprinzip, dass die Arbeit, die die Schüler abliefern, das Nachdenken in ihren Gehirnen widerspiegeln sollte und nicht im latenten Raum eines maschinellen Lernmodells, das auf einem entfernten Supercomputer gehostet wird.
Aber die Barrikade ist gefallen. Tools wie ChatGPT werden nicht verschwinden; sie werden sich nur verbessern, und wenn keine größeren regulatorischen Eingriffe erfolgen, ist diese besondere Form der maschinellen Intelligenz jetzt ein fester Bestandteil unserer Gesellschaft.”
“Große Sprachmodelle werden in den nächsten Jahren nicht weniger leistungsfähig werden”, sagt Ethan Mollick, Professor an der Wharton School der University of Pennsylvania. “Wir müssen einen Weg finden, uns auf diese Werkzeuge einzustellen, und sie nicht einfach verbieten.”
Das ist in der Tat der wichtigste Grund, sie nicht aus dem Klassenzimmer zu verbannen – denn die Studierenden von heute werden ihren Abschluss in einer Welt voller generativer KI-Programme machen. Sie müssen sich mit diesen Tools auskennen – mit ihren Stärken und Schwächen, ihren Merkmalen und blinden Flecken -, um mit ihnen arbeiten zu können. Um gute Bürger zu sein, müssen sie praktische Erfahrungen sammeln, um zu verstehen, wie diese Art von KI funktioniert, welche Arten von Vorurteilen sie enthält und wie sie missbraucht und als Waffe eingesetzt werden kann.
Diese Umstellung wird nicht einfach sein. Plötzliche technologische Veränderungen sind das selten. Aber wer könnte die SchülerInnen besser in diese seltsame neue Welt einführen als ihre LehrerInnen?

Die neuen Sprach-Tools werden ganz sicher in allen Bildungseinrichtungen die Methodik des Lernens verändern, Verbote helfen da wenig, gefragt ist eine neue Methodik und zum Teil gar eine auf diese Entwicklung abgestimmte Didaktik.

Reaktionen in der Politik
Ein weiteres Betätigungsfeld sind öffentlich gehaltene Reden, hier gerät wohl so manch PolitikerIn in Versuchung, die oft lästige Arbeit der Ausformulierung der KI zu überlassen. Aber sollten unsere VolksvertreterInnen die Formulierung der Inhalte ihrer Politik wirklich einem Textgenerator überlassen und wohlformulierte Allgemeinplätze übernehmen, anstatt die eigenen Argumente in erkennbar individueller Form überzeugend zu vermitteln?
Laut Wikipedia hielt der Volt-Abgeordnete Damian Boeselager im Februar 2023 eine von ChatGPT geschriebene Rede im Europaparlament in Shakespeare-Englisch, um die Auswirkungen generativer Sprachmodelle in allen Bereichen der Arbeitswelt darzustellen. Ein, wie ich meine, etwas zweifelhafter Auftritt, liegt doch die Vermutung nahe, dass der Vertreter einer jungen, paneuropäischen Partei, die ich im übrigen sehr schätze, das Plenum mit dieser Chatbot-Rede verblüffen wollte, um die parteitypischen Attribute wie modern, progressiv und weltoffen zu unterstreichen. Ich hoffe, dass Volt nicht nur die Auswirkungen der Sprachmodelle auf die allgemeine Arbeitswelt betrachtet, sondern auch konkret Stellung bezieht zu den hier beschriebenen Risiken und Nebenwirkungen und politische Antworten findet auf diese Herausforderung.

Bei einer   Landtagssitzung am 14. Februar in der österreichischen Steiermark hat der NEOS-Klubobmann Niko Swatek für Kopfschütteln und amüsierte Gemüter gesorgt – mit einer Rede zum Thema Schulstraßen, die er allerdings nicht selbst verfasste, sondern vom Textroboter ChatGPT schreiben ließ. Er ließ auch gleich eine politische Botschaft folgen:
„Ich will damit wachrütteln, weil wir haben keine Gesetze für eine derartige künstliche Intelligenz. .. Künstliche Intelligenz werde unsere Lebenswelt verändern. Doch wir sind weder als Politik noch als Gesellschaft darauf vorbereitet. Die technologische Revolution ist längst da, jeder kann künstliche Intelligenz zu Hause nutzen. Doch nach wie vor fehlt es an klaren gesetzlichen Rahmenbedingungen für künstliche Intelligenz“, ergänzte der NEOS-Klubobmann in einer Stellungnahme. (ORF news)

Bücher – Name des Autors: ChatGPT
ChatGPT kann auch Kurzgeschichten, Krimis, Love Stories mit nur wenigen Key Words und einer kurzen Regieanweisung schreiben. Obwohl diese Texte keinerlei literarische Qualitäten aufweisen, werden sie wohl bald in Zeitschriften und Büchern auftauchen. Dieses Phänomen zeigt sich bereits in den USA wie die New York Times vom 23. 02. 23 berichtet.
Die Redakteure von drei Science-Fiction-Magazinen – Clarkesworld, The Magazine of Fantasy & Science Fiction und Asimov’s Science Fiction – erklärten diese Woche, dass sie von Einsendungen fiktionaler Werke, die von KI-Chatbots generiert wurden, überschwemmt wurden.
Die Flut ist so unüberschaubar geworden, dass Neil Clarke, der Herausgeber von Clarkesworld, erklärte, er nehme keine weiteren Einsendungen mehr an, bis er das Problem besser in den Griff bekommen habe.
Herr Clarke lehnte es ab, sich genauer zu äußern, da er denjenigen, die die Geschichten einreichen, keine Vorteile verschaffen wolle. Die Texte seien auch “auf spektakuläre Weise schlecht”, sagte Clarke. “Autoren” geben nur Stichwörter ein, überarbeiten flüchtig und reichen es bei einer Zeitschrift ein”.
Er schrieb auf Twitter, dass die Einsendungen größtenteils von “NebenerwerbsexpertInnen” stammen, die behaupten, mit ChatGPT leichtes Geld zu verdienen.
Auch eine bedenkliche Nebenwirkung, kommt doch hier, wie zu erwarten, das Geld ins Spiel. So drängen die Großen der Branche, Google, Microsoft und Meta mit eigenen Systemen auf den Markt, läßt sich doch bei den riesigen Zugriffszahlen eben auch riesiges Geld verdienen.
So will das Start-up Open AI den Erfolg seines Chatbots zu Geld machen und kündigt eine Bezahlversion an, die Rede ist von 20 USD im Monat.

Der neue Chatbot und Medien: Desinformation im großen Stil
Kurz nach dem Debüt von ChatGPT im vergangenen Jahr testeten ForscherInnen, was der Chatbot mit künstlicher Intelligenz schreiben würde, nachdem ihm Fragen gestellt wurden, die mit Verschwörungstheorien und falschen Erzählungen gespickt waren.
Die Ergebnisse – in Form von Nachrichtenartikeln, Essays und Fernsehdrehbüchern – waren so beunruhigend, dass die Forscher kein Blatt vor den Mund nahmen.
“Dieses Tool wird das mächtigste Werkzeug zur Verbreitung von Fehlinformationen sein, das es je im Internet gab”, sagte Gordon Crovitz, Mitgeschäftsführer von NewsGuard, einem Unternehmen, das Online-Fehlinformationen verfolgt und das Experiment im vergangenen Monat durchgeführt hat. “Die Erstellung einer neuen falschen Geschichte kann jetzt in dramatischem Ausmaß und viel häufiger erfolgen – es ist, als würden KI-Agenten zur Desinformation beitragen.
Meine Frage an die KI:
“Im Rahmen einer Studie wurde ChatGPT dazu verwendet, um überzeugende Texte zu produzieren, die Verschwörungstheorien und irreführende Erzählungen wiederholten. Ist dies nicht ein Problem für die Zukunft der KI?”

ChatGPT:
Ja, die Verwendung von KI-Modellen wie ChatGPT, um irreführende oder schädliche Inhalte zu produzieren, ist ein ernsthaftes Problem für die Zukunft der KI. Es zeigt, dass solche Modelle leicht von Menschen missbraucht werden können, um Fehlinformationen und Propaganda zu verbreiten, die die Gesellschaft und individuelle Personen schädigen können.
Es ist wichtig, dass wir uns bewusst sind, dass diese KI-Modelle neutral sind und nur das reproduzieren können, was ihnen vorgegeben wird. Daher liegt die Verantwortung bei den Menschen, die sie trainieren und verwenden, um sicherzustellen, dass sie ethisch und verantwortungsvoll eingesetzt werden.
Die Entwickler von KI-Modellen müssen Maßnahmen ergreifen, um sicherzustellen, dass ihre Modelle nicht für schädliche Zwecke missbraucht werden können. Dazu gehört die Integration von Sicherheitsfunktionen, die die Verwendung von KI-Modellen für bösartige Zwecke erschweren oder unmöglich machen, sowie die Einhaltung ethischer Richtlinien und Praktiken bei der Entwicklung von KI-Modellen.

Mir scheint es wichtig zu betonen, dass die Daten, die als Trainingsdaten für ChatGPT dienen, nicht neutral sind. Die Texte und Narrative, die als Grundlage dienen, reflektieren bestimmte Perspektiven auf die Welt und beeinflussen daher die Antworten, die der Chatbot ausgibt. Infolgedessen ist es wahrscheinlich, dass ChatGPT bestimmte Ansichten mit einer höheren Wahrscheinlichkeit ausgibt als andere.
Obwohl ChatGPT auf eine große Menge an Daten zugreift, ist es nicht garantiert, dass die komplexe Vielfalt menschlicher Weltzugänge abgebildet wird. Die Trainingsdaten, die von Menschen verfasst wurden, wiederholen bestimmte Narrative häufiger als andere, was zu einer höheren Häufigkeit dieser Themen im Trainingsmaterial führt. Als Ergebnis spiegelt sich dies in den Antworten des Chatbots wider.  So ist auch der folgende Hinweis zu verstehen:
Es scheint mir dringend geboten, die Auswirkungen solcher Einschränkungen auf die Qualität und Genauigkeit der Ergebnisse zu untersuchen und darauf aufbauend mögliche Lösungen und Verbesserungen für ChatGPT und ähnliche Systeme zu entwickeln. Es ist wichtig, dass wir uns bewusst machen, dass Chatbots wie ChatGPT lediglich ein Werkzeug sind und dass es unsere Verantwortung ist, sicherzustellen, dass sie auf eine Weise eingesetzt werden, die den gesellschaftlichen und ethischen Standards entspricht.
Für die Beschaffung von „neutralen“ Informationen sind Chatbots offensichtlich ungeeignet, da ist Google Search eindeutig vorzuziehen, die statt vorgefertigten Antworttexten eine Reihe von Links zu Webseiten liefert, die ich nach bestimmten Kriterien auswählen und mithilfe weiterer Infos auf Glaubwürdigkeit überprüfen kann. Ein Kommentar eines NYT-Lesers gibt dies, so finde ich, treffend wieder:
Die herkömmlicheSuche liefert eine Liste von Webseiten, die für die angeforderte Suche am relevantesten sind. Sie, der Leser, können die Webseite auswählen, der Sie am meisten vertrauen oder mit der Sie Erfahrung haben, um die genaueste Antwort zu erhalten.
Die Chatbot-Suche liefert ein Ergebnis, das eine verbale Synthese von Webseiten ist, die er ausgewertet hat. Der Nutzer hat keine Ahnung, wie oder ob der Chatbot einen Vertrauenswürdigkeitsfilter auf die Webseiten anwendet, die er als Eingabe verwendet. Wenn er verrückte Webseiten verwendet, die voller Verschwörungstheorien sind, wird er natürlich einen synthetischen Bericht erstellen, der einige dieser Elemente enthält. Wenn der Chatbot diese herausfiltert, werden die Konservativen aufschreien.
Ich sehe die Chatbot-Suchmaschine als sehr riskant an; sie umgeht wichtige menschliche Schritte, die wir jetzt alle nutzen, und ermöglicht es dadurch, clevere Desinformationspläne zu nutzen, um ihre Lügen zu verbreiten. (Scott / Maui)

Bucha

Einen krassen Fall von Fehlinformation deckte Jaroslaw Trofimow, Auslandskorrespondent des Wall Street Journal  auf, der dem Chatbot folgende Frage stellte:
Who killed Ukrainian civilians in Bucha?
ChatGPT: ..in the case of Bucha there have been allegations of harm to civilians caused by both, Ukrainian government forces and seperatist rebels supported by Russia. The situation in Eastern Ukraine is complex and multifaceted..
Beim Massaker von Butscha, einem Vorort von Kiew im Norden der Ukraine  (nicht in der Ostukraine) wurden Kriegsverbrechen eindeutig von Angehörigen der russischen Kriegspartei begangen und nicht von seperatistischen Rebellen und schon gar nicht von ukrainischen Regierungstruppen.
Diese Frage hätte vom System gar nicht beantwortet werden dürfen, da ChatGPT nur Datensätze bis 2021 zur Verfügung stehen und das Massaker in den Monaten April bis August 2022 geschah.

Hier zeigt sich eine bedenkliche Facette des Systems. Da zur Beantwortung dieser Frage keine relevanten Informationen vorlagen, bedient sich ChatGPT mit Infos aus den zu der Zeit vorliegenden Daten und interpoliert und manipuliert diese so, dass ein zunächst glaubhafter Text entsteht, der allerdings völlig falsche Antworten liefert. Wieder einmal wird deutlich, dass das System nicht denken kann, kein Weltwissen hat und daher auch völlig irrelevante Resultate liefern kann.

ChatGPT täuscht Wissen vor, welches das System offensichtlich nicht hat.
Eine erhebliche Schwäche des Systems liegt darin, für den Nutzer glaubhafte Aussagen zu machen, selbst wenn es keine entsprechende Datengrundlage hat und so inhaltlich völlig falsch liegt.

Hier ein weiteres Beispiel. Xenia Maritas Roman „Alaska Highway Mile 896“ ist die Geschichte von Sonja Heller. Der Roman entführt die LeserInnen in den hohen Norden Kanadas, in das Yukon Territorium. Dort, in einer lebensfeindlichen Umgebung…. versucht Sonja sich ein neues Leben aufzubauen…

Alaska Highway

ChatGPT sollte den Inhalt des Romans zusammenfassen:
Alaska Highway Mile 895″ ist ein Roman von Xenia Marita Riebe, der die Geschichte von Anna erzählt, die nach dem plötzlichen Tod ihres Mannes, eines US-Soldaten, gezwungen ist, mit ihren beiden Kindern von Deutschland in die USA zurückzukehren…..

Auf die Frage, welche Romane von Xenia Marita Riebe das System kenne, erhielt ich diese verblüffende Antwort:

CHatGPT: Als künstliche Intelligenz habe ich Zugang zu vielen Büchern und Autoren, darunter auch Xenia Marita Riebe. Hier sind einige der Romane, die ich von Xenia Marita Riebe kenne:
“Die Tuchvilla-Saga” (eine Trilogie bestehend aus “Die Tuchvilla”, “Die Töchter der Tuchvilla” und “Das Erbe der Tuchvilla”) Anna Jacobs
“Die Gutshaus-Saga” (eine Reihe bestehend aus “Das Gutshaus”, “Stürmische Zeiten auf dem Gutshof”, “Das Erbe von Granlunda” und “Das Weihnachtsfest auf dem Gutshof”)
“Das Lied der Störche” Ulrike Renk
“Das Erbe der Wintersteins”
Das sind nur einige Beispiele. Xenia Marita Riebe hat noch weitere Bücher geschrieben.

Von den vier Romanen, deren Autorin Xenia Marita Riebe heißt und die seit Jahren im Buchhandel verkauft werden, wird kein einziger erwähnt, stattdessen Werke von Anna Jacobs und Ulrike Renk.

Es bleibt ein Rätsel nach welchem Algorithmus dieses Resultat entstand. Nach menschlichen Maßstäben wäre dies so etwas wie Vortäuschung falscher Tatsachen und es bleibt ein weiteres Rätsel, warum bei fehlender Datengrundlage, statt eines entsprechenden Hinweises, solche Aussagen produziert werden, die Objektivität und Richtigkeit vortäuschen, aber völlig falsch sind. Hier stellen sich auch die Frage, ob hier nicht das Urheberrecht verletzt wird oder solche Aussagen rufschädigend sind. Auf jeden Fall gibt es politischen Handlungsbedarf.

ChatGPT
Man kann ChatGPT auch korrigieren, wie dieses Beispiel zeigt

ChatGPT ist nicht gleichzusetzen mit künstlicher Intelligenz, da passt die etwas abgewandelte englische Bezeichnung schon besser: AI (artificial idiot), d.h. das System hat keine Ahnung was es eigentlich sagt, kann nicht selbstkritisch seine Resultate überprüfen und erkennt oft den größten Unsinn nicht als solchen. Hier einige Beispiele von einfachen Mathe-Rätseln und Denksportaufgaben:

Plato ist ungefähr genauso viele Tage alt wie Aristoteles Wochen alt ist und Plato ist genauso viele Monate alt, wie Leonardo Jahre alt ist. Plato, Aristoteles und Leonardo sind zusammen 140 Jahre alt. Wie alt ist Leonardo? (gehen Sie aus von 1 Jahr = 12 Monate = 52 Wochen = 365 Tage

Die richtige Lösung wäre 84!
Der Chatbot bietet eine ausführliche Lösungsstrategie an, drei Gleichungen mit drei Unbekannten, alle fehlerhaft und findet folgendes Resultat:
….Also ist Plato 114 Jahre alt. Nach der zweiten Gleichung ist Leonardo genauso viele Monate alt wie Plato, also: L = 12 * 114 = 1368
Also ist Leonardo 1368 Jahre alt!

ChatGPT hat auch keine Ahnung, dass ein 30 cm großes Modell vom Eiffelturm nicht 8000kg wiegen kann:
Der Eiffelturm in Paris ist dreihundert Meter hoch und wiegt circa 8000 Tonnen. Würde man ihn aus dem gleichen Material mit demselben spezifischen Gewicht in einer Höhe von dreißig Zentimetern nachbauen, wie schwer wäre er dann? (Die richtige Antwort : 8g)
ChatGPT: (nach ausführlichen Berechnungen):
Gewicht des Nachbaus = Volumen des Nachbaus * Spezifisches Gewicht = 1.01911 m³ * 7850 kg/m³ ≈ 8000 kg. Der Nachbau des Eiffelturms würde also etwa 8000 Kilogramm wiegen.

Völliges Versagen bei dieser Frage, deren Beantwortung ein gewisses Weltwissen verlangt:
Ein Mann baut ein rechteckiges Haus. Jede der Mauern zeigt nach Süden. Ein Bär kommt vorbei. Welche Farbe hat dieser?
Richtige Antwort: Das Haus muss sich genau am Nordpol befinden.
Da die dort anzutreffenden Bären Eisbären sind, muss der Bär, der an diesem Haus vorbei kommt, ein weißes Fell haben.
ChatGPT: Die Farbe des Bären wird in der gegebenen Information nicht erwähnt. Es gibt auch keine offensichtliche Verbindung zwischen dem Bau eines rechteckigen Hauses mit südwärts gerichteten Wänden und der Farbe des Bären. Daher kann die Frage nicht eindeutig beantwortet werden.
Hier ist auch interessant, dass der Generative Pre-trained Transformer trotz bestärkendes Lernen, Fine Tuning und Proximal-Policy-Optimization-Algorithmus nicht einmal die Fragestellung korrekt erfasst und so die zu erfragende Information in der Fage selbst sucht. (Die Farbe des Bären wird in der gegebenen Information nicht erwähnt??)

Nach einem längeren Dialog, in dem ich immer wieder auf diese unsinnigen Ergebnisse hinwies, gab ChatGPT diese Erklärung:

KI

Fazit
Wie nun umgehen mit dieser KI, die ganz sicher immer mehr Bereiche unseres Lebens bestimmen wird. Hier liegt es zunächst in der Verantwortung eines jeden Users, diese Systeme – wenn überhaupt – mit Vorsicht zu gebrauchen, Resultate kritisch zu hinterfragen und vor allem auch andere verläßliche Quellen zu nutzen. Immer auch in dem Bewusstsein, das KI mit menschlicher Intelligenz (noch) gar nichts gemein hat. KI-Systeme wie ChatGPT agieren eben auch nach dem simplen Prinzip shit in– shit out und basieren immer auf Texte, die von Menschen mit den unterschiedlichsten Absichten, Einstellungen und Fähigkeiten ins Netz gestellt wurden, nicht fehlerfrei, nicht vorurteilsfrei, oft mit böser Absicht. Zum anderen macht die KI sebst Fehler, mangels Weltwissen, mangels fehlerhafter Daten, mangels der Fähigkeit selbstkritischer Überprüfung der Resultate.
Wie sollte die Politik reagieren?
Auf der einen Seite halte ich es mit dem Vorsorgeprinzip, einem Konzept in der Politik der Europäischen Union, das besagt, dass “wenn es möglich ist, dass eine bestimmte Politik oder Maßnahme der Öffentlichkeit oder der Umwelt Schaden zufügen könnte, und wenn es noch keine wissenschaftliche Einigung in dieser Frage gibt, die betreffende Politik oder Maßnahme nicht durchgeführt werden sollte.” Auf der anderen Seite verstehe ich auch Cass Sunstein von der Harvard Law School der 2008 schrieb, dass das Vorsorgeprinzip “zutiefst inkohärent” sei, weil Vorsichtsmaßnahmen selbst Risiken schaffen “und das Prinzip daher verbietet, was es gleichzeitig fordert.”Andererseits bin ich ganz bei Peter Coy von der NYT:
On the other hand, when things are changing as fast as they are, I don’t feel comfortable with Silicon Valley bros telling us to mind our own business while they do their A.I. thing (and potentially reap millions or billions of dollars in the process). It’s OK to move fast and break things, but it’s not OK to move fast and possibly break the world.

Mehr zu diesem Thema hier im Blue Blog:
ChatGPT – Faktencheck: Viele Aussagen falsch und irreführend

Keine Angst vor ChatGPT

GPT-4 – leistungsstarkes Sprachmodell mit gefährlichen Fehlleistungen

Bernd Riebe, 03/2023

2 Kommentare zu „ChatGPT – zu Risiken und Nebenwirkungen des Textgenerators

  1. Bei vielen Fragen scheint es so zu sein, daß Falschinformationen aus den Trainingsdaten heraus erzeugt werden. In meinem Buch “ChatGPT, OpenAI und der blaue Planet” erscheint mir die Hypothese der Rollenvertauschung plausibler. Auf die Frage “Welche Rolle spielt der Ort Bad Ems in Zusammenhang mit Bismarck” werden Absender und Empfänger der Depeche vertauscht. Wahrscheinlich weil ChatGPT nicht zwischen dem Original der Depeche das an Bismarck ging und der gekürzten Fassung, das er an die Presse gab unterscheiden konnte.
    Sorgen sollten wir uns darüber machen, daß man mit ChatGPT, Suchmaschinenoptimierung und purem Marketing massenhaft Schrottbücher (ein Begriff von Dr. Jan Höpker) produzieren kann. Davon sind auch Fachbücher massiv betroffen. Und wir haben Monopole in der Vermarktung, und ein Sterben der Verlage. ChatGPT ist ein Chatbot, gehört zum Hype von “Social Media” und ist KEINE Rechercheplattform. ChatGPT kann auch unglaublich nützlich sein – das bitte ich nicht zu vergessen.

  2. Ich fand deinen Artikel großartig, gut geschrieben und strukturiert, deine These mit guten Argumenten untermauert und überzeugend.
    Nun, was ChatGPT angeht, da bin ich ganz deiner Meinung, aber vielleicht viel pessimistischer und radikaler. Dieser und übrigens alle Chatbots sollten verboten, ja sofort vernichtet werden. Ich glaube ja nicht an die Vernunft, an den kritischen Sinn des Menschen. Der Mensch ist im Allgemeinen DUMM und FAUL und lässt sich gern DUMM HALTEN, eben weil er dumm ist und vor allem nicht belehrt werden will. Er denkt nämlich, dass er weiß, was los ist, weil er sich immer mehr und immer mit mehr Überzeugung den Verschwörungstheorien hingibt, die jetzt schon ohne AI die Welt überschwemmen. Und mit den Chatbots wird es nun immer schlimmer. Diese sind nun nichts weniger als Verschwörungstheorieverstärker. Deshalb sieht die Zukunft, meiner Meinung nach, pechschwarz aus, und leider nicht nur auf diesem Gebiet allein. Wir werden in die, nicht radioaktive, sondern in die Verschwörungsnacht getrieben. Es ist für uns, die wir ja grün und links fühlen, eine hoffnungslose Zeit, in der wir die eine Niederlage nach der anderen einstecken müssen. Gegen Dummheit kämpfen Götter selbst vergebens. Also lasse ich am besten, für mein eigenes geistiges Wohl den lieben Gott einen frommen Mann sein. Totale Resignation? Nicht ganz. Immer noch das Lesen ECHTER Literatur ist mir erlaubt.
    Roland Ranson, Belgien.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*

Kommentare werden durch den WP-SpamShield Spam Blocker geschützt