das Logo der Anwaltskanzlei tww.law

ChatGPT: Zwischen Wissenschaft und Fake News

Chat GPT generiert teilweise falsche Antworten. Aufgrund des Trainings der KI erscheinen diese jedoch plausibel und sind nicht auf den ersten Blick erkennbar.
artificial intelligence, mathematics, fantasy
Bild von Julius H. auf Pixabay

Abonnieren Sie unseren Newsletter.

Ihre Anmeldung konnte nicht gespeichert werden. Bitte versuchen Sie es erneut.
Ihre Anmeldung war erfolgreich.

Inhalt des Beitrags

Als künstliche Intelligenz ist das Textverarbeitungsprogramm ChatGPT in der Lage, wissenschaftliche Aufgaben zu bearbeiten und komplexe Probleme zu verstehen. Wer aber glaubt, er könne die KI bedenkenlos Hausarbeiten oder Zeitungsartikel schreiben lassen, der irrt. Der Chatbot antwortet auf Fragen manchmal mit Fakten, die zwar plausibel klingen, in Wirklichkeit aber frei erfunden sind. Die neuere Version weist nun explizit auf diesen Umstand hin.

Anekdoten zur „Flunkerei“ von ChatGPT

Hier ein paar Beispiele aus unserem Kanzleialltag: Auf die Frage nach aktueller Rechtsprechung zu § 97 UrhG listet die KI Urteile mit Datum, echt aussehendem Aktenzeichen inklusive korrekter Angabe der für Urheberrechtssachen zuständigen 14. Zivilkammer des Landgerichts Köln und einer überzeugenden Zusammenfassung eines juristisch korrekten Urteils auf. Das Problem: Diese Urteile hat es nie gegeben. Ein Hinweis darauf, dass die Antwort von ChatGPT nicht auf realen Urteilen beruht, erfolgt nicht.

Auf die Frage, wo man mit den Kollegen in Bonn gut zu Mittag essen könne, gibt das Textprogramm bereitwillig Restaurantvorschläge inklusive einer kurzen Beschreibung der dort angebotenen Küche aus. Das Gasthaus „Zum goldenen Kopf“ in Bonn war allerdings weder dem Team noch dem Internet bekannt…

Auf die Frage, ob es im schweizerischen Urheberrechtsgesetz wie im deutschen UrhG eine Unterscheidung zwischen Licht- und Lichtbildwerken gebe, erklärt das Programm völlig selbstsicher, dies sei richtig und stehe auch in den Artikeln 2 und 4 des schweizerischen URG – beide Aussagen sind schlicht falsch. Der Chatbot gibt dann auch den Artikel 2 falsch wieder. Zwar wurde das URG im Jahr 2019 umfassend novelliert, aber mit dem Wissensstand von 2021 müsste der KI der korrekte Gesetzestext bekannt sein.

ChatGPT nicht auf Wahrheit trainiert

Falschaussagen der KI sind eine mittlerweile bekannte Schwachstelle der KI und Fachpersonal aus verschiedensten Bereichen hat Schwierigkeiten, Falschaussagen des Chatbots sofort als solche zu erkennen. Woher soll der nur oberflächlich Informierte wissen, ob er sich auf die themenspezifischen Angaben der KI verlassen kann?

Fragt man die KI selbst, woran man erfundene Antworten erkennen kann, antwortet das Programm nur, dass es in der Verantwortung des Lesers liege, die gegebenen Informationen kritisch zu hinterfragen und zu überprüfen. Damit hat das Programm letztlich Recht. ChatGPT erhebt nicht den Anspruch, wissenschaftlicher Experte für irgendein Thema zu sein, sondern ist „nur“ ein Textverarbeitungsprogramm mit dem Ziel, den Dialog mit einem Menschen so gut wie möglich zu imitieren.

  • Im Wesentlichen gibt es zwei Gründe, warum ChatGPT falsche Informationen liefert:
    Die Programmierung bzw. das Training der künstlichen Intelligenz basiert auf einer Vielzahl von Daten, die ihrerseits nicht vollständig auf ihren Wahrheitsgehalt überprüft wurden. Schon allein aufgrund der unglaublich großen Datenmenge ist es nicht möglich, eine 100-prozentige Korrektheit zu erwarten. Falsche Trainingsdaten (Input) führen zwangsläufig zu falschen Antworten (Output).
  • Als Chatbot ist die KI darauf ausgelegt, in jedem Fall eine Antwort zu generieren. Im Gegensatz zu menschlichen Gesprächspartnern ist bloßes Schweigen keine Option. Die KI antwortet also lieber falsch als gar nicht. Kann sie keine richtige Antwort geben, beginnt sie, Textbausteine zu verarbeiten, die einer korrekten Antwort möglichst nahe kommen. Das ist auch der Grund, warum die Antworten so plausibel klingen.

Man kann ChatGPT also nicht vorwerfen, dass es bewusst lügt. Das Problem liegt vielmehr darin, dass die KI zu sehr versucht, ihre Aufgabe zu erfüllen und dem Nutzer um jeden Preis eine Antwort auf seine Frage zu geben. Bisher ist nicht ersichtlich, wie und ob eine andere Programmierung dieses Problem umgehen kann.

ChatGPT für einfache Aufgaben noch brauchbar

Aber macht das das Programm für jegliche wissenschaftliche Arbeit unbrauchbar? Nein. Man sollte sich nur bewusst sein, dass die Darstellung von Fakten fehlerhaft sein kann. Für einfache Zusammenfassungen von vorgegebenen Texten ist das Programm nach wie vor gut geeignet. Auch das Formulieren einzelner Textbausteine, in die wissenschaftliche Fachbegriffe eingearbeitet werden müssen, kann dem Programm leichter fallen als so manchem Benutzer. Sachlich korrekte Aufsätze können durch ChatGPT oft sprachlich und stilistisch verbessert werden. Wichtige Aufgaben, bei denen es auf Präzision und Korrektheit ankommt, sollte man dem Chatbot jedoch nicht anvertrauen. Schon gar nicht, wenn der Nutzer den Wahrheitsgehalt z.B. aufgrund mangelnder eigener Fachkenntnisse nicht ohne weiteres überprüfen kann. Keinesfalls sollte den Angaben der KI blind vertraut werden. Falsche Angaben, z.B. in Werbeaussagen, können weitreichende und unangenehme Folgen haben – sowohl wirtschaftlich als auch strafrechtlich.

Weitere Beiträge

KI Urheber
Themenseite Urheberrecht & KI

Kann KI Urheber sein?

Eine der rechtlichen Fragen im Zusammenhang mit der rasanten Entwicklung der KI ist, ob sie Urheber von Werken sein kann. Argumente dafür und dagegen werden diskutiert.

Weiterlesen »