ChatGPT mit Datenschutzbeschwerde über diffamierende Halluzinationen konfrontiert

OpenAI sieht sich in Europa erneut mit einer Datenschutzbeschwerde konfrontiert, da der virale KI-Chatbot dazu neigt, falsche Informationen zu halluzinieren - und diese könnte sich als schwierig erweisen, die Regulierungsbehörden zu ignorieren.

Die Datenschutzorganisation Noyb unterstützt eine Person in Norwegen, die entsetzt war, als ChatGPT erfundene Informationen zurückgab, die behaupteten, er sei wegen Ermordung seiner beiden Kinder verurteilt worden und versucht habe, das dritte zu töten.

Frühere Datenschutzbeschwerden über ChatGPT, die falsche persönliche Daten generiert hat, betrafen Probleme wie ein falsches Geburtsdatum oder falsche biografische Details. Ein Anliegen ist, dass OpenAI keinen Weg anbietet, wie Einzelpersonen falsche Informationen korrigieren können, die die KI über sie generiert. Typischerweise hat OpenAI angeboten, Antworten auf solche Eingaben zu blockieren. Aber gemäß der Datenschutz-Grundverordnung der Europäischen Union (DSGVO) haben Europäer eine Reihe von Datenzugriffsrechten, die das Recht auf Berichtigung personenbezogener Daten beinhalten.

Ein weiterer Bestandteil dieses Datenschutzgesetzes erfordert, dass Datenkontrolleure sicherstellen, dass die personenbezogenen Daten, die sie über Einzelpersonen produzieren, korrekt sind - und das ist eine Sorge, die Noyb mit seiner neuesten Beschwerde gegen ChatGPT aufgreift.

„Die DSGVO ist klar. Personenbezogene Daten müssen korrekt sein“, sagte Joakim Söderberg, Datenschutzanwalt bei Noyb, in einer Erklärung. „Wenn sie es nicht sind, haben Benutzer das Recht, sie so zu ändern, dass sie der Wahrheit entsprechen. ChatGPT-Nutzern einfach einen winzigen Haftungsausschluss anzuzeigen, dass der Chatbot Fehler machen kann, reicht offensichtlich nicht aus. Man kann nicht einfach falsche Informationen verbreiten und am Ende einen kleinen Haftungsausschluss hinzufügen, der besagt, dass alles, was man gesagt hat, möglicherweise nicht wahr ist.“

Bestätigte Verstöße gegen die DSGVO können zu Bußgeldern von bis zu 4% des weltweiten Jahresumsatzes führen.

Die Durchsetzung könnte auch Änderungen an KI-Produkten erzwingen. Insbesondere führte ein früheres Eingreifen der Datenschutzaufsichtsbehörde Italiens, das im Frühjahr 2023 vorübergehend zu einer Sperrung des Zugangs von ChatGPT im Land führte, dazu, dass OpenAI Änderungen an den Informationen vornahm, die es seinen Nutzern zur Verfügung stellt. Die Aufsichtsbehörde verhängte anschließend eine Geldstrafe in Höhe von 15 Millionen Euro gegen OpenAI, weil sie personenbezogene Daten ohne eine ordnungsgemäße rechtliche Grundlage verarbeitet hatte.

Seitdem haben die Datenschutzaufsichtsbehörden in ganz Europa einen vorsichtigeren Ansatz gegenüber GenAI angenommen, während sie versuchen herauszufinden, wie das GDPR auf diese populären KI-Tools angewendet werden kann.

Vor zwei Jahren riet die irische Datenschutzkommission (DPC) - die eine führende Rolle bei der Durchsetzung der DSGVO in einem früheren Noyb-Beschwerde gegen ChatGPT hat - beispielsweise davon ab, sich bei der Verbannung von GenAI-Tools zu beeilen. Dies legt nahe, dass die Regulierungsbehörden sich Zeit nehmen sollten, um herauszufinden, wie das Gesetz anzuwenden ist.

Es ist auch erwähnenswert, dass eine Datenschutzbeschwerde gegen ChatGPT, die seit September 2023 von der Datenschutzaufsicht Polens untersucht wird, bisher noch keine Entscheidung hervorgebracht hat.

Die neue Beschwerde von Noyb gegen ChatGPT scheint darauf abzuzielen, die Datenschutzbehörden auf die Gefahren von halluzinierenden KIs aufmerksam zu machen.

„Der Fall schockierte die örtliche Gemeinschaft ... “

Die gemeinnützige Organisation teilte TechCrunch den (unten stehenden) Screenshot mit, der eine Interaktion mit ChatGPT zeigt, bei der die KI auf eine Frage antwortet, wer „Arve Hjalmar Holmen“ sei - der Name der Person, die die Beschwerde einreicht - indem sie eine tragische Fiktion produziert, die fälschlicherweise behauptet, er sei wegen Kindesmord verurteilt worden und zu 21 Jahren Gefängnis verurteilt wurde, weil er zwei seiner eigenen Söhne getötet hat.

Obwohl die diffamierende Behauptung, dass Hjalmar Holmen ein Kindermörder sei, völlig falsch ist, stellt Noyb fest, dass die Antwort von ChatGPT einige Wahrheiten enthält, da die betroffene Person wirklich drei Kinder hat. Der Chatbot hat auch die Geschlechter seiner Kinder korrekt wiedergegeben. Und seine Heimatstadt ist korrekt benannt. Aber gerade deshalb ist es umso bizarrer und beunruhigender, dass die KI solche grausamen Unwahrheiten produziert hat.

Ein Sprecher von Noyb sagte, sie hätten nicht feststellen können, warum der Chatbot eine so spezifische, aber falsche Geschichte für diese Person produziert hat. „Wir haben recherchiert, um sicherzustellen, dass dies nicht nur eine Verwechslung mit einer anderen Person ist“, sagte der Sprecher und merkte an, dass sie Zeitungsarchive durchsucht hätten, aber keine Erklärung dafür gefunden hätten, warum die KI Kindesmord erfunden hat.

Große Sprachmodelle wie das, das ChatGPT zugrunde liegt, führen im Wesentlichen eine Vorhersage des nächsten Wortes in großem Maßstab durch, sodass man spekulieren könnte, dass die Datensätze, die zur Schulung des Werkzeugs verwendet wurden, viele Geschichten über Kindstötung enthielten, die die Wortauswahl bei der Beantwortung einer Frage über einen benannten Mann beeinflusst haben könnten.

Was auch immer die Erklärung ist, es ist klar, dass solche Outputs völlig inakzeptabel sind.

Noybs Argument ist auch, dass sie gegen EU-Datenschutzbestimmungen verstoßen. Und während OpenAI am unteren Bildschirmrand einen winzigen Haftungsausschluss anzeigt, der besagt, dass „ChatGPT Fehler machen kann. Wichtiges überprüfen“, sagt sie, dass dies den KI-Entwickler nicht von seiner Pflicht gemäß der DSGVO entbindet, grundsätzlich falsche Behauptungen über Personen zu produzieren.

OpenAI wurde um eine Antwort auf die Beschwerde gebeten.

Obwohl diese DSGVO-Beschwerde sich auf eine benannte Person bezieht, verweist Noyb auf andere Fälle, in denen ChatGPT rechtlich compromittierende Informationen erfunden hat - wie den australischen Major, der sagte, er sei in einen Bestechungs- und Korruptionsskandal verwickelt, oder einen deutschen Journalisten, der fälschlicherweise als Kindesmissbraucher bezeichnet wurde - und sagt, dass dies klar kein isoliertes Problem für das KI-Tool ist.

Wichtig ist zu beachten, dass Noyb nach einem Update des zugrunde liegenden KI-Modells, das ChatGPT antreibt, sagt, dass der Chatbot aufgehört hat, die gefährlichen Unwahrheiten über Hjalmar Holmen zu produzieren - eine Änderung, die damit zusammenhängt, dass das Tool jetzt bei der Frage nach einer Person im Internet nach Informationen sucht, anstatt wie zuvor, ein leeres Feld in seinem Datensatz könnte es veranlasst haben, eine derart falsche Antwort zu halluzinieren.

In unseren eigenen Tests, in denen wir ChatGPT gefragt haben, wer „Arve Hjalmar Holmen“ ist, antwortete der ChatGPT zunächst mit einer etwas merkwürdigen Kombination, indem er einige Fotos von verschiedenen Menschen anzeigte, die anscheinend von Websites wie Instagram, SoundCloud und Discogs stammten, neben dem Text, dass er „keine Informationen“ über eine Person dieses Namens finden konnte (siehe unseren Screenshot unten). Ein zweiter Versuch ergab eine Antwort, die Arve Hjalmar Holmen als „norwegischen Musiker und Songwriter“ identifizierte, dessen Alben „Honky Tonk Inferno“ beinhalten.

chatgpt shot: natasha lomas/techcrunch

Obwohl die durch ChatGPT erzeugten gefährlichen Unwahrheiten über Hjalmar Holmen anscheinend gestoppt haben, sind sowohl Noyb als auch Hjalmar Holmen besorgt, dass falsche und diffamierende Informationen über ihn innerhalb des KI-Modells verbleiben könnten.

„Ein Haftungsausschluss, dass man nicht mit dem Gesetz übereinstimmt, lässt das Gesetz nicht einfach verschwinden“, bemerkte Kleanthi Sardeli, eine weitere Datenschutzanwältin bei Noyb, in einer Erklärung. „KI-Unternehmen können auch nicht einfach falsche Informationen vor den Nutzern verbergen, während sie intern immer noch falsche Informationen verarbeiten.“

„KI-Unternehmen sollten aufhören zu handeln, als ob die DSGVO für sie nicht gelte, obwohl sie offensichtlich gilt“, fügte sie hinzu. „Wenn die Halluzinationen nicht gestoppt werden, können Menschen leicht Rufschaden erleiden.“

Noyb hat die Beschwerde gegen OpenAI bei der norwegischen Datenschutzbehörde eingereicht - und hofft, dass die Aufsichtsbehörde entscheiden wird, dass sie befugt ist, zu ermitteln, da Noyb die Beschwerde gegen die US-amerikanische Einrichtung von OpenAI richtet und argumentiert, dass ihr Büro in Irland nicht allein für Produktentscheidungen verantwortlich ist, die Europäer betreffen.

Allerdings wurde eine frühere Noyb-unterstützte DSGVO-Beschwerde gegen OpenAI, die im April 2024 in Österreich eingereicht wurde, von der Aufsichtsbehörde aufgrund einer im selben Jahr von OpenAI vorgenommenen Änderung, die seine irische Abteilung als Anbieter des ChatGPT-Dienstes für regionale Nutzer nannte, an die irische DPC weitergeleitet.

Wo befindet sich diese Beschwerde jetzt? Sie liegt immer noch auf einem Schreibtisch in Irland.

„Nach Erhalt der Beschwerde von der österreichischen Aufsichtsbehörde im September 2024 begann die DPC mit der formellen Bearbeitung der Beschwerde, und sie ist noch im Gange“, teilte Risteard Byrne, stellvertretender Leiter der Kommunikationsabteilung der DPC, TechCrunch auf Anfrage mit.

Er gab keinen Hinweis darauf, wann die Untersuchung der DPC zu den Halluzinationen von ChatGPT voraussichtlich abgeschlossen sein wird.