Eine Datenschutzorganisation hat eine Beschwerde gegen OpenAI eingereicht. Anlass ist ein Vorfall, bei dem ChatGPT einen norwegischen Mann fälschlicherweise des Mordes beschuldigte. Die in Österreich ansässige Gruppe Noyb wirft OpenAI vor, gegen europäische Datenschutzgesetze verstoßen zu haben, indem falsche persönliche Informationen bereitgestellt wurden.
KI-Fehlinformation führt zu rechtlichen Schritten
Arve Hjalmar Holmen fragte ChatGPT nach seiner eigenen Person. Die KI antwortete mit einer völlig falschen Geschichte, in der behauptet wurde, er sei wegen Mordes an zwei Söhnen und versuchten Mordes an einem dritten verurteilt worden. Zudem gab das KI-Modell an, er habe eine 21-jährige Haftstrafe erhalten.
Obwohl das Verbrechen erfunden war, enthielt die Antwort einige korrekte persönliche Details. ChatGPT nannte seinen Wohnort sowie die Anzahl und das Geschlecht seiner Kinder richtig. KI-generierte Fehlinformationen, auch als Halluzinationen bekannt, entstehen oft durch Verzerrungen oder Fehler im Trainingsdatensatz.
Noyb veröffentlichte einen Screenshot der Antwort in ihrer Beschwerde. Die Organisation entfernte jedoch das genaue Datum der Interaktion. OpenAI hat seitdem sein Modell aktualisiert. Wenn ChatGPT nun nach Holmen gefragt wird, gibt es die falsche Mordanschuldigung nicht mehr wieder.
Trotz der Korrektur argumentiert Noyb, dass die falschen Daten möglicherweise noch in OpenAIs System vorhanden sind. Die Organisation befürchtet, dass ChatGPT weiterhin Nutzerdaten speichert und für zukünftige Modell-Updates verwendet. Holmen kann nicht überprüfen, ob die falschen Informationen dauerhaft gelöscht wurden.
Datenschutzorganisation fordert Maßnahmen gegen OpenAI
Noyb hat seine offizielle Beschwerde bei der norwegischen Datenschutzbehörde (Datatilsynet) eingereicht. Die Gruppe behauptet, dass OpenAI Artikel 5(1)(d) der DSGVO verletzt hat, der Unternehmen verpflichtet, personenbezogene Daten korrekt und aktuell zu halten.
Die Organisation fordert, dass OpenAI die falschen Informationen vollständig entfernt. Zudem soll OpenAI sein KI-Modell so anpassen, dass ähnliche Fehler nicht mehr auftreten. Darüber hinaus fordert Noyb eine Geldstrafe, um sicherzustellen, dass sich OpenAI künftig an Datenschutzgesetze hält.
Holmen äußerte große Besorgnis über den Vorfall. Er befürchtet, dass Menschen die falschen Anschuldigungen glauben könnten, selbst wenn OpenAI den Fehler korrigiert. „Viele denken: Wo Rauch ist, da ist auch Feuer. Das macht mir am meisten Angst,“ sagte er.
Noyb-Anwältin Kleanthi Sardeli kritisierte KI-Unternehmen dafür, Datenschutzgesetze nicht ernst zu nehmen. „Eine einfache Haftungsausschlusserklärung macht Gesetze nicht unwirksam. KI-Firmen können die DSGVO nicht ignorieren,“ erklärte sie. Sardeli warnte zudem, dass KI-Halluzinationen schwere Rufschädigungen verursachen können, wenn sie nicht kontrolliert werden.
Dieser Fall könnte einen rechtlichen Präzedenzfall für den Umgang von KI-Unternehmen mit persönlichen Daten schaffen. OpenAI hat sich bisher nicht zu der Beschwerde geäußert.