Eine Datenschutzorganisation hat eine Beschwerde gegen OpenAI eingereicht. Anlass ist eine falsche Behauptung von ChatGPT über einen norwegischen Mann. Die österreichische Organisation Noyb wirft OpenAI vor, gegen europäische Datenschutzgesetze verstoßen zu haben, indem sie falsche persönliche Informationen verbreitete.
KI-Fehlinterpretation führt zu rechtlichen Konsequenzen
Arve Hjalmar Holmen stellte ChatGPT eine Frage über sich selbst. Die KI antwortete mit einer völlig erfundenen Geschichte, in der sie behauptete, Holmen sei wegen Mordes an zwei Söhnen und versuchten Mordes an einem dritten verurteilt worden. Außerdem hieß es, er habe eine 21-jährige Haftstrafe erhalten.
Obwohl die Anschuldigungen frei erfunden waren, enthielt die Antwort korrekte persönliche Details. ChatGPT nannte den richtigen Wohnort und die tatsächliche Anzahl und das Geschlecht seiner Kinder. Solche KI-Halluzinationen entstehen oft durch fehlerhafte oder voreingenommene Trainingsdaten.
Noyb hat einen Screenshot von ChatGPTs Antwort in der Beschwerde veröffentlicht, jedoch das genaue Datum entfernt. Inzwischen hat OpenAI sein Modell aktualisiert. ChatGPT gibt nun keine falschen Mordanschuldigungen mehr aus, wenn nach Holmen gefragt wird.
Trotz dieser Anpassung warnt Noyb, dass die falschen Daten weiterhin im System existieren könnten. Die Organisation vermutet, dass OpenAI Benutzerdaten für das Training seiner KI-Modelle speichert. Holmen hat keine Möglichkeit, zu überprüfen, ob die fehlerhaften Informationen dauerhaft gelöscht wurden.
Datenschutzorganisation fordert Maßnahmen gegen OpenAI
Noyb hat die offizielle Beschwerde bei der norwegischen Datenschutzbehörde (Datatilsynet) eingereicht. Die Gruppe argumentiert, dass OpenAI gegen Artikel 5(1)(d) der DSGVO verstoßen hat, der Unternehmen verpflichtet, persönliche Daten korrekt und aktuell zu halten.
Die Organisation fordert OpenAI auf, die falschen Informationen vollständig zu löschen. Zudem müsse OpenAI sein KI-Modell anpassen, um ähnliche Fehler in Zukunft zu vermeiden. Noyb verlangt außerdem eine Geldstrafe, um sicherzustellen, dass das Unternehmen sich an Datenschutzgesetze hält.
Holmen zeigte sich besorgt über die Folgen der falschen Anschuldigung. Er befürchtet, dass Menschen den Fehler für wahr halten könnten, selbst wenn OpenAI ihn korrigiert. “Viele glauben, wo Rauch ist, da ist auch Feuer. Das macht mir am meisten Angst,” sagte er.
Noyb-Anwältin Kleanthi Sardeli kritisierte KI-Unternehmen für ihren laxen Umgang mit Datenschutzvorgaben. “Ein Haftungsausschluss macht das Gesetz nicht ungültig. KI-Firmen können die DSGVO nicht ignorieren,” sagte sie. Sie warnte zudem, dass KI-Halluzinationen erheblichen Rufschaden verursachen könnten, wenn sie nicht korrigiert werden.
Dieser Fall könnte ein wichtiges rechtliches Signal setzen, wie KI-Unternehmen mit personenbezogenen Daten umgehen müssen. OpenAI hat bisher nicht auf die Beschwerde reagiert.