Home » Fehlerhafte Antworten bei Krisenanfragen

Fehlerhafte Antworten bei Krisenanfragen

by Rudolph Angler
0 comments

Die KI Grok, entwickelt von Elon Musks xAI, gab während des zwölftägigen Kriegs zwischen Israel und Iran fehlerhafte Informationen aus. Das Digital Forensic Research Lab (DFRLab) untersuchte 130.000 Grok-Beiträge auf X. Ein Drittel dieser Beiträge bezog sich auf Falschmeldungen zum Konflikt.

Grok lieferte häufig widersprüchliche Angaben. Die KI konnte gesicherte Fakten nicht bestätigen, erkannte gefälschte Bilder nicht und verbreitete unbelegte Behauptungen. Obwohl Grok kein Faktenprüfwerkzeug ist, verwenden viele Nutzer die KI, um Informationen zu verifizieren.


KI hält manipulierte Inhalte für echt

DFRLab entdeckte zwei manipulierte Videos, die Grok fälschlich als echt bezeichnete. Ein Video zeigte angeblich Schäden am Flughafen Ben Gurion durch iranische Raketen. Die KI gab widersprüchliche Erklärungen ab – einmal sprach sie von einem Houthi-Angriff, dann von einem israelischen Angriff in Teheran.

Grok konnte Originalmaterial nicht von KI-generierten Inhalten unterscheiden. Die Forscher betonen, dass derartige Fehler besonders in Krisenzeiten gefährlich seien.


KI-Modelle verbreiten Falschmeldungen

Während des Konflikts verbreiteten sich viele Unwahrheiten. Ein Beispiel: China habe Iran mit Militärflugzeugen unterstützt. Grok und Perplexity verbreiteten diese Meldung, obwohl sie auf falsch interpretierten Flugdaten basierte.

Laut NewsGuard trugen beide Chatbots zur Verbreitung dieser Falschmeldung bei. Experten warnen: In Krisensituationen geraten Chatbots bei der Faktenprüfung schnell an ihre Grenzen. Sie verstärken Fehlinformationen, wenn sie als primäre Informationsquelle dienen.

Die Forscher mahnen: KI-Systeme beeinflussen zunehmend die öffentliche Wahrnehmung von Kriegen. Ihre Antworten, Schwächen und Verzerrungen prägen das Bild globaler Konflikte.

You may also like