Politische Verschiebungen bei KI-Modellen dokumentiert
Eine neue Studie der Peking-Universität zeigt, dass ChatGPT, der populäre KI-Chatbot von OpenAI, eine zunehmende Neigung nach rechts im politischen Spektrum aufweist. Wissenschaftler beobachteten signifikante Veränderungen in den Antworten von ChatGPT-Modellen wie GPT-3.5 und GPT-4 über einen längeren Zeitraum hinweg.
Die in der Fachzeitschrift Humanities and Social Science Communications veröffentlichte Studie analysierte 62 Fragen des Political Compass Tests. Diese wurden mehr als 3.000 Mal pro Modell wiederholt, um die Entwicklung der Antworten zu dokumentieren. Während ChatGPT weiterhin als “libertär-links” klassifiziert wird, zeigen die Ergebnisse eine “deutliche Rechtsneigung”. Dies sei besonders relevant, da Sprachmodelle wie ChatGPT zunehmend gesellschaftliche Werte beeinflussen könnten, so die Autoren.
Ursachen und mögliche gesellschaftliche Folgen
Die Studie baut auf früheren Untersuchungen des Massachusetts Institute of Technology (MIT) und des britischen Centre for Policy Studies aus dem Jahr 2024 auf. Während diese Arbeiten auf eine Linksneigung in den Antworten von Sprachmodellen hinwiesen, wurde dabei nicht untersucht, wie sich diese Antworten im Laufe der Zeit verändern.
Die Forscher der Peking-Universität identifizierten drei mögliche Ursachen für die Rechtsverschiebung: Änderungen in den Trainingsdaten, die wachsende Zahl von Nutzerinteraktionen und regelmäßige Updates der Modelle. Da KI-Modelle wie ChatGPT kontinuierlich aus dem Feedback ihrer Nutzer lernen, könnten diese Veränderungen auch größere gesellschaftliche Trends widerspiegeln. Globale Ereignisse wie der Russland-Ukraine-Krieg könnten polarisierte Fragen verstärken und somit die Antworten der Modelle beeinflussen.
Forderung nach Transparenz und regelmäßiger Kontrolle
Die Wissenschaftler warnen, dass KI-Modelle wie ChatGPT, wenn sie nicht regelmäßig überprüft werden, verzerrte Informationen verbreiten und gesellschaftliche Polarisierung fördern könnten. Es bestehe das Risiko, dass sogenannte “Echokammern” entstehen, in denen bestehende Überzeugungen immer weiter verstärkt werden.
Um diesen Risiken entgegenzuwirken, empfehlen die Autoren regelmäßige Audits und Transparenzberichte, um sicherzustellen, dass die Antworten der Modelle fair und ausgewogen bleiben.
„Strenge Kontrolle und klare Richtlinien sind notwendig, um den verantwortungsvollen Einsatz von KI-Technologien sicherzustellen”, erklären die Forscher. Solche Maßnahmen seien essenziell, um zu verhindern, dass KI ungewollt gesellschaftliche Spannungen verstärkt.