Nutzer melden fehlerhafte Sperrungen durch automatisierte Systeme
Meta bestätigte, dass ein technischer Fehler zur unbegründeten Sperrung mehrerer Facebook-Gruppen führte. Das Unternehmen arbeite nach eigener Aussage daran, das Problem zu lösen. Administratoren berichteten, sie hätten automatisierte Nachrichten über angebliche Regelverstöße erhalten. Diese Mitteilungen führten direkt zur Löschung ihrer Gruppen – ohne menschliche Überprüfung.
Auch Instagram-Nutzer berichteten von ähnlichen Vorfällen mit ihren Konten. Viele beschuldigten Metas KI-Systeme, die Sperren ausgelöst zu haben. Meta räumte den Fehler bei Facebook-Gruppen ein, verneinte jedoch ein größeres Problem auf allen Plattformen.
Millionen-Gruppen betroffen – Meta hebt Sperren wieder auf
Eine Meme-Gruppe mit über 680.000 Mitgliedern wurde mit der Begründung gelöscht, sie verstoße gegen Regeln zu gefährlichen Personen. Der Gründer veröffentlichte den Vorfall, woraufhin Meta die Gruppe wiederherstellte. Ein anderer Nutzer berichtete auf Reddit, seine KI-Gruppe mit 3,5 Millionen Mitgliedern sei gesperrt worden. Auch sein persönliches Konto war betroffen. Später teilte Meta ihm mit, die Sperre sei ein Fehler der automatisierten Technologie gewesen.
Öffentlicher Protest und Online-Petition nehmen zu
Meta sieht sich mit wachsendem Protest konfrontiert. Eine Petition mit dem Titel „Meta deaktiviert Konten grundlos ohne menschlichen Support“ hat fast 22.000 Unterschriften erreicht. In einem Reddit-Thread berichten viele Nutzer, wie ihre Seiten gelöscht wurden. Manche verloren persönliche Inhalte, andere geschäftlich genutzte Konten. Einige Nutzer erklärten, Meta habe ihnen schwerwiegende Verstöße gegen Kinderschutzrichtlinien vorgeworfen.
Viele beschweren sich darüber, dass sie nach einer Sperre niemanden bei Meta kontaktieren können. Sie werfen der KI vor, ohne Kontrolle schwerwiegende Fehler zu machen. Die geschilderten Fälle wurden bislang nicht unabhängig geprüft.
Meta verteidigt sich – Bericht über Richtliniendurchsetzung geplant
Meta erklärte, man sperre nur Konten, die tatsächlich gegen Regeln verstoßen. Betroffene könnten Einspruch einlegen. Laut Meta arbeiten menschliche Prüfer mit technischen Systemen zusammen. Das Unternehmen sehe keinen Anstieg fehlerhafter Sperrungen. Instagram erklärt, KI erkenne problematische Inhalte meist, bevor Nutzer sie melden. In einigen Fällen überprüften Menschen zusätzlich die Entscheidungen.
Konten können nach einem schweren Verstoß sofort gesperrt werden. Auch KI-generierte Inhalte mit menschenähnlichem Aussehen oder fiktive Darstellungen fallen unter diese Regelung. Meta beobachtet auch verdächtiges Verhalten. Dazu gehören häufige Meldungen durch Jugendliche oder gefährliche Suchanfragen. In solchen Fällen werden Konten beschränkt oder gelöscht.
Meta veröffentlicht regelmäßig einen Bericht über Maßnahmen zur Regelumsetzung. Von Januar bis März sperrte das Unternehmen 4,6 Millionen Inhalte wegen Kindesmissbrauchs – der niedrigste Wert seit Anfang 2021. Der nächste Transparenzbericht erscheint in den kommenden Monaten.