Meta, das Unternehmen hinter Facebook und Instagram, hat eine drastische Änderung in seiner Strategie zur Bekämpfung von Fehlinformationen angekündigt: Anstatt auf professionelle Faktenchecker zu setzen, wird künftig ein System nach dem Vorbild von X (ehemals Twitter) genutzt – sogenannte Community Notes.
Das Konzept? Nutzer statt Experten sollen künftig entscheiden, was wahr ist und was nicht. Doch kann eine Crowd-basierte Faktenprüfung wirklich funktionieren – oder gibt Meta damit die Kontrolle über die Wahrheit aus der Hand?
Von „industrieführender Faktenprüfung“ zur Massenmeinung
Vor vier Jahren, nach dem Sturm auf das Kapitol am 6. Januar 2021, rühmte sich Mark Zuckerberg noch vor dem US-Kongress mit Metas „industrieführendem Faktencheck-Programm“. Er verwies auf die Zusammenarbeit mit 80 unabhängigen Drittanbieter-Faktencheckern, um Falschinformationen auf Facebook und Instagram zu bekämpfen.
Nun scheint Zuckerberg von dieser Strategie abgerückt zu sein. Faktenchecker seien zu politisch voreingenommen und hätten mehr Vertrauen zerstört als geschaffen, begründete er die Entscheidung, das System abzuschaffen.
Stattdessen will Meta auf ein Modell setzen, das bereits von X genutzt wird: Ein Community-gesteuertes Faktencheck-System, bei dem Nutzer selbst die Richtigkeit von Informationen bewerten und korrigieren.
Was steckt hinter den Community Notes?
Das Prinzip ist nicht neu. Bereits 2021 startete X (damals noch Twitter) ein Projekt namens „Birdwatch“, das sich an Wikipedia orientierte. Statt auf bezahlte Experten zu setzen, sollten Freiwillige falsche oder irreführende Posts markieren und ergänzen.
Wie funktioniert das in der Praxis?
- Freiwillige können Notizen zu Beiträgen schreiben und bewerten, ob sie hilfreich sind.
- Wer regelmäßig als vertrauenswürdig eingestuft wird, erhält mehr Einfluss auf das System.
- Ein Algorithmus stellt sicher, dass Korrekturen von Nutzern mit unterschiedlichen Meinungen als hilfreich bewertet werden.
Laut X soll dieses System bereits jetzt hunderte von Faktenchecks pro Tag liefern – weit mehr als professionelle Faktenchecker es jemals könnten.
Studien belegen, dass 98 % der Community Notes zu COVID-19 als korrekt eingestuft wurden. Zudem kann eine gut platzierte Community Note die Verbreitung eines irreführenden Posts um über 50 % reduzieren und erhöht die Wahrscheinlichkeit, dass der ursprüngliche Verfasser seinen Post selbst löscht, um 80 %.
Klingt also erst mal gut – oder?
Doch was ist mit der Qualität?
Das Hauptproblem: Wer überprüft die Überprüfer?
Obwohl X und Meta behaupten, ihre Algorithmen würden eine „faire“ Auswahl treffen, bleibt fraglich, ob ein massenbasiertes System ohne Expertenmeinung tatsächlich die komplexesten und gefährlichsten Falschinformationen erkennt.
Der Geschäftsführer von Logically Facts, einem Faktencheck-Dienstleister von Meta, kritisiert, dass Community-Notizen „Konsistenz, Objektivität und Expertise“ fehlen, um gezielt die gefährlichsten Fake News zu identifizieren.
Zudem zeigt sich ein weiteres Problem:
Über 90 % der eingereichten Community Notes werden nie verwendet.
Das bedeutet, dass viele korrekte Korrekturen niemals angezeigt werden, weil das System nur die „hilfreichsten“ Notizen priorisiert. Eine ironische Schwachstelle: Gerade die kontroversesten Falschinformationen könnten so unkommentiert bleiben.
Politik und die Angst vor „Zensur“
Warum also dieser plötzliche Strategiewechsel von Meta?
Ein Verdacht, den viele Experten äußern: Mark Zuckerberg wolle sich der Kritik konservativer Politiker in den USA entziehen.
Gerade rechte Kreise werfen Meta, Google und andere Big-Tech-Unternehmen seit Jahren vor, konservative Stimmen systematisch zu unterdrücken.
Mit der Einführung von Community Notes – einem System, das sich auf Nutzer verlässt, anstatt auf „elitäre Experten“ – könnte Zuckerberg versuchen, politischen Gegenwind zu vermeiden und sich bei der neuen Trump-Regierung anzubiedern.
Alexios Mantzarlis, Direktor der Cornell Security, Trust and Safety Initiative, nennt den Schritt eine „klare Anbiederung an Elon Musk und die künftige US-Regierung“.
Mehr Vertrauen oder mehr Chaos?
Meta verspricht, dass sein Community Notes-System „perspektivenübergreifende Zustimmung“ benötigt, um Verzerrungen zu vermeiden. Doch ob das in der Praxis funktioniert, bleibt fraglich.
Während X behauptet, seine Methode sei politisch neutral, warnen Kritiker vor einer Schwächung der Informationsqualität:
- Wissenschaftliche und komplexe Themen könnten untergehen, wenn Mehrheitsmeinungen über Fachwissen gestellt werden.
- Gezielte Manipulation durch organisierte Gruppen könnte das System unterwandern.
- Echte Fake News könnten ungehindert viral gehen, wenn keine „hilfreichen“ Korrekturen sichtbar werden.
Selbst Zuckerberg gibt zu:
„Wir werden dadurch weniger schlechtes Zeug erwischen.“
Ein überraschend offenes Eingeständnis, dass mit der Abschaffung professioneller Faktenprüfung mehr Desinformation auf Facebook und Instagram kursieren könnte.
Fazit: Ein riskantes Experiment
Community Notes sind zweifellos ein interessantes Konzept. Wikipedia zeigt, dass gemeinschaftliche Faktenprüfung in bestimmten Fällen gut funktionieren kann.
Aber kann ein unmoderiertes Crowd-System aus Hobby-Faktencheckern wirklich die hochkomplexen, politisch sensiblen Fake News unserer Zeit bekämpfen?
Meta geht mit dieser Strategie ein hohes Risiko ein. Während es kurzfristig politischem Druck aus dem Weg gehen mag, könnte der langfristige Schaden für das Vertrauen in soziale Medien enorm sein.
Ein kompletter Ersatz für professionelle Faktenchecker ist Community Notes jedenfalls nicht. Und wenn sich zeigt, dass Fake News in Zukunft noch ungehemmter kursieren, könnte Zuckerberg sich bald nach seinen „voreingenommenen“ Experten zurücksehnen.