Meta-Faktencheck-Aus

Geschätzte Lesezeit 10 Minuten

Vor einiger Zeit gab Meta-Chef Mark Zuckerberg in einem Video bekannt, dass die Kooperation mit Faktencheck-Redaktionen in den USA beendet wird. Was genau das für die Social-Media-Plattformen bedeutet und was das für Meta-Plattformen in Europa heißt, könnt ihr in diesem Blogbeitrag nachlesen.

Wie funktioniert das Faktencheck-System?

Der Meta-Konzern arbeitet mit unabhängigen, zertifizierten Faktenprüfer:innen zusammen, um Fehlinformationen auf Facebook, Instagram und Threads zu erkennen, zu überprüfen und ihre Verbreitung einzuschränken. Inhalte, die lediglich kleinere Unstimmigkeiten enthalten oder satirisch gemeint sind, werden nicht überprüft.

Der Faktencheck erfolgt in einem mehrstufigen Prozess. Zunächst werden potenzielle Fehlinformationen identifiziert und an Faktenprüfer:innen weitergeleitet. Diese bewerten die Inhalte unabhängig und überprüfen sie anhand von Quellen, öffentlichen Daten und weiteren Methoden. Wenn ein Inhalt als „Falsch“, „Verfälscht“ oder „Teilweise falsch“ eingestuft wird, versieht Meta ihn mit einer entsprechenden Kennzeichnung, um Nutzer:innen zu informieren. Zudem werden solche Beiträge in der Sichtbarkeit stark eingeschränkt.

Wiederholte Verstöße gegen die Faktencheck-Richtlinien führen zu weiteren Maßnahmen. Seiten, Gruppen, Profile und Websites, die mehrfach Fehlinformationen verbreiten, müssen mit Einschränkungen rechnen (z. B. verringerte Reichweite oder temporäre Sperrung). Faktenprüfer:innen selbst sind nicht für das Entfernen oder Blockieren von Inhalten und Konten zuständig – das fällt in den Verantwortungsbereich von Meta.

Wie kann man Falschnachrichten entgegenwirken?

Im Laufe der Zeit haben sich zwei unterschiedliche Strategien entwickelt, um mit Fake News umzugehen:

Debunking

Sowohl bei unabhängigen Faktencheckern als auch bei Community Notes handelt es sich um Debunking. Hier werden Falschnachrichten als solche identifiziert und anschließend von Faktenchecker:innen widerlegt. Wird beispielsweise in einem Beitrag geschrieben, dass die Erde eine Scheibe sei, erklären Faktenchecker:innen anhand von wissenschaftlichen Fakten, dass das nicht wahr ist. Der Beitrag wird also erst im Nachhinein widerlegt, nachdem er bereits gelesen wurde.

Prebunking

Eine weitere Möglichkeit, um Fake News entgegenzuwirken, ist das Prebunking. Hier handelt es sich um eine präventive Methode, die das Ziel hat, Menschen über die Mechanismen von Desinformation aufzuklären, bevor sie mit Falschinformationen konfrontiert werden. Wenn die gängigsten Manipulationstechniken bekannt sind, kann man sich besser davor schützen.

Häufig werden bei Falschinformationen die gleichen Manipulationstechniken verwendet. Diese Tatsache macht sich das Prebunking zunutze und befasst sich üblicherweise in kurzen Videos mit diesen Techniken.

Was ändert sich?

Anstelle von externen Faktenchecker:innen sollen bei Facebook und Instagram nun Community Notes verwendet werden, um Falsch- und Desinformation zu verhindern. Als Vorbild dafür dient die Plattform X (ehemals Twitter).

Laut X wird es den Nutzer:innen auf der Plattform ermöglicht, gemeinsam Kontextinformationen zu potenziell irreführenden Beiträgen zu erstellen und somit die Öffentlichkeit besser zu informieren. Jede:r kann sich registrieren und beim Schreiben und Bewerten von Notizen mitwirken. Je mehr Nutzer:innen mitmachen, desto besser funktioniert das System, da so viele verschiedene Perspektiven einbezogen werden. Es wird also auf die kollektive Intelligenz und Transparenz der Nutzer:innen gesetzt, um Desinformationen einzugrenzen.

Das Problem mit Community Notes

Expert:innen sind sich einig, dass Community Notes eine gute Ergänzung zu externen Faktenchecks sind. Die alleinige Nutzung reicht jedoch nicht aus, um der Verbreitung von falschen Inhalten wirksam entgegenzuwirken.

X zum Beispiel hat nicht von der Einführung von Community Notes profitiert. Viele der Nutzer:innen löschten ihre Accounts und wechselten zu anderen Plattformen, wie Mastodon, Bluesky oder Threads. User:innen haben im Allgemeinen ein großes Interesse an korrekten Fakten und werden von Desinformation und insbesondere von Hassrede abgeschreckt. Eine alleinige Nutzung von Community Notes kann dann dazu führen, dass es den Social-Media-Plattformen Facebook, Instagram und Threads ähnlich ergeht wie X.

Wie wirksam sind Faktenchecks?

Forschung hat gezeigt, dass Menschen, die bisher nicht vollkommen an eine Falschinformation glauben, empfänglicher für Faktenchecks sind, als Menschen, die bereit zu 100 % von Fake News überzeugt sind. Eine wichtige Rolle dabei spielt die Kommunikation, also wie die Faktenchecks konstruiert sind und wen sie wann erreichen. Faktenchecks sind auch nicht besonders wirksam, wenn die User:innen bereits eine misstrauische Einstellung gegenüber journalistischen Medien haben oder viele Fake News konsumieren und diese auch glauben.

Aus psychologischer Sicht können Faktenchecks ebenfalls eine gewisse Abwehrhaltung bei den Nutzer:innen auslösen. Menschen mögen es nicht belehrt zu werden, und Faktenchecks tun in den meisten Fällen genau das. Selbst, wenn durch Faktenchecks die eigene falsche Wahrnehmung erkannt wird, können trotzdem negative Einstellungen gegenüber den Faktenchecker:innen auftreten.

Auswirkungen auf die EU

Welche Auswirkungen hat die Beendigung der Zusammenarbeit für die EU? Aktuell sind diese Änderungen nur für die USA von Bedeutung. In der EU und in Großbritannien hat der Meta-Konzern bislang keine konkreten Pläne, die unabhängigen Faktenchecks abzuschaffen. Eine wichtige Rolle dabei spielt der Digital Services Act. Dieses Gesetz schreibt vor, dass Big-Tech-Konzerne, wie Meta, Verantwortung dafür tragen, welche Inhalte auf ihren Plattformen gepostet werden. Diese Gesetze machen eine Abschaffung der Faktenchecks hier in Europa deutlich schwieriger als in den USA.

Obwohl die EU-Kommission Meta nicht dazu zwingen kann, bestimmte Inhalte von den Online-Plattformen zu löschen, sieht der Digital Services Act Strafen (z. B. Geldstrafen, die bis zu sechs Prozent des globalen Jahresumsatzes betragen) vor, um Hass und Desinformation im Netz entgegenzuwirken.

Während Meta-Chef Mark Zuckerberg eine übertriebene Zensur als Grund für das Aus der Faktenchecks nennt, sind sich Faktenchecker:innen in der EU einigt, dass das Gegenteil der Fall ist und dadurch die Meinungsbildung gefördert wird. Wie genau sich die Abschaffung der Faktenchecks in den USA auf die EU auswirken wird, bleibt noch abzuwarten.

Was ist der Grund für die Änderungen?

Mark Zuckerberg hält diese Änderungen trotz der erwarteten Zunahme an „schlechten Dingen“ auf den Plattformen für die richtige Entscheidung. Er begründet dies damit, dass so weniger Fehler durch übermäßige Moderation entstehen. Bereits nach den US-Wahlen 2016 wurde die Verbreitung von Fake News im Internet zu einem großen Problem.

Zuckerberg kritisiert, dass bei der Bekämpfung von Fake News zu wenig Wert darauf gelegt wurde, dass Nutzer:innen selbst entscheiden, was wahr oder falsch ist. Stattdessen hätten Faktenchecker:innen diese Aufgabe übernommen, seien dabei aber politisch voreingenommen gewesen und hätten das Vertrauen der Nutzer:innen verletzt. Außerdem wirft er der US-Regierung vor, in der Vergangenheit zu stark darauf gedrängt zu haben, Falschinformationen zum Coronavirus von den Plattformen zu entfernen.

Änderungen im Umgang mit Hassrede

Es wurde nicht nur das Faktencheck-Aus bei Meta angekündigt, sondern auch Änderungen im Umgang mit Hassrede. Die Beschränkungen zu den Themen Migration und Geschlecht sollen gelockert werden, da sie laut Mark Zuckerberg „nicht mehr im Einklang mit der öffentlichen Meinung“ stehen. Zudem ist es nun auch nicht mehr ausdrücklich verboten, Frauen als Eigentum oder Haushaltsinventar zu bezeichnen, sowie im Zusammenhang mit Homosexualität und Transsexualität von „Geisteskrankheit oder Anomalie“ zu sprechen. Das Leugnen des Holocaust bleibt bei Meta nach wie vor verboten.

Auch die Durchsetzung der Regeln soll reformiert werden. Geringfügige Verstöße sollen in Zukunft erst nach Nutzerbeschwerden geprüft werden. Zusätzlich will der Meta-Konzern politische und gesellschaftliche Themen wieder stärker in den Fokus rücken. Ein weiterer Schritt ist die Verlagerung der Moderationsteams aus dem liberalen Kalifornien ins konservative Texas.

Fazit

Der Social Media Konzern Meta setzt in den USA nicht mehr auf externe Faktenprüfer:innen, sondern auf Community Notes, ein von Nutzer:innen selbst moderiertes System zur Bekämpfung von Falschinformationen. Während diese Methode mehr Transparenz und Vielfalt an Perspektiven ermöglichen soll, sind Expert:innen skeptisch, ob sie allein ausreicht, um falsche Informationen effektiv einzudämmen.

Faktenchecks sind zwar nicht perfekt, aber sie helfen, die Verbreitung von Falschinformationen einzudämmen. Die Frage bleibt, ob Metas neue Strategie das Vertrauen der Nutzer:innen stärkt oder ob sie – wie bereits bei X (ehemals Twitter) – das Gegenteil bewirkt.

Du willst noch mehr über Social Media erfahren? Schreib uns und unsere Expert:innen helfen dir gerne weiter!

datenwerk innovationsagentur GmbH