Woher kommt der Begriff Infodemie?
Der Chef der Weltgesundheitsorganisation (WHO), der Äthiopier Tedros Adhanom Ghebreyesus, sagte bereits im Februar 2020: „Fake News verbreiten sich schneller und einfacher als dieses Virus, und sie sind genauso gefährlich.“ Und er prägte einen neuen Begriff: „Wir bekämpfen nicht nur eine Epidemie, wir bekämpfen auch eine Infodemie.“ Es besteht also zusätzlich zum Gesundheitsproblem ein Nachrichtenproblem. „Infodemie“ bedeutet, dass es einen Überfluss an Informationen gibt, die teilweise falsch und teilweise richtig sind, so dass es Menschen schwer fällt, vertrauenswürdige Quellen und verlässliche Hilfestellungen zu finden.
Dass die Menge irreführender und unwahrer Informationen im Netz dramatisch gestiegen ist und dies viele Menschen beeinflusst, zeigen verschiedene Untersuchungen:
- Schon 2018 zeigte eine Studie des Massachusetts Institute of Technology (MIT), dass sich unwahre Behauptungen und Nachrichten auf X (damals noch Twitter) deutlich schneller verbreiten und mehr Menschen erreichen als wahre Informationen. Ein unwahrer Inhalt hatte demnach eine um 70 Prozent höhere Wahrscheinlichkeit, von Nutzer:innen weiterverbreitet zu werden.
- Ende 2020 veröffentlichten Forscher:innen der Universität Leipzig ihre zehnte „Autoritarismus-Studie“. Fazit war darin u.a., dass der Glaube an Verschwörungsmythen in der Bevölkerung seit 2018 gestiegen ist: Von 2.500 Befragten stimmten 30,4 Prozent der Aussage zu: „Die meisten Menschen erkennen nicht, in welchem Ausmaß unser Leben durch Verschwörungen bestimmt wird, die im Geheimen ausgeheckt werden.“ Und 38,1 Prozent glauben, es gebe „geheime Organisationen, die großen Einfluss auf politische Entscheidungen haben“. Nach Meinung von 33,4 Prozent sollen „Politiker und andere Führungspersönlichkeiten nur Marionetten der dahinterstehenden Mächte“ sein.
- Die meisten Informationen über das Coronavirus, zeigen Forschungsergebnisse der Hochschule Heilbronn aus dem Jahr 2020, werden über Quellen auf Social-Media-Plattformen geteilt.
- Und gerade in diesen Communities kann die öffentliche Meinung leicht manipuliert werden. So ergab der Cyber Security Report 2021, eine Studie zur IT-Sicherheit in Deutschland, dass 75 Prozent der Entscheider:innen aus Wirtschaft und Politik Fake News für ein „hohes Risiko“ für die Menschen in Deutschland halten.
- Die größten Verbreiter von Falschinformation in sozialen Medien erreichen dabei fast viermal so viele Zugriffe wie die Weltgesundheitsorganisation.
- Ein weiteres Beispiel ist der Messengerdienst Telegram, wo sich ein großes Netzwerk gebildet hat, in dem sich verschwörungsideologische Akteur:innen miteinander austauschen und organisieren - mit teilweise Hunderttausenden Follower:innen. "Spätestens mit Einführung der Impfungen gegen das Coronavirus entstand eine Vielzahl von Kanälen und Gruppen, über die gefälschte Testzertifikate, Impfausweise oder QR-Codes zum Verkauf angeboten wurden", berichtet das Bundesgesundheitsblatt im Frühjahr 2022.
Die Auswirkungen dieser unüberschaubaren Menge an Informationen sind bekannt: Sie erschweren den Zugang zu präzisen und wissensbasierten Informationen und zu verlässlichen Gesundheitsempfehlungen. Die stetige Präsens des Themas führt laut einer Studie der Universität Wien bei Verbraucher:innen zu Angstzuständen, Sorgen und anderen psychischen Gesundheitseinschränkungen. In der Folge sind Menschen offenbar eher dazu bereit, irreführende oder sogar geährliche Ratschläge anzunehmen. Zudem kann die Dominanz des Themas Corona und Covid-19 zu Ermüdungserscheinungen führen sowie zu Desinteresse und Ablehnung gegenüber weiterer Information.
Auch die Ergebnisse einer Studie zu Covid-19 bezogenen Gesundheitskompetenz zeigen, dass sich 56 Prozent der befragten Personen durch die unüberschaubare Menge an Informationen verunsichert fühlen (11 Prozent sehr verunsichert/ 45 Prozent etwas verunsichert) und daher nicht genau wissen, welchen Informationen sie vertrauen können. Die Verunsicherung ist beiden jüngeren befragen Personen etwas verbreiteter als bei den älteren befragten Personen.
Wie reagieren die Online-Plattformen?
Netzwerke wie Facebook, Instagram, Twitter und Co sind selbst dazu übergegangen, Falschinformationen zu kennzeichnen oder innerhalb einer bestimmten Frist zu löschen, gewisse Gruppen zu sperren oder die Reichweite bestimmter Posts einzuschränken. 2018 unterzeichneten mehrere der großen Internetfirmen einen Verhaltenskodex zur Selbstregulierung. Nach dem Sturm aufs Kapitol in Washington im Januar 2021 sperrte Twitter das Konto von Donald Trump dauerhaft und löschte mehr als 70.000 Accounts von Unterstützern der Verschwörungstheorie QAnon.
YouTube sperrte im Januar 2021 dauerhaft den Kanal des Verschwörungswortführers Ken Jebsen, da dieser wiederholt gegen die Covid-19-Richtlinien der Videoplattform verstoßen hatte. Im September 2021 sperrte Facebook 150 Konten sogenannter Querdenker. Der Konzern führte an, die Mitglieder:innen des Netzwerks hätten in koordinierter Weise wiederholt gegen die Gemeinschaftsstandards von Facebook verstoßen, unter anderem hätten sie gesundheitsbezogene Falschinformationen, Hassrede und Anstiftung zur Gewalt veröffentlicht. Die Inhalte würden „gesellschaftlichen Schaden“ anrichten. Im Oktober 2021 haben Google und YouTube einen großen Schritt in Sachen Selbstregulierung getan: Seitdem sind Inhalte, die den menschengemachten Klimawandel leugnen, von Werbeeinnahmen ausgeschlossen.
Mit dem Label „YouTube Health“ hat YouTube im Frühjahr 2023 zudem ein Angebot geschaffen, das Nutzer:innen zeigen soll, welchen Kanälen sie in Gesundheitsfragen vertrauen können. In den USA gibt es diese Funktion bereits seit Oktober 2022. Allerdings ist die neue Kennzeichnung für Gesundheitsinformationen auf der Plattform nicht unumstritten.
Selbstregulierung allein reicht nicht aus
Auch die Landesmedienanstalten werden auf Grundlage des neuen Medienstaatsvertrages nun vermehrt tätig gegen Anbieter:innen, die für Behauptungen keine oder unzureichende Quellen anführen und damit gegen journalistische Sorgfaltspflichten verstoßen. Mit dieser Befugnis zur Regulierung der sogenannten Medienintermediären können die Medienanstalten prüfen, ob Transparenzpflicht und Diskriminierungsfreiheit bei den Plattformen eingehalten werden. Im Gegensatz zum Presserat können die Landesmedienanstalten von sich aus tätig werden. Schärfste Sanktion ist die Anordnung, die betreffenden Inhalte aus dem Netz zu nehmen.
Doch das Geschäftsmodell der Online-Plattformen bleibt das Gleiche, und es basiert eben darauf, Nutzer:innen möglichst lange bei der Stange zu halten. Das funktioniert am besten mit Emotionen, und Emotionen lassen sich besonders gut mit negativen Nachrichten erzeugen. Intensive Debatten bedeuten hohe Verweilzeiten und das wiederum bedeutet gute Werbeeinnahmen.
Was tut die Politik?
Die Europäische Union geht seit dem Jahr 2015 gezielter gegen Desinformation vor. Dafür wurde eine Task Force eingerichtet und die Webseite EU vs DisInfo. Im Rahmen eines Aktionsplans betreiben die EU-Mitgliedstaaten gemeinsam ein Schnellwarnsystem. Zudem gibt es Unterstützung für Medien und unabhängige Faktenchecker.
Im Jahr 2023 ist das Gesetz für digitale Dienste (Digital Services Act, kurz DSA) in Kraft getreten. Es soll die Marktmacht von Konzernen wie Google, Meta oder Amazon beschränken. Der DSA soll unter anderem dafür sorgen, dass Desinformationen auf den Plattformen bekämpft und personalisierte Werbung eingeschränkt wird.
Mit Inkrafttreten des Gesetzes nahm die Bundesnetzagentur ihre Arbeit als zentraler Koordinator für Digitale Dienste in Deutschland auf. Als Digital Services Coordinator (DSC) überwacht die Bundesnetzagentur, dass Online-Dienste die neuen Regeln einhalten. Bei systematischen Verstößen kann der DSC Zwangs- und Bußgelder verhängen.