
Das Phänomen der „Filterblasen“ und „Echokammern“ wird nicht erst seit Trumps Wahlsieg als mitentscheidend für die politische Meinungsbildung gesehen. In Deutschland sieht die Lage (noch) anders aus. Zu diesem Ergebnis kamen Experten während der MEDIENTAGE MÜNCHEN.
Konrad Lischka von der Bertelsmann Stiftung erklärte in seinem Impulsvortrag, dass „algorithmische, sortierte Intermediäre“ (z. B. Facebook und Twitter) relevant für die Meinungsbildung seien, aber nicht entscheidend. Bei einer Befragung im Rahmen einer Studie der Landesmedienanstalten über Algorithmen gaben im vergangenen Jahr 51 Prozent der Bürger an, das Fernsehen als Hauptquelle für ihre Nachrichten zu nutzen. Unter Hinweis auf den Psychologen Daniel Kahnemann wies Lischka darauf hin, dass Twitter und Facebook durch ihr auf mühelose Anwendung programmiertes Design die Tendenz der Nutzer unterstützten, Inhalte so zu wählen und zu interpretieren, dass sie die eigenen Erwartungen erfüllen. Lügen seien dabei oft attraktiver und erfolgreicher als die Wahrheit und provozierten mehr Reaktionen, erklärte Lischka. In Echokammern wachse die Polarisierung und außerdem die kognitive Verzerrung von Fakten. Nutzer bevorzugten es eben, sich mit Gleichgesinnten zu vernetzen.
Markus Engert von BuzzFeed Deutschland führte an, dass Menschen schon immer manipulierbar gewesen seien. Dieser Prozess der Manipulation trete jedoch durch das Internet deutlicher zutage. Der Nutzer müsse selbst sehen wollen, wie versucht wird, auf ihn Einfluss auszuüben, damit er Manipulation erkennen könne. Simon Hurtz, Redakteur Digital bei SZ.de und Süddeutscher Zeitung, betonte, dass seine Redaktion keinen Vertrauensverlust ihrer Leser in die Presse erkennen könne. Das sei in den USA anders. Er teilte Engerts Auffassung, dass die sozialen Online-Netzwerke Echokammer-Effekte verstärkten.
Dorothee Bär, CSU-Staatssekretärin beim Bundesminister für Verkehr und digitale Infrastruktur, berichtete von ihren Erlebnissen beim Bundestagswahlkampf. Dort hätten sich Menschen verstärkt über Lügen in den Zeitungen beschwert. Der Vertrauensverlust der Menschen in die Medien sei für sie auch in Deutschland spürbar.
Uneins war sich die Diskussionsrunde darüber, wie sich die Lage in Deutschland weiter entwickeln werde. Marcus Engert führte an, dass in Deutschland noch nicht mit so genannten DarkAds wie in Amerika gearbeitet werde. DarkAds sind Anzeigen, die nicht für jeden sichtbar und genau auf die einzelnen Nutzer zugeschnitten sind. Solche Inhalte hält Engert für extrem demokratiegefährdend. Damit könne eine Partei zu ihren Gunsten für verschiedene Zielgruppen inhaltlich unterschiedliche Anzeigen schalten: zum Beispiel eine, dass die Dieselnutzung umweltgefährdend ist, und eine weitere, dass durch eine Beschränkung der Diesel-Technologie Arbeitsplätze gefährdet seien.
Die Panel-Diskussion zeigte, wie komplex das Thema Meinungsbildung in Zeiten von Fake News und Intermediären ist. Bär fügte hinzu, dass selbst Gesetze bestimmte Phänomene nicht verhindern könnten. Stattdessen brauche es mündige Bürger. Menschen müssten selbst erkennen, reflektieren und wissen, was bei Social Media passiert, und in der Lage sein, einen Kommentar von einem Nachrichtenartikel zu unterscheiden. Während des Bundestagswahlkampfes habe die CSU in Zusammenarbeit mit der TU München weniger als sechshundert Social Bots herausgefiltert und gelöscht. Das sei im Vergleich mit Amerika eine sehr geringe Anzahl.
Hurtz ergänzte, dass das Atlantic Research Council den deutschen Wahlkampf begleitet habe und dabei nur etwa hundertdreißig Social Bots mit russischen Accounts gefunden habe, die circa tausendmal angeklickt worden seien. Es sehe demnach so aus, als hätten Bots in Deutschland keinen Erfolg. In Bezug auf Falschmeldungen erklärte der SZ-Redakteur, dass deutsche Medien zu deren Korrektur einen „ordentlichen Job“ machten, zum Beispiel die öffentlich-rechtlichen Sender, unter anderem die Faktenfinder von tagesschau.de. Hurtz räumte allerdings ein, dass diejenigen, die Falschmeldungen teilten, nicht unbedingt deren Richtigstellung berücksichtigten. Dies bestätigte Lischka. Die Menschen ließen keine Fakten gelten, die ihrem Weltbild nicht entsprächen. Sie berücksichtigten auch nicht die Richtigstellung von Informationen.
Im Endeffekt gehe es darum, welche Art von Social-Media-Plattformen wir wollten, schlussfolgerte Lischka und bezog sich damit wieder auf seinen Anfangsvortrag. Alle Plattformen seien auf den menschlichen „Denkmodus System 1“ (nach Kahnemann) ausgerichtet, der irrational und unreflektiert agiere. Wir bräuchten aber Plattformen, die so konzipiert seien, dass sie den „Denkmodus System 2“ (langsames Denken) bedienen: logisches und geordnetes Herangehen an Nachrichten, das nicht emotional aufgeladen, sondern rational sei. Es bedürfe nicht nur einer Vielfaltssicherung der Nachrichten, Inhalte und Labels, sondern auch der Plattformarten und einer gut ausgebildeten Medienkompetenz, damit die Nutzer Manipulationsprozesse klar erkennen könnten.