The next Level of fake news: Ist das was wir sehen noch real?

(Medientage, 2019) „Fake News sind eine Debatte von gestern”, sagte Moderator Richard Gutjahr zu Beginn des Vortrags. Aktuell in der Ära der Smartphone-News seien die Deepfakes (eine Wortschöpfung aus „deep learning“ (KI) und „fake“). Trotz einer Darstellung von Angela Merkel mit Trump-Gesicht und einem bekannten Fake-Clip mit Mark Zuckerberg gab es in dieser Hinsicht noch keine folgenreichen Skandale. Auf Künstliche Intelligenz gestützte synthetische Videos stellen den Journalismus jedoch vor neue Rechercheaufgaben: Wie lassen sich die täuschend echten Clips von authentischem Material unterscheiden? Zu diesem Zweck initiierten Hazel Baker und ihr Team ein bislang einzigartiges internes Experiment: Sie schufen ihr eigenes Deepfake und präsentierten es dem Newsroom zur Überprüfung, um „unsere eigenen Methoden und Abläufe einem Test zu unterziehen“, berichtete Baker. In dieser Versuchsanordnung erzeugten sie gemäß der üblichen Deepfake-Produktion – also KI-Neuschöpfung aufgrund von Bewegungsanalyse des Quellenmaterials – das vermeintliche Interview mit einer ebenfalls imaginären französischsprachigen Konzernchefin. Mit Hilfe eines Londoner Startups, das „reanimierte“ Videos für Synchronfassungen nutzt, gab es der Modell stehenden Reuters-Kollegin den fast makellosen Eindruck einer französischen Managerin: „Was sie da recht überzeugend sagte, machte die englischsprachige Kollegin sprachlos“, berichtete Baker. Beruhigend war die Reaktion aus dem Newsroom: Alle Befragten waren sich einig, dass mit dem Video „etwas nicht stimme“. Als Warnsignale identifizierten die Journalisten fehlende Synchronität bei gewissen Lauten, inkongruente Lippenbewegungen und roboterhafte Bewegungen der Protagonistin. 

 

Instinktive Empfindungen von Künstlichkeit, kombiniert mit journalistischer Expertise und handwerkliche Einordnung des Materials in größere Zusammenhänge: Dies sind nach Einschätzung von Baker die Grundlagen, auf denen man der momentanen „ersten Welle von Deepfakes“ begegnen müsse. Ob geschärftes Bewusstsein allein reiche, mit der rasant fortschreitenden technischen Verfeinerung Schritt zu halten, werde sich zeigen: „Dazu muss unsere Methodik geradezu forensisch werden.“ Neben konventionell bearbeiteten, geschnittenen, inszenierten und mit Computer Generated Imagery versehenen Nachrichtenbildern seien Deepfakes nur das „extreme Ende der manipulativen Fahnenstange“.

 

Gefahr für die Nachrichtenindustrie drohe momentan also nur, wenn Redaktionen ihre Intuition missachteten. Was zähle sei akribischer Vergleich und kritisches Hinterfragen: etwas sehr Journalistisches – und zutiefst Menschliches.