Fotos und Videos sind ein mächtiges Instrument, um Menschen zu täuschen. Derzeit kursieren viele irreführende Bilder zum Nahost-Konflikt. Doch wie erkennt man, welche Darstellung echt ist – und was gefälscht wurde? Ein paar Tipps:

Typische Fehler: Auf sozialen Medien werden derzeit – neben realen Kriegsbildern – auch oft theatralisch aussehende Bilder gepostet, zum Beispiel solche, die scheinbar Kinder im Gazastreifen zeigen. Auf einem Bild trägt ein erschöpft aussehender Mann vier Kleinkinder, ein weiteres hält er an der Hand, hinter ihm ein zerbombtes Haus. Dieses Bild scheint mittels künstlicher Intelligenz erstellt worden zu sein. Es birgt klassische Fehler einer Bilder-KI. Die Gliedmaßen der Kinder und des Mannes sehen eigenartig aus, etwa sind bei dem nackten Fuß eines Kindes lediglich drei Zehen erkennbar. Nicht immer, aber manchmal unterlaufen Anwendungen der künstlichen Intelligenz solche Fehler: Hat eine Hand zu viele oder zu wenige Finger? Hat eine Person zu viele Zähne? Auch fallen oft Fehler an der Kleidung auf, wie Reißverschlüsse, wo keine hinpassen.

© Screenshot/Instagram

Ein perfider Trick: Das Gesicht des Ex-Präsidenten wurde bearbeitet, um den Verdacht zu streuen, ein Double würde ihn vertreten.

Hochganzoptik: Es lohnt sich auch, den Bildstil zu betrachten. Manche KI-Bilder wirken theatralisch, sie haben eine Hochglanzoptik beziehungsweise sieht es aus, als hätte jemand einen Social-Media-Filter über das Foto gelegt. Eine solche Optik ist kein Beleg, dass das Bild künstlich erstellt wurde. Es gibt auch echte Fotos, die beeindruckende Lichtverhältnisse abbilden oder über die ein Filter gelegt wurde. Nur sollte man bei ungewöhnlich eindrucksvollen Bildern die Quelle hinterfragen: Lässt sich herausfinden, wer das Foto aufgenommen hat? Haben etablierte Medien das Bild ebenfalls verwendet? Nicht immer wird man erkennen können, ob ein Bild real ist oder von einer KI erstellt wurde, es gibt täuschend echte Fälschungen. Doch wer schon viele KI-Bilder gesehen hat, erkennt womöglich wiederkehrende Stile der einzelnen Programme.

Das Wann und Wo hinterfragen: In vielen Fällen müssen Aufnahmen gar nicht erfunden werden. Es reicht, alte Bilder aus dem Kontext zu reißen: Ein Video zeigt einen zerstörten Stadtteil, Rauch steigt auf, im Hintergrund weint eine Person, und man hört traurige orientalische Musik. Eine Falschmeldung behauptet, man würde den Gazastreifen sehen. In Wirklichkeit zeigt das Video die türkische Stadt Antakya, welche ein Erdbeben im Februar verwüstete. Die Aufnahme davon ist seit dem 10. Februar 2023 online. Das Weinen im Hintergrund ist nicht im Original enthalten, das hat jemand später hinzugefügt. Irreführung mittels alter Aufnahmen kann man häufig mit Bilder-Rückwärtssuchen erkennen. Auf images.google.com, tineye.com oder yandex.com lassen sich Bilder hochladen, und man sieht, ob die Aufnahme schon früher im Web erschienen ist. Bei Videos empfiehlt es sich, einzelne Szenen zu screenshotten und dann dort hochzuladen. Vorsicht: Manchmal klappt die Bilder-Rückwärtssuche nicht – nur weil die Suchanfrage keine Treffer erzielt, heißt das nicht, dass das Bild neu und echt ist. Es lohnt sich, unterschiedliche Bilder-Suchmaschinen auszuprobieren, weil das die Chance erhöht, dass man das Ursprungsmaterial findet.

Ein Bild zeigt eine Menschenmenge, es heißt, man sähe eine Pro-Palästina-Demo in Spanien. In Wirklichkeit sieht man einen aktuellen innenpolitischen Protest gegen den spanischen Ministerpräsidenten.

Beliebte Geschichten: Es hilft, wiederkehrende Typen von Falschmeldungen zu kennen. Bei polarisierenden Themen werden Fotos riesiger Demos gepostet. Es wird behauptet, viele Menschen hätten für das eigene Anliegen demonstriert. Ein Bild zeigt eine Menschenmenge, es heißt, man sähe eine Pro-Palästina-Demo in Spanien. In Wirklichkeit sieht man einen aktuellen innenpolitischen Protest gegen den spanischen Ministerpräsidenten. Auch als die Corona-Demos in Österreich stattfanden, wurden alte Bilder uminterpretiert. Das Foto eines serbischen Popkonzerts wurde gepostet, und es wurde behauptet, man würde eine riesige Corona-Demo in Trieben in der Steiermark sehen. Auf Sites wie factcheck.afp.com, correctiv.org, reuters.com/fact-check und profil.at/faktiv findet man viele Faktenchecks. Wer bei solchen Medien mitliest, kriegt Einblick, welche Typen von Falschmeldungen oft auftreten.

Details im Bild: Manchmal lohnt es sich, fragwürdige Aufnahmen im Detail zu betrachten. Welche Sprache wird darin gesprochen? Passen Details (wie abgebildete Straßenschilder oder Polizeiuniformen) auch zum jeweiligen Land? Dann merkt man womöglich: Die Aufschrift auf einer Uniform ist auf Schwedisch – hier ist nicht Israel abgebildet. Ein Manko dieses Tipps ist, dass viele Videos, die angeblich Israel oder den Gazastreifen zeigen, aus Ländern wie Syrien oder dem Jemen stammen. Selbst Nahost-Expert:innen können bei manchen Fotos schwer erkennen, welches Land abgebildet ist. Apropos: Je mehr ein Foto oder Video verpixelt ist, sodass man keine Straßenschilder oder Aufschriften lesen kann, desto mehr ist das ein Warnsignal. Manche Dateien werden wahrscheinlich gezielt in schlechter Auflösung verbreitet, damit entlarvende Details nicht auffallen.

Mit diesen Tipps kann man einige visuelle Falschmeldungen erkennen – noch wichtiger ist, bei emotionalisierenden Themen Bildern generell zu misstrauen. Zum Nahost-Konflikt gibt es – auch aus unterschiedlichen Richtungen – viele irreführende Bilder, sodass man nur dann ein Foto als echt annehmen sollte, wenn etablierte Medien dieses auch teilen.

QOSHE - Fake News und Deep Fakes: Fünf Tipps gegen Fälschungen - Ingrid Brodnig
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Fake News und Deep Fakes: Fünf Tipps gegen Fälschungen

2 1
22.11.2023

Fotos und Videos sind ein mächtiges Instrument, um Menschen zu täuschen. Derzeit kursieren viele irreführende Bilder zum Nahost-Konflikt. Doch wie erkennt man, welche Darstellung echt ist – und was gefälscht wurde? Ein paar Tipps:

Typische Fehler: Auf sozialen Medien werden derzeit – neben realen Kriegsbildern – auch oft theatralisch aussehende Bilder gepostet, zum Beispiel solche, die scheinbar Kinder im Gazastreifen zeigen. Auf einem Bild trägt ein erschöpft aussehender Mann vier Kleinkinder, ein weiteres hält er an der Hand, hinter ihm ein zerbombtes Haus. Dieses Bild scheint mittels künstlicher Intelligenz erstellt worden zu sein. Es birgt klassische Fehler einer Bilder-KI. Die Gliedmaßen der Kinder und des Mannes sehen eigenartig aus, etwa sind bei dem nackten Fuß eines Kindes lediglich drei Zehen erkennbar. Nicht immer, aber manchmal unterlaufen Anwendungen der künstlichen Intelligenz solche Fehler: Hat eine Hand zu viele oder zu wenige Finger? Hat eine Person zu viele Zähne? Auch fallen oft Fehler an der Kleidung auf, wie Reißverschlüsse, wo keine hinpassen.

© Screenshot/Instagram

Ein perfider Trick: Das Gesicht des Ex-Präsidenten wurde bearbeitet, um den Verdacht zu streuen, ein Double würde ihn vertreten.

Hochganzoptik: Es lohnt sich auch, den Bildstil zu betrachten. Manche KI-Bilder wirken theatralisch, sie haben eine Hochglanzoptik........

© profil


Get it on Google Play