Manche Geschichten sind zu schön, um wahr zu sein. Ein Beispiel gefällig? Die erste Ausstrahlung der Hörspielfassung des Science-Fiction-Klassikers »Krieg der Welten« am Vorabend des Halloween-Festes 1938 löste in den USA eine Massenpanik aus. Die Hörer*innen der Sendung seien nicht in der Lage gewesen, Fiktion von Realität zu unterscheiden und hätten die »live« im Radio übertragene Schilderung einer Invasion der Erde durch Marsbewohner*innen für bare Münze genommen. Eine schöne Geschichte, die tags drauf auch eifrig vom Konkurrenzmedium Tageszeitung weiterverbreitet und mit Schlagzeilen wie »Radioshow versetzt Nation in Schrecken« oder »Viele flüchten aus ihren Häusern ›vor Gasangriff vom Mars‹« versehen wurde. Das Problem nur: Auch wenn es vereinzelte Irritationen im Zuge der Ausstrahlung gegeben haben mag und sich besorgte Hörer*innen beim Sender CBS meldeten, die behauptete Massenpanik löste das Hörspiel keinesfalls aus.

Auf den ersten Blick scheint es nicht gerade wahrscheinlich, dass ein solches Szenario sich heutzutage wiederholen könnte. Sowohl Radio als auch Tageszeitung haben ihre einstige Vormachtstellung als Informationsquelle eingebüßt und die Möglichkeiten zur Verifizierung einer Nachricht im Digitalen Zeitalter sind gänzlich andere, als das noch im 20. Jahrhundert der Fall war. Die Fragen danach, wer und warum eine bestimmte Meldung verbreitet, wie diese belegt wird, ob es weitere Quellen gibt oder gar Anzeichen für eine Manipulation – all das lässt sich mit ein wenig Onlinerecherche verhältnismäßig schnell in Erfahrung bringen. Zumindest, wenn man als Rezipient*in Interesse daran hat. Doch gerade in unsicheren und krisenhaften Zeiten sind Menschen – insbesondere jene, die ihre Ansichten ohnehin gerne bestätigt sehen – anfällig für Fake News.

Angesichts der Kriege in der Ukraine und Nahost sowie der anstehenden Präsidentschaftswahlen in den USA könnte man es fast als schlechtes Timing bezeichnen, dass das hinter ChatGPT stehende Unternehmen OpenAI kürzlich mit dem Video-Generator Sora seinen neuesten Coup vorstellte. Ähnlich wie beim Bildgenerator Dall-E, soll die KI künftig mit nur wenigen Befehlen aus Text hochauflösende Videos kreieren. OpenAI-Chef Sam Altman wird zwar nicht müde zu betonen, dass man sich größte Mühe gebe, um mit der Software generierte Deepfakes – von pornografischen bis politischen Inhalten – zu unterbinden. So sollen etwa mit Sora erstellte Videos mit einem eigenen Wasserzeichen versehen werden.

Doch seien wir realistisch. Hat sich die Technologie einmal durchgesetzt, wird es zahlreiche alternative Programme zur Herstellung fragwürdiger Inhalte geben. Ganz zu Schweigen davon, dass gekränkten Männeregos die Authentizität eines sogenannten Rachepornos herzlich egal sein dürfte. Auch wer aus politischer Überzeugung »Belege« für die vermeintlichen Kriegsverbrechen eines ihm unliebsamen Staates sucht, wird sich kaum durch ein fehlendes Wasserzeichen auf deren KI-Generierung besinnen.

QOSHE - Neues Video-Tool »Sora«: Fake News 2.0 auf Knopfdruck - Joel Schmidt
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Neues Video-Tool »Sora«: Fake News 2.0 auf Knopfdruck

9 0
23.02.2024

Manche Geschichten sind zu schön, um wahr zu sein. Ein Beispiel gefällig? Die erste Ausstrahlung der Hörspielfassung des Science-Fiction-Klassikers »Krieg der Welten« am Vorabend des Halloween-Festes 1938 löste in den USA eine Massenpanik aus. Die Hörer*innen der Sendung seien nicht in der Lage gewesen, Fiktion von Realität zu unterscheiden und hätten die »live« im Radio übertragene Schilderung einer Invasion der Erde durch Marsbewohner*innen für bare Münze genommen. Eine schöne Geschichte, die tags drauf auch eifrig vom Konkurrenzmedium Tageszeitung weiterverbreitet und mit Schlagzeilen wie »Radioshow versetzt Nation in Schrecken« oder »Viele flüchten aus ihren Häusern ›vor Gasangriff vom Mars‹« versehen wurde. Das Problem nur: Auch........

© Neues Deutschland


Get it on Google Play