Berlin. KI-generierte Inhalte gefährden nicht nur Wahlen. Um die Missbrauchsgefahr zu reduzieren, braucht es massive Einschränkungen. Sofort.

Vor acht Jahren, bei seinem ersten Präsidentschaftswahlkampf, musste Donald Trump sich noch die Mühe machen, Gerüchte über seine politischen Gegner selbst in die Welt zu setzen. Wer heute Unwahrheiten über einen politischen Gegner verbreiten will, legt sie ihm einfach selbst in den Mund. So geschehen in New Hampshire, wo Joe Bidens Stimme digital imitiert wurde. Mit dieser Fake-Stimme wurden dann Wähler kontaktiert und aufgefordert, der Vorwahl fernzubleiben.

Es handelt sich um einen klaren Fall von versuchter Wahlmanipulation, eine schwere Straftat. Doch der investierte Aufwand entspricht eher einer Bagatelle. Nach Aussage des mutmaßlichen Fälschers hat die Sprachaufnahme einen Dollar gekostet und 20 Minuten Zeit in Anspruch genommen. Das zeigt deutlich: Die zugrunde liegende Technik ist übermäßig mächtig und gleichzeitig völlig unterreguliert.

Vor einem Monat hat die Firma OpenAI, die auch hinter ChatGPT steckt, Anwendungsbeispiele zu ihrem Text-zu-Video-Programm Sora vorgestellt. Einige Ergebnisse wirken wie aus einem Kinofilm, Fehler sind kaum zu erkennen. Dass es immer mehr Angebote gibt, bei denen Menschen lernen, Merkmale gefälschter Inhalte zu erkennen, ist daher zwar löblich, angesichts der immer realistischeren Ergebnisse aber verlorene Liebesmüh.

Auch das im Rahmen der Münchener Sicherheitskonferenz unterzeichnete Abkommen großer Techfirmen bleibt bisher wirkungslos. Es sind also verpflichtende gesetzliche Maßgaben notwendig. Die EU bringt dazu den AI Act auf den Weg, der greift allerdings erst in zwei Jahren vollständig. Bereits in diesem Jahr finden wegweisende Wahlen statt, daher müssen Anbieter und die internationale Politik sofort handeln. Neue Deepfake-Technologien dürfen der Öffentlichkeit erst zugänglich gemacht werden, wenn das Missbrauchsrisiko auf ein akzeptables Minimum gesenkt wurde. Auch bereits bestehende Technologien dieser Art müssen in gleichem Maße eingegrenzt werden.

Verlangsamt das den technischen Fortschritt? Vielleicht. Ganz sicher aber schützt es die Demokratie, deren Wesensmerkmal es ist, dass die Wählerinnen und Wähler informierte Entscheidungen treffen können. Das ist nicht mehr möglich, wenn jedes Foto, jedes Video, jeder Ton nicht nur manipuliert oder aus dem Kontext gerissen, sondern völlig frei erfunden sein könnte und gleichzeitig überzeugend echt wirkt. Der Rechtsstaat muss daher mit voller Härte auf Missbrauch KI-generierter Inhalte reagieren.

Zugegeben, es ist vermutlich unmöglich, Techniken, die bereits der Öffentlichkeit zugänglich waren, wieder vollständig unter Kontrolle zu bringen. Auch Russland wird weiterhin versuchen, mit gefälschten Inhalten Einfluss auf westliche Wahlen zu nehmen. Aber es wird immer Akteure geben, die die Demokratie attackieren. Und eine wehrhafte Demokratie zu sein, heißt undemokratischen Kräften den Zugang zu Waffen (auch der Manipulation) zu erschweren und die Nutzung dieser hart zu sanktionieren. Der gesamtgesellschaftliche Nutzen KI-generierter Inhalte ist überschaubar, die Gefahr unermesslich groß.

Dass bereits heute Politikern Aussagen wortwörtlich in den Mund gelegt werden, ist nicht nur aus Gründen des Persönlichkeitsrechts nicht hinzunehmen. Es handelt sich um die langsame Erosion der Glaubwürdigkeit von Bildern und Medieninhalten. „Traue keiner Statistik, die du nicht selbst gefälscht hast.“ Dieses Zitat wird oft Winston Churchill zugeschrieben, ob er es wirklich sagte, ist ironischerweise ungeklärt. Wenn die Deepfake-Technologie nicht so schnell wie möglich eingeschränkt wird, trifft es allerdings bald auf jede Bild-, Video- und Tonaufnahme zu.

QOSHE - Wer die Demokratie schützen will, muss Deepfakes verbieten - Florian Görres
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Wer die Demokratie schützen will, muss Deepfakes verbieten

8 0
19.03.2024

Berlin. KI-generierte Inhalte gefährden nicht nur Wahlen. Um die Missbrauchsgefahr zu reduzieren, braucht es massive Einschränkungen. Sofort.

Vor acht Jahren, bei seinem ersten Präsidentschaftswahlkampf, musste Donald Trump sich noch die Mühe machen, Gerüchte über seine politischen Gegner selbst in die Welt zu setzen. Wer heute Unwahrheiten über einen politischen Gegner verbreiten will, legt sie ihm einfach selbst in den Mund. So geschehen in New Hampshire, wo Joe Bidens Stimme digital imitiert wurde. Mit dieser Fake-Stimme wurden dann Wähler kontaktiert und aufgefordert, der Vorwahl fernzubleiben.

Es handelt sich um einen klaren Fall von versuchter Wahlmanipulation, eine schwere Straftat. Doch der investierte Aufwand entspricht eher einer Bagatelle. Nach Aussage des mutmaßlichen Fälschers hat die Sprachaufnahme einen Dollar gekostet und 20 Minuten Zeit in Anspruch genommen. Das zeigt deutlich: Die zugrunde........

© NRZ


Get it on Google Play