KI-Forschung KI-generierte Medien sind von Menschen kaum erkennbar

Verantwortliche:r Redakteur:in: Stefan Girschner 3 min Lesedauer

Anbieter zum Thema

KI-generierte Medien wie Bilder, Texte oder Audiodateien sind so überzeugend, dass Menschen diese nicht mehr von menschengemachten Inhalten unterscheiden können. Dies ist das Ergebnis einer Online-Befragung von rund 3.000 Teilnehmern aus Deutschland, China und den USA, die von der CISPA-Faculty durchgeführt wurde.

(Bild:  CISPA Helmholtz-Zentrum für Informationssicherheit)
(Bild: CISPA Helmholtz-Zentrum für Informationssicherheit)

Die rasanten Entwicklungen der letzten Jahre im Bereich der künstlichen Intelligenz haben zur Folge, dass mit nur wenigen Klicks massenhaft Bilder, Texte und Audiodateien generiert werden können. Prof. Dr. Thorsten Holz vom CISPA Helmholtz-Zentrum für Informationssicherheit erläutert, welche Risiken aus seiner Sicht damit verbunden sind: „Künstlich erzeugter Content kann vielfältig missbraucht werden. Wir haben in diesem Jahr wichtige Wahlen, wie die Wahlen zum EU-Parlament oder die Präsidentschaftswahl in den USA: Da können KI-generierte Medien sehr einfach für politische Meinungsmache genutzt werden. Ich sehe darin eine große Gefahr für unsere Demokratie“. 

Vor diesem Hintergrund ist die automatisierte Erkennung von KI-generierten Medien eine wichtige Herausforderung für die Forschung. Dr. Lea Schönherr vom CISPA Helmholtz-Zentrum für Informationssicherheit erklärt: „Das ist allerdings ein Wettlauf mit der Zeit. Medien die mit neu entwickelten Methoden zur Generierung mit KI erstellt sind, werden immer schwieriger mit automatischen Methoden erkannt. Deswegen kommt es im Endeffekt darauf an, ob ein Mensch das entsprechend einschätzen kann“. Dies war der Ausgangspunkt um zu untersuchen, ob Menschen überhaupt in der Lage sind, KI-generierte Medien zu identifizieren.

Prof. Dr. Thorsten Holz und Dr. Lea Schönherr von der CISPA-Faculty gemeinsam mit Joel Frank auf dem 45. IEEE Symposium on Security and Privacy in San Francisco (v.l.n.r.).(Bild:  CISPA Helmholtz-Zentrum für Informationssicherheit)
Prof. Dr. Thorsten Holz und Dr. Lea Schönherr von der CISPA-Faculty gemeinsam mit Joel Frank auf dem 45. IEEE Symposium on Security and Privacy in San Francisco (v.l.n.r.).
(Bild: CISPA Helmholtz-Zentrum für Informationssicherheit)

Zum ersten Mal hat eine länderübergreifende Studie die Medienkompetenz der Menschen hinsichtlich KI überprüft. Dr. Lea Schönherr und Prof. Dr. Thorsten Holz von der CISPA-Faculty präsentierten die Ergebnisse der Studie "A Representative Study on Human Detection of Artificially Generated Media Across Countries" auf dem 45. IEEE Symposium on Security and Privacy in San Francisco in Kalifornien. Die Studie entstand in Kooperation mit der Ruhr-Universität Bochum, der Leibniz Universität Hannover sowie der TU Berlin.Mehrheit klassifiziert KI-generierte Medien als menschengemacht

Mehrheit klassifiziert KI-generierte Medien als menschengemacht

Die Ergebnisse der medien- und länderübergreifenden Studie sind erstaunlich: „Wir sind jetzt schon an dem Punkt, an dem es für Menschen schwierig ist – wenn auch noch nicht unmöglich – zu unterscheiden, ob etwas echt oder KI-generiert ist. Und das gilt eben für alle Arten von Medien: Text, Audio und Bild“ erklärt Holz. Die Teilnehmer klassifizierten KI-generierte Medien über alle Medienarten und Länder hinweg mehrheitlich als menschengemacht. „Überrascht hat uns, dass es sehr wenige Faktoren gibt, anhand derer man erklären kann, ob Menschen besser im Erkennen von KI-generierten Medien sind oder nicht. Selbst über verschiedene Altersgruppen hinweg und bei Faktoren wie Bildungshintergrund, politischer Einstellung oder Medienkompetenz, sind die Unterschiede nicht sehr signifikant“, so Holz weiter. 

Medien-Erkennung mit Abfrage soziobiografischer Daten kombiniertDie quantitative Studie wurde als Online-Befragung zwischen Juni 2022 und September 2022 in China, Deutschland und den USA durchgeführt. Per Zufallsprinzip wurden die Befragten einer der drei Mediengruppen „Text“, „Bild“ oder „Audio“ zugeordnet und sahen 50 Prozent reale und 50 Prozent KI-generierte Medien. Darüber hinaus wurden sozio-biografische Daten, das Wissen zu KI-generierten Medien sowie Faktoren wie Medienkompetenz, holistisches Denken, generelles Vertrauen, kognitive Reflexion und politische Orientierung erhoben. Nach der Datenbereinigung blieben 2.609 Datensätze übrig (822 USA, 875 Deutschland, 922 China), die in die Auswertung einflossen.  

Die in der Studie verwendeten KI-generierten Audio- und Text-Dateien wurden von den Forschern selbst generiert, die KI-generierten Bilder übernahmen sie aus einer existierenden Studie. Die Bilder waren fotorealistische Porträts, als Texte wurden Nachrichten gewählt und die Audio-Dateien waren Ausschnitte aus Literatur.

KI-generiete Medien – Ausgangspunkte für weitere Forschung

Das Ergebnis der Studie liefert wichtige Take-Aways für die Cybersicherheitsforschung: „Es besteht das Risiko, dass vor allem KI-generierte Texte und Audio-Dateien für Social Engineering-Angriffe genutzt werden. Denkbar ist, dass die nächste Generation von Phishing-Emails auf mich personalisiert ist und der Text perfekt zu mir passt“, erläutert Schönherr. Abwehrmechanismen für genau solche Angriffsszenarien zu entwickeln, darin sieht sie eine wichtige Aufgabe für die Zukunft. 

Aber aus der Studie ergeben sich auch weitere Forschungsdesiderata: „Zum einen müssen wir besser verstehen, wie Menschen überhaupt noch KI-generierte Medien unterscheiden können. Wir planen eine Laborstudie, wo Teilnehmer uns erklären sollen, woran sie erkennen, ob etwas KI-generiert ist oder nicht. Zum anderen müssen wir überlegen, wie wir das technisch unterstützen können, etwa durch Verfahren zum automatisierten Fakt-Checking,“ so Schönherr abschließend.

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung