Anzeige
Informatik

Erschwerte Erkennung

Können kryptografische Wasserzeichen eine Lösung sein?

DALL-E, Impogen, Stable Diffusion und Co ermöglichen es, fotorealistische Bilder durch bloße Texteingaben zu erstellen – und auch Deepfakes können diese KI-Systeme erzeugen. „Es ist schon jetzt sehr gut in der Erzeugung täuschend echter Bilder und wird sich künftig noch verbessern“, erklärt Jonas Ricker von der Ruhr-Universität Bochum.

Jonas Ricker
Jonas Ricker von der Ruhr-Universität Bochum arbeitet an Methoden, die KI-generierte Bilder künftig automatisiert erkennen sollen. © RUB/ Michael Schwettmann

Universeller Detektor gesucht

Das macht es jedoch noch schwieriger, echte Bilder von den mit solchen KI-Systemen erzeugten zu unterscheiden. So klappt die Erkennung mithilfe der sogenannten Frequenzen bei den Erzeugnissen der Diffusionsmodelle weniger gut als bei Bildern der Generative Adversarial Networks (GAN). „Es gibt den Ansatz, die Reflexionen von Licht in den Augen für die Unterscheidung heranzuziehen – das klappt immerhin bei Bildern von Personen“, sagt Ricker. Der RUB-Forscher testet aktuell verschiedene Ansätze, die es erlauben, durch das Modell erzeugte Bilder von echten Fotos zu unterscheiden.

Doch ein universeller Detektor, der für alle möglichen GAN-Bilder funktioniert, funktioniert für diese Art von Bildern zum Beispiel eigentlich nicht – es sei denn, man stellt ihn durch ein gewisses Finetuning besser ein. Damit ist gemeint, dass man dem Detektor zusätzliche Trainingsdaten gibt, um die Detektion für die neuen Daten zu optimieren. So kann er lernen, die mittels Diffusion Model erzeugten Bilder korrekt zu unterscheiden. Wie zuverlässig das ist und wie die KI das genau macht, ist allerdings – wie bei vielen KI-basierten Prozessen – unklar.

Warum die Detektion von Deepfakes wichtig ist

Wichtig ist die Unterscheidung echter und gefälschter Bilder nicht nur, um Fake News zu enttarnen, die zum Beispiel als Video daherkommen, sondern auch, um Fake-Profile in Social Media dingfest zu machen. Sie werden in großem Stil eingesetzt, um zum Beispiel die öffentliche Meinung politisch zu beeinflussen. „Im Exzellenzcluster CASA geht es genau darum: Großskalige Angreifer wie Staaten oder Geheimdienste zu enttarnen, die über die Mittel verfügen, mittels Deepfakes Propaganda zu machen“, sagt RUB-Forscher Jonas Ricker.

Die Erkennung gefälschter Fotos hat auch strafrechtliche Relevanz, etwa wenn es um unfreiwillige Pornografie geht, bei der Gesichter von Personen auf die Körper von anderen montiert werden. „Ganz allgemein führt die Masse künstlich erzeugter Bilder zu einem Schwund an Vertrauen, auch in seriöse Medien“, so Jonas Ricker. „Letztlich wird jedes Bild dadurch verdächtig und auch verneinbar, sogar Bilder als Beweise vor Gericht.“

Anzeige

Kryptografisches „Wasserzeichen“ als Lösung?

Auch wenn Ricker daran arbeitet, dass gefälschte Bilder automatisch erkennbar werden, schätzt er, dass es letztlich auf etwas anderes hinauslaufen wird: „Ich glaube, am Ende wird es darum gehen, echte Bilder zu zertifizieren“, mutmaßt er. „Das könnte man sich zum Beispiel mit kryptografischen Methoden vorstellen, die schon in der Kamera des Fotografen eingebaut sein müssten und jedes echte Bild unzweifelhaft überprüfbar macht.“

  1. zurück
  2. |
  3. 1
  4. |
  5. 2
  6. |
  7. 3
  8. |
  9. 4
  10. |
  11. 5
  12. |
  13. weiter
Teilen:
Anzeige

In den Schlagzeilen

Inhalt des Dossiers

Deepfakes im Visier
Wie kann man mit künstlicher Intelligenz erzeugte Bilder erkennen?

Täuschend echt
Wie Deepfakes unsere Wahrnehmung überlisten

Wie entlarvt man Deepfakes?
Duellierende Netzwerke und verräterische Gitter

Deepfakes aus dem Rauschen
Wie kommt man Diffusionsmodellen auf die Schliche?

Erschwerte Erkennung
Können kryptografische Wasserzeichen eine Lösung sein?

Diaschauen zum Thema

News zum Thema

keine News verknüpft

Dossiers zum Thema