ChatGPT: Kann KI Deepfakes entlarven? Neue Fortschritte in der Erkennung von KI-generierten Bildern

Es stellt sich die Frage: Kann ChatGPT in einer Zeit, in der gefälschte Bilder und Videos immer realistischer werden, Deepfakes entlarven? Mit der rasanten Entwicklung von KI-Technologien und ihrer zunehmenden Integration in unser tägliches Leben wird diese Frage immer wichtiger. Die University at Buffalo hat das untersucht und präsentiert die neuesten Ergebnisse.

Deepfakes: Eine Wachsende Herausforderung

Gefährliche Fakes: Von Videos über Fotos bis hin zu Sprachaufnahmen kann heute so gut wie jede digitale Datei täuschend echt gefälscht werden und damit großen Schaden anrichten. Bei der Entlarvung solcher Deepfakes könnte in Zukunft überraschenderweise ChatGPT helfen. Zwar kann der Chatbot Fälschungen nicht so zuverlässig erkennen wie speziell dafür entwickelte Algorithmen, dafür hat er aber einen besonderen Vorteil.

Chatbots sind auch zur Bildanalyse fähig: Die Herausforderung durch Deepfakes

Hochentwickelte KI-gestützte Programme machen es heute einfacher denn je, täuschend echte Fälschungen – sogenannte Deepfakes – zu erstellen. So ging im vergangenen Jahr ein KI-gestütztes Foto viral, das Papst Franziskus in einer modischen Daunenjacke zeigte. Auch die Bürgermeister von Berlin, Madrid und Wien wähnten sich bereits in einer Videokonferenz mit einem Vitali Klitschko, der gar keiner war, und künstlich erzeugte Stimmen helfen Betrügern inzwischen, am Telefon wie nahestehende Personen zu klingen.

Reale Vorbilder im Visier: Die Entlarvung von Deepfakes

Um den Schaden einzudämmen, der durch täuschend echte Videos, Fotos und Sprachaufnahmen entstehen kann, ist eine zuverlässige Deepfake-Erkennungssoftware erforderlich. Entsprechende Algorithmen sind bereits verfügbar und können in weit über 90 Prozent der Fälle Realität und Illusion korrekt unterscheiden. Die neuesten Versionen des KI-Chatbots ChatGPT, der eigentlich auf menschliche Sprache in Textform spezialisiert ist, können mittlerweile auch Bilder analysieren. Um zu verstehen, was auf einem Bild zu sehen ist, greift das Programm auf eine große Datenbank mit Bildunterschriften zurück und lernt so immer besser, wie Worte und Bilder zueinander in Beziehung stehen.

Neueste Versionen des Chatbots: ChatGPT und die Deepfake-Erkennung

Heißt das aber auch, dass ChatGPT gefälschte Bilder erkennen kann? Um das herauszufinden, haben Computerwissenschaftler um Shan Jia von der University at Buffalo dem Chatbot tausende Bilder mit echten und gefälschten Gesichtern gezeigt und ihn jeweils nach Anzeichen von Manipulation suchen lassen. Neuere Versionen von KI-Chatbots sind zunehmend in der Lage, synthetische Bilder und Videos zu erkennen. Besonders vielversprechend ist die Forschung von Siwei Lyu und Shan Jia von der University at Buffalo, die zeigen konnten, dass bestehende Modelle zur Erkennung von Fälschungen durch gezieltes Training an neue Aufgaben angepasst werden können. Eine entscheidende Rolle spielen dabei Algorithmen, die je nach Fälschungsmethode spezifische Merkmale analysieren.

ChatGPT entlarven Deepfakes: Ein vielseitiges Werkzeug

Und tatsächlich: Je nach Fälschungsmethode konnte ChatGPT im Test zwischen 77,2 und 79,5 Prozent der Deepfakes korrekt als solche identifizieren, wie die Forscher berichten. „Das ist vergleichbar mit früheren Methoden zur Erkennung von Deepfakes, so dass ChatGPT mit der richtigen Anleitung eine recht gute Leistung bei der Erkennung von KI-generierten Bildern erzielen kann“, berichtet Seniorautor Siwei Lyu von der University at Buffalo. Viel entscheidender ist aber eine andere Eigenschaft des Chatbots: „Bestehende Modelle zur Erkennung von Fälschungen sagen uns zwar, wie wahrscheinlich es ist, dass ein Bild echt oder gefälscht ist, aber sie sagen uns selten, warum sie zu diesem Schluss gekommen sind“, erklärt Lyu.

Geben Schwarze Löcher Aufschluss? Chatbots zur Bildanalyse

Im Gegensatz dazu ist alles, was ChatGPT ausgibt, für den Menschen verständlich. Denn das Programm erklärt in einfacher und verständlicher Sprache, was genau ihm an einem Foto merkwürdig vorkommt. Bei einem KI-generierten Foto eines Mannes mit Brille machte ChatGPT das Forscherteam zum Beispiel auf folgende Auffälligkeiten aufmerksam: „Die Haare auf der linken Seite des Bildes sind etwas unscharf“ und „Der Übergang zwischen Person und Hintergrund ist etwas abrupt und es fehlt an Tiefe“. Solche für jedermann verständlichen Erklärungen machen die Deepfake-Erkennung mit ChatGPT wesentlich benutzerfreundlicher und praktikabler als mit herkömmlichen Systemen.

Zukunft der Deepfake-Erkennungssoftware

Ein weiterer wichtiger Aspekt ist die Integration dieser Technologien in bestehende Deepfake Detection Systeme. Unternehmen und Institutionen können von den Fortschritten profitieren, indem sie KI-basierte Tools wie ChatGPT in ihre Sicherheitsprotokolle integrieren. Dadurch wird die Erkennung gefälschter Bilder und Videos effizienter und zuverlässiger. Die weitere Entwicklung dieser Technologien verspricht eine deutliche Verbesserung der digitalen Sicherheit und eine Stärkung des Vertrauens in visuelle Medien.

Beitrag teilen
Kontakt aufnehmen