Kann ChatGPT in einer Zeit, in der gefälschte Bilder und Videos immer realistischer werden, dabei helfen, Deepfakes zu entlarven? Mit der rasanten Entwicklung von KI-Technologien und ihrer zunehmenden Integration in unseren Alltag gewinnt diese Frage an Bedeutung. Forschende der University at Buffalo sind dieser Frage nachgegangen und präsentieren ihre neuesten Ergebnisse.
Deepfakes: Eine wachsende Herausforderung
Täuschend echte Fälschungen stellen eine ernsthafte Bedrohung dar: Von manipulierten Videos über gefälschte Fotos bis hin zu künstlich erzeugten Stimmen – digitale Inhalte können heute so realistisch gefälscht werden, dass sie erheblichen Schaden anrichten können. Besonders brisant wird es, wenn Deepfakes gezielt zur Täuschung eingesetzt werden, etwa in der Politik, bei Betrügereien oder zur Manipulation von Informationen.
Interessanterweise könnte ChatGPT in Zukunft helfen, solche Fälschungen zu entlarven. Während spezialisierte Algorithmen bereits hohe Erkennungsraten erzielen, hat der KI-gestützte Chatbot einen entscheidenden Vorteil: Er kann nicht nur Ergebnisse liefern, sondern diese auch in verständlicher Sprache erklären.
Die Herausforderung durch Deepfakes
Die technische Entwicklung schreitet rasant voran: KI-gestützte Programme ermöglichen es heute, in kürzester Zeit realistisch aussehende Deepfakes zu erstellen. Ein prominentes Beispiel war das virale Bild von Papst Franziskus in einer modischen Daunenjacke, das weltweit für Verwirrung sorgte. Auch mehrere europäische Bürgermeister wurden bereits durch gefälschte Videokonferenzen mit einem digitalen Double von Vitali Klitschko getäuscht. Darüber hinaus nutzen Betrüger immer häufiger KI-generierte Stimmen, um sich am Telefon als Familienmitglieder oder Geschäftspartner auszugeben. Diese Entwicklungen verdeutlichen den dringenden Bedarf an leistungsfähigen Erkennungsmethoden.
Wie ChatGPT Deepfakes analysiert
Klassische Deepfake-Erkennungssoftware basiert auf speziellen Algorithmen, die in über 90 Prozent der Fälle zwischen echten und gefälschten Inhalten unterscheiden können. Neuere Versionen von ChatGPT, die nun auch Bilder analysieren können, stellen jedoch eine interessante Ergänzung zu diesen Systemen dar.
Um die Fähigkeiten von ChatGPT bei der Deepfake-Analyse zu testen, haben Computerwissenschaftler um Shan Jia von der University at Buffalo dem Chatbot tausende Bilder vorgelegt – sowohl echte als auch gefälschte. Ziel war es herauszufinden, ob ChatGPT in der Lage ist, Anzeichen von Manipulation zu erkennen. Die Ergebnisse sind vielversprechend: Je nach Art der Fälschung lag die Erkennungsrate zwischen 77,2 und 79,5 Prozent.
Eine weitere Studie aus 2024 untersuchte die Fähigkeiten von ChatGPT bei der Erkennung von audiovisuellen Deepfakes. Die Forschenden stellten fest, dass ChatGPT in der Lage ist, sowohl visuelle als auch auditive Artefakte und Manipulationen in audiovisuellen Deepfake-Inhalten zu identifizieren. Die Studie betont die Bedeutung von Domänenwissen und gezieltem Prompt-Engineering, um die Erkennungsleistung von ChatGPT in diesem Kontext zu maximieren.
[dipi_library_layout id=”27005098″]
Der entscheidende Vorteil von ChatGPT
Spezialisierte Erkennungssoftware kann mit noch höheren Trefferquoten punkten. Doch ein zentrales Problem bleibt: Sie liefert oft nur eine Wahrscheinlichkeit für eine Fälschung – aber keine Begründung. Hier setzt ChatGPT an. Denn statt nur eine Einschätzung abzugeben, kann der Chatbot detailliert erklären, warum ein Bild manipuliert sein könnte. In einem Test bemerkte ChatGPT beispielsweise, dass „die Haare auf der linken Seite des Bildes etwas unscharf sind“ oder dass „der Übergang zwischen Person und Hintergrund abrupt wirkt und es an Tiefe fehlt“.
Zukunft der Deepfake-Erkennungssoftware
Die Studien unterstreichen das Potenzial von ChatGPT und ähnlichen LLMs in der Deepfake-Erkennung, insbesondere aufgrund ihrer Fähigkeit, Ergebnisse nachvollziehbar zu kommunizieren. Die Integration solcher Technologien in bestehende Sicherheitssysteme könnte die digitale Sicherheit erheblich verbessern. Unternehmen, Institutionen und sogar Privatpersonen könnten von KI-basierten Tools profitieren, um gefälschte Inhalte schneller und zuverlässiger zu erkennen.
Während spezialisierte Algorithmen weiterhin die Hauptrolle bei der technischen Erkennung spielen, könnte ChatGPT vor allem als unterstützendes Werkzeug dienen – indem es verständliche Erklärungen liefert und hilft, Menschen für Deepfakes zu sensibilisieren. Die Entwicklung schreitet rasant voran. Und eines ist sicher: In Zukunft wird eine Kombination aus leistungsfähiger Erkennungstechnologie und KI-gestützten Analysetools wie ChatGPT eine entscheidende Rolle im Kampf gegen Deepfakes spielen.





























