Google plant, in den kommenden Monaten eine Technologie in seine Suchmaschine zu integrieren, die anzeigt, woher ein Bild stammt. Mit einer neuen Funktion macht Google künftig transparent, ob ein Bild echt oder KI-generiert ist. Ob täuschend echte Deepfakes, manipulierte Fotos oder KI-generierte Bilder wie von Dall-E – Google hilft, Fälschungen zu entlarven. Ob Sie ein Journalist sind, der Fakten überprüft, ein Nutzer sozialer Medien, der sich vor Fake News schützen möchte, oder einfach jemand, der sich für die neuesten Technologien interessiert – diese Entwicklung betrifft uns alle.
Wie funktioniert das?
Die Technologie basiert auf dem C2PA-Standard (Content Credentials for Authenticating Provenance) und analysiert Metadaten, um die Herkunft eines Bildes zu bestimmen. Ganz gleich, ob Sie in der Google-Suche, bei Google Images, Google Lens oder sogar in Google Ads nach Bildern suchen – die Funktion zeigt an, ob ein Bild mit einer Kamera aufgenommen oder von einem KI-Programm wie Photoshop oder einem anderen KI-Tool erstellt wurde. Dieser Standard ermöglicht es, Metadaten in ein Bild einzubetten, die Informationen über seine Herkunft und mögliche Manipulationen enthalten. Google hat jedoch kein spezielles Tool unter eigenem Namen veröffentlicht. Stattdessen ist der C2PA-Standard in verschiedene Google-Produkte wie Google Search, Google Images und Google Lens integriert.
Künstliche Bilder erkennen: Warum ist das wichtig?
In Zeiten von Fake News und Desinformation ist es wichtiger denn je, die Echtheit von Bildern überprüfen zu können. Mit dieser neuen Funktion können Nutzer:
- Fälschungen entlarven: Ob bei politischen Kampagnen, in sozialen Medien oder in den Nachrichten – die Funktion hilft, manipulierte Inhalte zu erkennen.
- Das Vertrauen in digitale Inhalte stärken: Wenn wir wissen, was echt ist und was nicht, können wir fundiertere Entscheidungen treffen.
- Die Verbreitung von Desinformation eindämmen: Durch Transparenz wird es schwieriger, mit gefälschten Bildern die öffentliche Meinung zu manipulieren.
Google will auch Echtheitsprüfung für YouTube-Inhalte einführen
- Google plant, die Überprüfung der Echtheit von Inhalten auch auf YouTube auszuweiten, um die Verbreitung von Deepfakes und anderen Fälschungen einzudämmen.
- Die technische Umsetzung der Echtheitsprüfung auf YouTube ist zwar komplex, aber Google ist zuversichtlich, eine Lösung zu finden.
- Indem Google die Echtheit von Inhalten auf YouTube transparent macht, könnte es einen Dominoeffekt auslösen und andere Plattformen dazu anregen, ähnliche Funktionen einzuführen.
Welche Herausforderungen gibt es?
Obwohl dies ein großer Schritt nach vorne ist, gibt es noch Herausforderungen zu bewältigen. Dazu gehören
- Datenschutz: Die Sammlung und Analyse von Metadaten wirft Fragen des Datenschutzes auf.
- Genauigkeit: Die Technologie ist noch nicht perfekt und kann komplexe Fälschungen möglicherweise übersehen.
- Missbrauch: Es besteht die Gefahr, dass die Technologie missbraucht wird, um Meinungen zu manipulieren oder die freie Meinungsäußerung einzuschränken.
Schluss mit Bildmanipulation durch KI-Bilder?
Die Manipulation von Bildern, sei es durch KI oder durch KI-Programme, wird vermutlich eingedämmt. Die Google Bildersuche wird in Zukunft generierte Bilder besser identifizieren, so dass sich die Nutzer vor Fakes schützen können. Mit dem neuen Algorithmus können Nutzerinnen und Nutzer täuschend echte Bilder und Deepfakes erkennen, die im Zusammenhang mit Fake News kursieren. Dies trägt dazu bei, den Instinkt zu stärken und sicherzustellen, dass die Inhalte, die sie sehen, seriös sind.
Auch Midjourney und andere Plattformen, die künstliche Intelligenz nutzen, stehen unter Beobachtung. Es bleibt eine Herausforderung, manipulierte Inhalte im Internet zu erkennen und zu überprüfen, um die Integrität der Informationsverbreitung zu gewährleisten. Trotz der Herausforderungen ist die Initiative von Google ein wichtiger Schritt in die richtige Richtung. Mit der neuen Funktion wird die Bildersuche transparenter und sicherer.