Mittlerweile lassen sich KI-generierte Bilder kaum noch von echten Fotos unterscheiden. Deshalb müssen Plattformen wie Google handeln.
C2PA für Suchergebnisse und Werbung
Google plant die Integration der C2PA-Provenienz-Technologie der Content Authenticity Initiative (CAI) in seine Such- und Werbedienste, um besser zu erkennen, ob ein Bild direkt aus einer Kamera stammt, bearbeitet oder komplett durch KI erstellt wurde.
Als Mitglied des CAI-Lenkungsausschusses möchte Google die Content Credentials in die Bildersuche und Werbeanzeigen integrieren. Nutzer können dann über die Option „Über dieses Bild“ erfahren, ob KI-Werkzeuge bei der Erstellung oder Bearbeitung zum Einsatz kamen. Auch das Werbeanzeigen-System soll um C2PA-Signale erweitert werden, um damit wichtige Richtlinien durchzusetzen.
Laut Google hat man in der ersten Jahreshälfte an der Entwicklung von Version 2.1 der Content Credentials mitgearbeitet. „Diese Version ist aufgrund strengerer technischer Anforderungen an die Validierung der Herkunftsgeschichte der Inhalte sicherer gegen ein breiteres Spektrum von Manipulationsangriffen“, heißt es im Blogeintrag. „Die Verstärkung des Schutzes gegen diese Arten von Angriffen trägt dazu bei, dass die beigefügten Daten nicht verändert oder irreführend sind.“
Hardware hinkt immer noch hinterher
Allerdings funktioniert das System nur, wenn die Bilder tatsächlich C2PA-Metadaten enthalten. Über den aktuellen Status quo und vor allem die Herausforderungen habe ich hier im Blog erst vor einigen Wochen geschrieben.
Obwohl die meisten Kamerahersteller dem C2PA-Standard beigetreten sind, nutzen bisher nur wenige Modelle wie die Leica M11-P die Technologie aktiv. Google ermutigt daher mehr Hardware-Anbieter, Content Credentials zu implementieren und so das Vertrauen in digitale Bilder zu stärken.
Auch auf YouTube sollen Zuschauer zukünftig Zugriff auf C2PA-Informationen erhalten, wenn Inhalte mit einer Kamera aufgenommen wurden. Google setzt jedoch nicht ausschließlich auf C2PA, sondern nutzt auch sein selbstentwickeltes SynthID und engagiert sich in weiteren Initiativen zur KI-Sicherheit und -Forschung. Gleichzeitig kommt Kritik auf, dass gerade die verblüffend realistischen „Reimagine“-Bearbeitungen der neuen Pixel-9-Smartphones den KI-Einsatz nicht ausreichend kennzeichnen.
via: PetaPixel | Beitragsbild: Christian Wiediger
Persönlich sehe ich das Thema entspannter weil meine „Werke“ bis auf den RAW-Konverter und die Bildbearbeitung echt sind.
Was zur Zeit in den sozialen Medien abgeht (gewarnt wurde schon vor vielen vielen Jahren) ist erschreckend. „Einfangen“ lässt sich das kaum noch.
Google und die Versuche dagegen zu steuern sind aller Ehren wert denn schriftliche, fotografische, ideologische Inhalte zu überwachen geht erstens nicht wirklich und zweitens ist das ein sehr zweischneidiges Schwert – siehe autoritäre Staatsformen.
Möchte ich persönlich C2PA-Metadaten automatisch hinterlegen? In den Kamera Einstellungen ausschalten MUSS mir gestattet sein.
Aber bei den Google-eigenen Smartphones werden dann ohne Ende KI-Spielereien für die Fotos-App in der Fernsehwerbung vermarktet, die allesamt Fake sind weil sich da irgendwas zusammengebastelt wird, was so auf dem Foto nicht stattgefunden hat. Ich sehe es kritisch weil gerade das Fake-News im Netz begünstigt.