„PhotoGuard“, entwickelt von MIT CSAIL-Forschern, verhindert unbefugte Bildmanipulation und sichert die Authentizität im Zeitalter fortschrittlicher generativer Modelle.
Wir treten in eine neue Ära ein, in der Technologien, die von künstlicher Intelligenz angetrieben werden, Bilder mit einer Präzision gestalten und manipulieren können, die die Grenze zwischen Realität und Fälschung verwischt. Das Gespenst des Missbrauchs steht dabei groß im Raum. Kürzlich haben fortschrittliche generative Modelle wie DALL-E und Midjourney, die für ihre beeindruckende Präzision und benutzerfreundliche Oberfläche gefeiert werden, die Produktion von hyperrealistischen Bildern relativ mühelos gemacht. Da die Zugangsbarrieren gesenkt wurden, können auch unerfahrene Nutzer hochwertige Bilder aus einfachen Textbeschreibungen generieren und manipulieren - von harmlosen Bildänderungen bis hin zu bösartigen Veränderungen. Techniken wie das Wasserzeichen stellen eine vielversprechende Lösung dar, aber Missbrauch erfordert eine präventive (anstatt nur nachträgliche) Maßnahme.
Auf der Suche nach einer solchen neuen Maßnahme haben Forscher vom Computer Science and Artificial Intelligence Laboratory (CSAIL) des MIT "PhotoGuard" entwickelt, eine Technik, die Störungen verwendet - winzige Veränderungen in den Pixelwerten, die für das menschliche Auge unsichtbar, aber von Computermodellen erkennbar sind - die effektiv die Fähigkeit des Modells, das Bild zu manipulieren, stören.
PhotoGuard verwendet zwei verschiedene "Angriffsmethoden", um diese Störungen zu erzeugen. Der einfachere "Encoder"-Angriff zielt auf die latente Darstellung des Bildes im KI-Modell ab und veranlasst das Modell, das Bild als zufällige Einheit wahrzunehmen. Der ausgeklügeltere "Diffusion"-Angriff definiert ein Zielbild und optimiert die Störungen, um das endgültige Bild so nah wie möglich an das Ziel heranzubringen.
"Stellen Sie sich die Möglichkeit der betrügerischen Verbreitung gefälschter katastrophaler Ereignisse vor, wie einer Explosion an einem bedeutenden Wahrzeichen. Diese Täuschung kann Markttrends und die öffentliche Meinung manipulieren, aber die Risiken beschränken sich nicht auf den öffentlichen Bereich. Persönliche Bilder können unangemessen verändert und zur Erpressung verwendet werden, was bei großflächiger Durchführung erhebliche finanzielle Auswirkungen haben kann", sagt Hadi Salman, ein Doktorand im Bereich Elektrotechnik und Informatik (EECS) am MIT, Mitglied des MIT CSAIL und Hauptautor einer neuen Arbeit über PhotoGuard.
"In extremeren Szenarien könnten diese Modelle Stimmen und Bilder zur Inszenierung falscher Verbrechen simulieren, psychischen Stress und finanziellen Verlust verursachen. Die rasche Art dieser Aktionen verschärft das Problem. Selbst wenn die Täuschung schließlich aufgedeckt wird, ist der Schaden - ob rufschädigend, emotional oder finanziell - oft schon geschehen. Dies ist eine Realität für Opfer auf allen Ebenen, von Einzelpersonen, die in der Schule gemobbt werden, bis hin zur gesellschaftsweiten Manipulation."