banner
Casa / Notizia / Utilizzo dell'intelligenza artificiale per proteggersi dalla manipolazione delle immagini dell'intelligenza artificiale
Notizia

Utilizzo dell'intelligenza artificiale per proteggersi dalla manipolazione delle immagini dell'intelligenza artificiale

Jan 14, 2024Jan 14, 2024

Immagine precedente Immagine successiva

Mentre entriamo in una nuova era in cui le tecnologie basate sull’intelligenza artificiale possono creare e manipolare le immagini con una precisione che offusca il confine tra realtà e fabbricazione, lo spettro dell’abuso incombe. Recentemente, modelli generativi avanzati come DALL-E e Midjourney, celebrati per la loro precisione impressionante e le interfacce intuitive, hanno reso la produzione di immagini iperrealistiche relativamente semplice. Con le barriere d'ingresso abbassate, anche gli utenti inesperti possono generare e manipolare immagini di alta qualità da semplici descrizioni testuali, spaziando da innocenti alterazioni delle immagini a modifiche dannose. Tecniche come il watermarking rappresentano una soluzione promettente, ma l’uso improprio richiede una misura preventiva (invece che solo post hoc).

Nel tentativo di creare una misura così nuova, i ricercatori del Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT hanno sviluppato “PhotoGuard”, una tecnica che utilizza perturbazioni – minuscole alterazioni nei valori dei pixel invisibili all’occhio umano ma rilevabili dai modelli computerizzati – che interrompe efficacemente la capacità del modello di manipolare l'immagine.

PhotoGuard utilizza due diversi metodi di "attacco" per generare queste perturbazioni. L'attacco “codificatore” più diretto prende di mira la rappresentazione latente dell'immagine nel modello AI, facendo sì che il modello percepisca l'immagine come un'entità casuale. La più sofisticata “diffusione” definisce un'immagine target e ottimizza le perturbazioni per rendere l'immagine finale il più simile possibile al target.

“Considera la possibilità di propagazione fraudolenta di falsi eventi catastrofici, come un’esplosione in un punto di riferimento significativo. Questo inganno può manipolare le tendenze del mercato e il sentimento pubblico, ma i rischi non si limitano alla sfera pubblica. Le immagini personali possono essere alterate in modo inappropriato e utilizzate a scopo di ricatto, con conseguenti implicazioni finanziarie significative se eseguite su larga scala", afferma Hadi Salman, uno studente laureato del MIT in ingegneria elettrica e informatica (EECS), affiliato del MIT CSAIL e autore principale di un nuovo articolo su PhotoGuard.

“In scenari più estremi, questi modelli potrebbero simulare voci e immagini per inscenare falsi crimini, infliggendo disagio psicologico e perdite finanziarie. La natura rapida di queste azioni aggrava il problema. Anche quando alla fine l’inganno viene scoperto, il danno – sia reputazionale, emotivo o finanziario – spesso si è già verificato. Questa è una realtà per le vittime a tutti i livelli, dagli individui vittime di bullismo a scuola alla manipolazione a livello sociale”.

PhotoGuard in pratica

I modelli di intelligenza artificiale visualizzano un’immagine in modo diverso da come la vedono gli esseri umani. Vede un'immagine come un insieme complesso di punti dati matematici che descrivono il colore e la posizione di ogni pixel: questa è la rappresentazione latente dell'immagine. L'attacco del codificatore introduce piccole modifiche in questa rappresentazione matematica, facendo sì che il modello AI percepisca l'immagine come un'entità casuale. Di conseguenza, qualsiasi tentativo di manipolare l'immagine utilizzando il modello diventa quasi impossibile. Le modifiche introdotte sono così minute da risultare invisibili all'occhio umano, preservando così l'integrità visiva dell'immagine e garantendone la protezione.

Il secondo e decisamente più intricato attacco di “diffusione” prende di mira strategicamente l’intero modello di diffusione end-to-end. Ciò comporta la determinazione di un'immagine target desiderata e quindi l'avvio di un processo di ottimizzazione con l'intenzione di allineare strettamente l'immagine generata con questo target preselezionato.

Durante l'implementazione, il team ha creato perturbazioni all'interno dello spazio di input dell'immagine originale. Queste perturbazioni vengono poi utilizzate durante la fase di inferenza e applicate alle immagini, offrendo una solida difesa contro la manipolazione non autorizzata.

“I progressi nell’intelligenza artificiale a cui stiamo assistendo sono davvero mozzafiato, ma consentono usi sia benefici che dannosi dell’intelligenza artificiale”, afferma Aleksander Madry, professore di EECS del MIT e ricercatore principale di CSAIL, che è anche uno degli autori dell’articolo. “È quindi urgente lavorare per identificare e mitigare quest’ultimo. Considero PhotoGuard come il nostro piccolo contributo a questo importante sforzo."