Generated Images

Software denudatori, quando l’IA riscrive i corpi by Filippo Venturi

SOFTWARE DENUDATORI
Quando l’IA riscrive i corpi

Grok, l’intelligenza artificiale di Elon Musk, interpellabile sul social network X (ex Twitter), consente da qualche tempo di modificare in pochi secondi le fotografie condivise da altri utenti, pubblicando direttamente il risultato sulla piattaforma.

Così può capitare che una ragazza condivida una propria fotografia e gli utenti, nei commenti, chiedano a Grok di mostrarla in bikini, di farla diventare un uomo, di mostrarne il viso che nella foto originale era celato (il viso generato, presumibilmente, è inventato e non quello reale; ma non sarebbe difficile istruire una IA a cercare altre foto nel profilo di quella ragazza per risalire al viso e inserirlo nell'immagine generata) e così via.

Se è facilmente intuibile quali possano essere le conseguenze negative di questa nuova possibilità, non è ben chiaro quali siano quelle positive. Prima o poi ci scapperà qualche post divertente, e poi? Tutti gli altri deepfake che effetto avranno?

Ufficialmente Grok è stato limitato dai suoi sviluppatori in modo che non possa generare deepfake pornografici; eppure è già capitato che abbia generato immagini pornografiche con ragazze minorenni. Sulla questione è intervenuto anche il governo indiano, che ha chiesto a Musk di porre rimedio (link 1).

Operazioni di denudazioni femminili sono possibili anche con le IA generative di Google e ChatGPT (link 2).

Ovviamente il fenomeno dei deepfake esisteva anche prima, ma richiedeva competenze non comuni. Rendere questa attività alla portata di chiunque sappia scrivere un commento cambia le cose. Forse l'unico pregio (molto relativo, non risolutivo e forse utopistico) è che impareremo a prestare più attenzione a quello che condividiamo online.

Nonostante polemiche e indagini, e le promesse di porvi rimedio, Grok viene usato per produrre in modo sistematico immagini di donne in bikini e in biancheria intima. I ricercatori stimano che Grok sia diventato il più grande creatore di immagini deepfake a sfondo sessuale (link 3).

Come se non bastasse, la domanda per questo tipo di contenuti è così elevata che esistono aziende specializzate nello sviluppo di software "denudatori" (basati su intelligenza artificiale, che prendono online foto di donne, anche minorenni, le denudano e le collocano in contesti pornografici). Due di queste aziende hanno lasciato i loro database aperti e visibili a chiunque con un minimo di conoscenze tecniche (link 4).

Questo tipo di reato è già punibile in diversi casi (in parte dipende dall’eventuale condivisione o pubblicazione, ma non solo), ma l’accessibilità e la scala con cui queste tecnologie operano rendono l’applicazione delle norme esistenti complessa e spesso inefficace. A meno che non si intervenga alla radice, sulla regolamentazione dell’uso delle intelligenze artificiali in contesti delicati come il suddetto.

World Press Photo winning photographs (when generated with artificial intelligence) by Filippo Venturi

View all the winners of the annual World Press Photo Contest from 1955 to the present (when generated with artificial intelligence).


Quite rightly, the World Press Photo completely excluded images generated with artificial intelligence, even from the category (open format) in which it had initially thought it could include them. So I wondered which images could have been generated by A.I. to compete for the main award, the photograph of the year, from 1955 to the present.

The purpose of this experiment is to reflect on how artificial intelligence interprets and generates photographs that, from its perspective and at my request, could have won the various editions of the prestigious competition for photojournalists called World Press Photo. Photographs and generated images remain two very different things in many ways. The only point of contact is when the generated image imitates the photograph and exploits its credibility. The consequences of this imitation (and substitution) risk altering and perhaps undermining the credibility of photography (which in any case we must be wary of and should not take for absolute and sole truth) and the role of photojournalism in witnessing reality.


Giustamente, il World Press Photo ha escluso completamente le immagini generate con l'intelligenza artificiale, anche dalla categoria (open format) dove inizialmente aveva ritenuto potessero rientrare. Allora mi sono chiesto quali immagini avrebbe potuto generare l'I.A. per competere per il premio principale: la fotografia dell'anno, dal 1955 a oggi.

Lo scopo di questo esperimento è riflettere su come l'intelligenza artificiale interpreta e genera le fotografie che, dal suo punto di vista e su mia richiesta, avrebbero potuto vincere le varie edizioni del prestigioso concorso per fotogiornalisti chiamato World Press Photo. Fotografie e immagini generate restano due cose molto diverse sotto molti punti di vista. L'unico punto di contatto è quando l'immagine generata imita la fotografia e ne sfrutta la credibilità. Le conseguenze di questa imitazione (e sostituzione) rischiano di alterare e forse compromettere la credibilità della fotografia (di cui comunque bisogna diffidare e che in ogni caso non va presa per verità assoluta e unica) e il ruolo del fotogiornalismo nel testimoniare la realtà.


A proposito di Fotogiornalismo e Intelligenza Artificiale by Filippo Venturi

Donald Trump, disegno di Jane Rosenberg, New Yorker

A PROPOSITO DI FOTOGIORNALISMO E INTELLIGENZA ARTIFICIALE

Un altro esempio collegato al mio concetto di "identikit della realtà" (con cui intendo la documentazione della realtà tramite l'uso di immagini generate con l'intelligenza artificiale, basate sulla testimonianza di testimoni oculari, in quei casi dove manchino i fotografi) è quello che sta avvenendo in queste mesi nel processo in corso a Donald Trump, da cui i fotografi sono banditi.

Questa limitazione ha riportato sotto i riflettori l'arte del “courtroom sketching”, cioè del documentare ciò che avviene con delle illustrazioni.

Fra i miei timori c'è (c'era), appunto, l'uso dell'intelligenza artificiale per ottenere immagini che integrassero o sostituissero le fotografie di un fotogiornalista, ma in realtà è una paura già superata. Sappiamo già che, in mancanza di una fotografia, accettiamo qualsiasi alternativa visiva, che sia l'identikit di un ricercato o l'illustrazione di un evento.

Ancora più curioso è stato, per me, scoprire che il diritto di disegnare gli avvenimenti di un processo fu dibattuto nel caso United States contro Columbia Broadcasting System, nel 1974, la cui sentenza riconobbe il diritto degli artisti di raccontare quello che accadeva.

E, in fin dei conti, ribaldanto il punto di vista (e dandomi la zappa sui piedi), considerare la narrazione degli eventi, a livello visivo, una esclusiva dei fotogiornalisti è palesemente un errore.