AI and Prejudice

Intervista su Arte.Go by Filippo Venturi

Sul sito Arte.Go è uscita una mia intervista a cura di Francesca Piperis, in cui si parlo dei miei progetti, compresi quelli realizzati con l’intelligenza artificiale, come “Broken mirror”, “He looks like you” e “AI and prejudice”, nei quali tocco tematiche a me care o che seguo da anni, come il vivere sotto una dittatura, la mia famiglia e i pregiudizi che limitano le libertà e i diritti di gruppi di persone.

Qui l’articolo originale: L’Intelligenza Artificiale come metafora fotografica. Intervista a Filippo Venturi


Critica sociale, creatività ed impegno politico, tre differenti dimensioni che trovano un punto d’incontro nelle opere di Filippo Venturi, fotografo documentarista italiano particolarmente interessato alla denuncia di oppressioni dittatoriali e alla difesa delle minoranze a livello globale, anche servendosi di strumenti inusuali per il suo ambito d’azione, come l’AI.

Attraverso i software di intelligenza artificiale Venturi plasma elementi che acquisiscono valore durante il processo di inserimento all’interno dei suoi progetti fotografici. L’introduzione nelle fotografie di componenti artificiali quali gli insetti di Broken Mirror – a simboleggiare le forme di oppressione sul popolo nordcoreano – equivale ad un valore aggiunto che difficilmente potrà essere scambiato per “scorciatoia”.
L’artista, infatti, descrive le fasi ed il tempo di concepimento delle sue produzioni in maniera dettagliata, dimostrando il grande impegno necessario per l’esercizio di queste nuove tecnologie. Numerose sono le pubblicazioni, gli incontri e i workshop riguardanti l’evoluzione dell’AI nell’ambiente artistico e fotografico che lo vedono protagonista, a dimostrazione del fatto che Venturi è in prima linea nella difesa di questi mezzi rivoluzionari, che certo nascondono alcune problematiche.

L’intervista

[Francesca Piperis]: Lei nasce come fotografo documentarista, legato quindi alla rappresentazione fattuale di eventi ed ambienti appartenenti alla realtà contemporanea. In che modo è giunto all’utilizzo di strumenti AI, che invece alterano la veridicità delle immagini?

[Filippo Venturi]: Oltre a essere un fotografo documentarista da ormai 13 anni, in una vita precedente mi sono laureato in Scienze dell’Informazione e quindi, per un certo periodo, ho lavorato come informatico. Di quegli anni mi è rimasta la curiosità e l’attenzione verso le novità tecnologiche, soprattutto quelle legate alle immagini. Quando nel corso degli ultimi anni i software generativi di immagini, che utilizzano l’intelligenza artificiale, hanno iniziato a poter imitare la fotografia, ho trovato la cosa molto affascinante, ma anche inquietante. Le immagini generate possono, appunto, imitare la fotografia e, nel caso di quelle fotogiornalistiche o documentaristiche, sfruttarne la credibilità. Da un lato questo è positivo perché, sebbene possa sembrare assurdo detto da uno che fa il mio mestiere, la fotografia ha goduto spesso di troppa credibilità e quindi iniziare a dubitare, a verificare, a confrontare le fonti, anche quando si parla di fotografia, è importante. Dall’altro lato però c’è il rischio che questa credibilità si perda completamente e questo sarebbe un eccesso nella direzione opposta. Quando ho iniziato a utilizzare questi strumenti, che sfruttano l’intelligenza artificiale, l’ho fatto per comprenderli, per poterci ragionare sopra e anche per generare riflessioni sul ruolo della fotografia, su come potranno convivere fotografie e immagini generate, sui rischi che ne conseguono, ma anche sulle potenzialità che questa nuova tecnologia offre.

Questa sua esigenza di raccontare la realtà in maniera fotografica scaturisce da eventi o fatti specifici della sua vita personale?

Confesso che dietro il mio approccio alla fotografia e alla necessità di raccontare storie vere, non c’è qualche ricordo o aneddoto romantico, magari legato a qualche familiare che mi abbia trasmesso questa passione. Nel mio caso è stato un processo spontaneo. Probabilmente, a un certo punto della mia vita, avevo la necessità di trovare un mezzo, un linguaggio, con cui esprimere i miei sentimenti e anche la mia parte più creativa e autoriale, e la fortuna ha voluto che incontrassi la fotografia!

Le va di descrivere le fasi di “concepimento” e successiva realizzazione della sua opera Broken Mirror? Quale riscontro ha avuto sul pubblico? Ritiene che l’AI le abbia permesso di raccontare in maniera efficace la sua idea iniziale?

La generazione di immagini ha un enorme potenziale: avrei potuto sbizzarrirmi e tentare qualunque strada. Anche improvvisarmi un fumettista, ad esempio. Quando però ho ragionato su quale progetto avrei potuto sviluppare, sono tornato alle tematiche a me care e che conosco meglio. Non volevo usare l’intelligenza artificiale soltanto come una scorciatoia, ma volevo che fosse concettualmente rilevante all’interno del progetto visivo che stavo sviluppando. In uno di questi lavori ho provato a raccontare in un modo diverso la dittatura totalitaria che caratterizza la Corea del Nord, un paese che avevo già visitato e raccontato come fotografo documentarista. Questo lavoro si intitola Broken Mirror e utilizza un linguaggio simile al mio.
L’idea alla base consiste nell’inserire nella vita quotidiana dei nordcoreani un elemento alieno e destabilizzante. Ho scelto di inserire degli insetti, dei ragni e altro ancora, che gradualmente aumentano in quantità e dimensione, fino a prendere il controllo completo sulla popolazione. Ad un certo punto i nordcoreani stessi iniziano a trasformarsi in questi insetti giganti, diventando le creature che temevano, e questo simboleggia il completamento della sottomissione. Generare le immagini, così come le avevo pensate e descritte col prompt, ha richiesto migliaia di tentativi e molta frustrazione. Il processo creativo era in gran parte affidato all’intelligenza artificiale. La selezione delle immagini era però un compromesso fra ciò che volevo ottenere e ciò che mi veniva proposto. Spesso non ho ottenuto quello che volevo. Altre volte l’intelligenza artificiale ha inserito elementi inaspettati che però ho scelto di tenere. Durante questo processo, ho realizzato che la metafora che avevo utilizzato non rappresentava soltanto la dittatura totalitaria nordcoreana, ma rappresentava la tecnologia stessa. In particolare la sua natura invasiva e controllante. Col mio lavoro ho quindi sfruttato le nuove potenzialità che l’intelligenza artificiale offre, per esprimere un timore che ho nei suoi confronti. Questo progetto è stato accolto con molto interesse, anche nel mio settore, quello fotogiornalistico, dove tendenzialmente c’è diffidenza e timore verso questa nuova tecnologia. La mia onestà verso l’osservatore – fondamentale anche quando utilizzo soltanto la fotografia – è stata sicuramente utile nel trovare ascolto, ma anche il tempismo ha giocato a mio favore visto che, a inizio anno, non c’erano molti progetti sviluppati con questa nuova tecnologia.

A differenza della precedente, l’opera fotografica He looks like you è profondamente personale, racconta infatti uno spaccato della sua vita molto commovente e si potrebbe dire distante dal quel filone “documentaristico”. Come nasce l’idea di raccontare di sé in modo così intimo all’interno della sua produzione?

A febbraio di quest’anno sono trascorsi esattamente dieci anni dalla scomparsa di mio padre Giorgio. Mio figlio Ulisse ne ha soltanto 5 e quindi non ha mai potuto conoscerlo. Questo rappresenta per me un grande rammarico. In quelle settimane ho tentato di creare delle immagini, fornendo al software generativo delle autentiche fotografie, così da tentare di ottenere una estensione dei miei album fotografici di famiglia. Desideravo vedere mio padre e mio figlio conoscersi, giocare insieme e vivere quei momenti che non hanno mai potuto condividere. Avrei potuto realizzare questo progetto ricorrendo a soluzioni già note, come ai fotomontaggi oppure alle illustrazioni, ma non sarebbe stata la stessa cosa perché avrei avuto il pieno controllo su ogni aspetto. Quando il software generativo crea l’immagine, si basa sugli input che gli si forniscono, ma in gran parte improvvisa tutti quei dettagli e quelle informazioni che invece non gli vengono date. Per spiegarmi meglio, io davo al software delle fotografie di mio padre e mio figlio e gli chiedevo di generare immagini dove quell’uomo e quel bambino giocassero assieme, ma non avevo la possibilità (per motivi diversi, compreso il fatto che questi software sono ancora acerbi) di definire ogni dettaglio e quindi, quando l’immagine veniva generata, io stesso venivo sorpreso dal risultato. Le posture, i contatti fra i corpi, la direzione in cui guardavano i volti e tanto altro erano imprevedibili. Assistevo quindi a una sorta di magia e l’imprevedibilità che caratterizzava queste immagini potevo confonderla con l’autenticità; questo mi faceva “sentire” quelle immagini ad un livello molto profondo. Chiaramente sapevo che stavo osservando momenti mai avvenuti, in luoghi mai esistiti, ma potevo abbandonarmi alla fede verso quelle immagini per qualche istante e trarne una forma di beneficio.

Uno dei progetti che maggiormente riflette le problematiche sociopolitiche attuali è sicuramente AI and prejudice. La disparità di genere, infatti, è da anni alimentata dagli algoritmi di software AI programmati al fine di censurare qualunque allusione (sessuale e non) alla nudità femminile. Ritiene che la lotta per la gender equality possa essere supportata in futuro dagli strumenti intelligenti o questi ultimi continueranno ad ostacolare questo tipo di emancipazione?

Potenzialmente questi strumenti possono essere utilizzati a fin di bene, ma è necessario che questa volontà venga sostenuta e promossa. Oggi credo sia difficile prevedere se saranno più gli effettivi benefici oppure se i problemi già presenti saranno amplificati da questi strumenti. È innegabile che le intelligenze artificiali soffrano di bias – soprattutto verso minoranze e gruppi che già sono bersaglio di pregiudizi e che lottano per veder riconosciuti i propri diritti – ma sono combattuto sul da farsi. Mantenere questi pregiudizi ci ricorda che questi problemi esistono. Rimuoverli dalle intelligenze artificiali renderebbe più giusto il mondo digitale e virtuale, ma potrebbe anche falsare la nostra percezione e convincerci che siano stati risolti anche nel mondo reale e farci quindi abbassare la guardia. Si tratta di una battaglia che deve essere affrontata anche da chi non è vittima di queste tendenze (o magari ne è persino privilegiato), ma se queste persone non vivono le problematiche sulla propria pelle e non le percepiscono più come attuali, c’è il rischio di indebolire la presa di coscienza e il movimento intero.

In alcune delle sue opere ha utilizzato il software AI Midjourney, ritiene che dal punto di vista della prestazione generativa possa sostituire o affiancare strumenti di renderizzazione di immagini digitali? Crede che vi siano delle parti o funzionalità della piattaforma che necessitano di miglioramenti o cambiamenti radicali?

In futuro non escludo che Midjourney e altri software analoghi possano sostituirsi a molti strumenti, compresi quelli di renderizzazione. In certi momenti sembra che si tratti soltanto di pochi mesi o anni per evoluzioni strabilianti, ma a volte ho la sensazione che i tempi saranno più lunghi. Tornando a Midjourney, proprio in queste ore è uscita la versione 6 e, pare, che certe cose date per assodate non siano più così solide, come ad esempio la composizione del dataset dato in pasto all’intelligenza artificiale per l’apprendimento e il fatto che questo tenga traccia delle immagini, anche coperte dal diritto d’autore. Molte sono le polemiche riguardo il suo utilizzo, attualmente. Citando Il Nome della Rosa di Umberto Eco, concludo dicendo che “per non apparire sciocco dopo, rinuncio ad apparire astuto ora. Lasciami pensare sino a domani, almeno”.

Sono numerosi, ad oggi, i pregiudizi riguardanti l’utilizzo autoriale dell’intelligenza artificiale. Questi nuovi strumenti faticano a normalizzarsi nell’ambito artistico, ha mai avuto problemi per il riconoscimento effettivo della paternità delle fotografie “artificiali”, per così dire?

Anche questa materia è ancora in fase di definizione e credo che occorrerà ancora tempo prima di avere norme a livello europeo, e non solo, che regolino questi aspetti, come il diritto d’autore. Quelle volte in cui mi è capitato di pubblicare le immagini generate con l’intelligenza artificiale sui giornali, come ad esempio sul settimanale Internazionale, non ho avuto alcun problema nel farmi riconoscere la paternità delle stesse e nel farmi retribuire per il mio apporto. Come spiegavo quando parlavo del progetto Broken Mirror, ottenere ogni immagine che lo compone ha richiesto migliaia di tentativi e nel complesso ho stimato circa 70 ore di lavoro al computer, nelle quali mi sono impegnato a immaginare e descrivere quali situazioni visive generare, a individuare dei riferimenti visivi, metaforici e simbolici che fossero utili al tema del progetto e, infine, quali risultati selezionare e quali scartare. Spesso il lavoro consisteva nel modificare, correggere e ritentare. A parer mio, se si ha un’idea o un messaggio da trasmettere e si usa lo strumento adatto per veicolarlo o per stimolare riflessioni, allora il tempo dedicatogli ha un valore, anche autoriale. Qualcuno vede nella rapidità del generare un’immagine con un’intelligenza artificiale l’assenza di questo valore. Scattare una fotografia è ancora più semplice e veloce, ma oggi quasi tutti riconoscono ad un progetto fotografico riuscito una complessità, una ricerca e una chiarezza di intenti che sono completamente slegati dalla rapidità del premere il tasto della fotocamera. In futuro mi aspetto che anche i progetti realizzati con questa nuova tecnologia, quelli riusciti intendo, vedranno riconosciuto l’aspetto autoriale.

In merito ai numerosi workshop, quali sono gli argomenti (legati certo allo sviluppo dell’intelligenza artificiale) che maggiormente tratta all’interno dei suoi incontri? Su quali problematiche o funzionalità intelligenti si sofferma maggiormente?

In generale svolgo corsi e workshop sul fotogiornalismo e sulla fotografia documentaria. Da quando abbiamo a che fare con i software generativi che sfruttano l’intelligenza artificiale, ho creato nuovi corsi che descrivono la differenza abissale di approccio e sviluppo di un progetto di fotografia documentaria da quello realizzato con l’intelligenza artificiale. Da qui approfondisco poi le possibili problematiche provocate dall’inevitabile convivenza di fotografie e immagini generare. Ragiono con gli studenti e insieme confrontiamo le nostre riflessioni su come la narrazione visiva possa essere compromessa oppure arricchita da questa nuova tecnologia. Porto e analizzo alcuni casi di studio molto interessanti avvenuti negli ultimi anni e in questi mesi. Non è raro che io stesso impari qualcosa dai miei studenti, in questi corsi dove ci interroghiamo sul futuro della realtà, su come questa potrà essere testimoniata, raccontata e, in certi casi, alterata.

Concludendo le chiedo se consiglierebbe ad un giovane artista/fotografo interessato alla sperimentazione fotografica, di tentare un approccio sperimentale all’AI, in modo da padroneggiare gli strumenti che a tutti gli effetti rappresentano forse il futuro della produzione artistica.

Ad un giovane che crea e lavora a livello visivo, consiglierei di sperimentare tutto, anche l’intelligenza artificiale. Se fosse alle prime armi, però, gli consiglierei di partire da un mezzo e un linguaggio ben definito, come la fotografia (ma non solo). Partire con l’intelligenza artificiale potrebbe risultare dispersivo: ha un potenziale così elevato da poter anche confondere e demoralizzare. Avere invece dei confini ben precisi, aiuta nel seguire il proprio percorso di crescita e, ad un certo punto, a varcare quei confini.

AI and Prejudice by Filippo Venturi

(in italiano sotto)

AI and Prejudice
(Images generated with artificial intelligence, 2023)

An article published on 8 February 2023 by The Guardian, highlighted how the algorithms used by artificial intelligence tend to be gender biased and end up censoring photographs depicting women's bodies, especially when nipples are visible, or pregnant women or women exercising. Large technology companies, including Google, Microsoft and Amazon, which are at the forefront of the development of software using artificial intelligence, have implemented filters to protect their users from seeing unwanted, violent or pornographic images. For example, it has been known for several years that some social networks censor female nipples but not male ones.

Journalists from the British newspaper tested this software using artificial intelligence in analysing hundreds of photographs of men and women in their underwear, while exercising, or using medical tests with partial nudity, and found that artificial intelligence labels photographs of women in everyday situations as sexually allusive. This software tends to rate pictures of women as more racy or sexually allusive than similar pictures of men. Among other consequences, social networks that make use of these algorithms censor or suppress (in the sense of making less visible to users) countless images depicting women's bodies, in some cases even harming women-led companies and businesses, further amplifying social inequalities.

Even photographs for medical use are affected by this problem. Testing these artificial intelligence algorithms on images released by the US National Cancer Institute, in particular one showing how to perform a clinical breast examination, it emerged that Google's artificial intelligence had assigned a high score in terms of indecency, Microsoft's artificial intelligence was 82% sure that the image was 'explicitly sexual', while Amazon's artificial intelligence classified it as representing 'explicit nudity'. Even photographs of pregnant women, where the belly is visible, are problematic in this regard. Google's artificial intelligence classified such a photo as 'very likely to contain racy content', while Microsoft's was 90% sure that the image was 'sexually allusive'.

Behind this problem, there is a phenomenon known to those in the field, namely that of the so-called 'biases' (prejudices/distortions), which are present in today's society and which end up inside the databases (archives) that are provided to artificial intelligence software to train itself. These archives are often a mirror of reality, where gender inequality, for example, leads artificial intelligence to imagine a man when it comes to power roles or a woman when it comes to domestic work.

Artificial intelligence bias can therefore influence the representation of women and their identities, enclosing them within predefined roles and, in a way, repeating and reiterating those limitations that have influenced women's lives for centuries and which, with difficulty, are being dismantled.


AI e Pregiudizio
(Immagini generate con intelligenza artificiale, 2023)

Una indagine pubblicata l'8 febbraio 2023 da The Guardian, ha evidenziato come gli algoritmi utilizzati dalle intelligenze artificiali tendano ad avere pregiudizi di genere, finendo col censurare le fotografie che raffigurano corpi di donne, soprattutto quando in queste sono visibili i capezzoli, oppure donne incinta o che praticano esercizio fisico. Le grandi aziende tecnologiche, fra cui Google, Microsoft e Amazon, che sono all'avanguardia nello sviluppo di software che sfruttano l'intelligenza artificiale, hanno implementato dei filtri allo scopo di proteggere i propri utenti dal vedere immagini indesiderate, violente o pornografiche. Già da diversi anni è noto, ad esempio, come alcuni social network censurino i capezzoli femminili ma non quelli maschili.

I giornalisti del giornale inglese hanno testato questi software che utilizzano l’intelligenza artificiale nell’analizzare centinaia di fotografie di uomini e donne in biancheria intima, mentre facevano esercizio fisico, oppure utilizzando test medici con nudità parziale e hanno scoperto che l’intelligenza artificiale etichetta le fotografie delle donne in situazioni quotidiane come sessualmente allusive. Questi software tendono a valutare le immagini delle donne come più audaci o sessualmente allusive rispetto a immagini simili raffiguranti gli uomini. Fra le varie conseguenze, c’è quella che vede i social network che fanno uso di questi algoritmi censurare o sopprimere (nel senso di rendere meno visibili agli utenti) innumerevoli immagini raffiguranti corpi di donne, in alcuni casi anche danneggiando le aziende e le attività guidate da donne, amplificando ulteriormente le disparità sociali.

Anche le fotografie per uso medico sono toccate da questo problema. Testando questi algoritmi di intelligenza artificiale sulle immagini rilasciate dal National Cancer Institute degli Stati Uniti, in particolare una in cui viene mostrato come eseguire un esame clinico del seno, è emerso come l'intelligenza artificiale di Google avesse assegnato un punteggio elevato in termini di indecenza, quella di Microsoft era sicura all'82% che l’immagine fosse "esplicitamente di natura sessuale", mentre quella di Amazon l’ha classificata come rappresentante "nudità esplicita". Persino le fotografie di donne incinta, dove è visibile la pancia, sono problematiche da questo punto di vista. L’intelligenza artificiale di Google ha classificato una foto di questo tipo come “molto probabile che contenga contenuti audaci”, mentre quella di Microsoft era sicura al 90% che l'immagine fosse "di natura sessualmente allusiva".

Dietro questo problema, c’è un fenomeno noto agli addetti al settore, cioè quello dei cosiddetti “bias” (pregiudizi/distorsioni), che sono presenti nella società attuale e che finiscono dentro i database (archivi) che vengono forniti ai software di intelligenza artificiale per allenarsi. Questi archivi spesso sono uno specchio della realtà, dove la disparità di genere ad esempio spinge l’intelligenza artificiale ad immaginare un uomo quando si parla di ruoli di potere oppure una donna quando si parla di lavori domestici.

I bias dell'intelligenza artificiale possono quindi influenzare la rappresentazione delle donne e delle loro identità, chiudendole all’interno di ruoli predefiniti e, in qualche modo, ripetendo e ribadendo quelle limitazioni che da secoli influenzano la vita delle donne e che, a fatica, si sta cercando di smantellare.