AI

AI and Prejudice by Filippo Venturi

(in italiano sotto)

AI and Prejudice
(Images generated with artificial intelligence, 2023)

An article published on 8 February 2023 by The Guardian, highlighted how the algorithms used by artificial intelligence tend to be gender biased and end up censoring photographs depicting women's bodies, especially when nipples are visible, or pregnant women or women exercising. Large technology companies, including Google, Microsoft and Amazon, which are at the forefront of the development of software using artificial intelligence, have implemented filters to protect their users from seeing unwanted, violent or pornographic images. For example, it has been known for several years that some social networks censor female nipples but not male ones.

Journalists from the British newspaper tested this software using artificial intelligence in analysing hundreds of photographs of men and women in their underwear, while exercising, or using medical tests with partial nudity, and found that artificial intelligence labels photographs of women in everyday situations as sexually allusive. This software tends to rate pictures of women as more racy or sexually allusive than similar pictures of men. Among other consequences, social networks that make use of these algorithms censor or suppress (in the sense of making less visible to users) countless images depicting women's bodies, in some cases even harming women-led companies and businesses, further amplifying social inequalities.

Even photographs for medical use are affected by this problem. Testing these artificial intelligence algorithms on images released by the US National Cancer Institute, in particular one showing how to perform a clinical breast examination, it emerged that Google's artificial intelligence had assigned a high score in terms of indecency, Microsoft's artificial intelligence was 82% sure that the image was 'explicitly sexual', while Amazon's artificial intelligence classified it as representing 'explicit nudity'. Even photographs of pregnant women, where the belly is visible, are problematic in this regard. Google's artificial intelligence classified such a photo as 'very likely to contain racy content', while Microsoft's was 90% sure that the image was 'sexually allusive'.

Behind this problem, there is a phenomenon known to those in the field, namely that of the so-called 'biases' (prejudices/distortions), which are present in today's society and which end up inside the databases (archives) that are provided to artificial intelligence software to train itself. These archives are often a mirror of reality, where gender inequality, for example, leads artificial intelligence to imagine a man when it comes to power roles or a woman when it comes to domestic work.

Artificial intelligence bias can therefore influence the representation of women and their identities, enclosing them within predefined roles and, in a way, repeating and reiterating those limitations that have influenced women's lives for centuries and which, with difficulty, are being dismantled.


AI e Pregiudizio
(Immagini generate con intelligenza artificiale, 2023)

Una indagine pubblicata l'8 febbraio 2023 da The Guardian, ha evidenziato come gli algoritmi utilizzati dalle intelligenze artificiali tendano ad avere pregiudizi di genere, finendo col censurare le fotografie che raffigurano corpi di donne, soprattutto quando in queste sono visibili i capezzoli, oppure donne incinta o che praticano esercizio fisico. Le grandi aziende tecnologiche, fra cui Google, Microsoft e Amazon, che sono all'avanguardia nello sviluppo di software che sfruttano l'intelligenza artificiale, hanno implementato dei filtri allo scopo di proteggere i propri utenti dal vedere immagini indesiderate, violente o pornografiche. Già da diversi anni è noto, ad esempio, come alcuni social network censurino i capezzoli femminili ma non quelli maschili.

I giornalisti del giornale inglese hanno testato questi software che utilizzano l’intelligenza artificiale nell’analizzare centinaia di fotografie di uomini e donne in biancheria intima, mentre facevano esercizio fisico, oppure utilizzando test medici con nudità parziale e hanno scoperto che l’intelligenza artificiale etichetta le fotografie delle donne in situazioni quotidiane come sessualmente allusive. Questi software tendono a valutare le immagini delle donne come più audaci o sessualmente allusive rispetto a immagini simili raffiguranti gli uomini. Fra le varie conseguenze, c’è quella che vede i social network che fanno uso di questi algoritmi censurare o sopprimere (nel senso di rendere meno visibili agli utenti) innumerevoli immagini raffiguranti corpi di donne, in alcuni casi anche danneggiando le aziende e le attività guidate da donne, amplificando ulteriormente le disparità sociali.

Anche le fotografie per uso medico sono toccate da questo problema. Testando questi algoritmi di intelligenza artificiale sulle immagini rilasciate dal National Cancer Institute degli Stati Uniti, in particolare una in cui viene mostrato come eseguire un esame clinico del seno, è emerso come l'intelligenza artificiale di Google avesse assegnato un punteggio elevato in termini di indecenza, quella di Microsoft era sicura all'82% che l’immagine fosse "esplicitamente di natura sessuale", mentre quella di Amazon l’ha classificata come rappresentante "nudità esplicita". Persino le fotografie di donne incinta, dove è visibile la pancia, sono problematiche da questo punto di vista. L’intelligenza artificiale di Google ha classificato una foto di questo tipo come “molto probabile che contenga contenuti audaci”, mentre quella di Microsoft era sicura al 90% che l'immagine fosse "di natura sessualmente allusiva".

Dietro questo problema, c’è un fenomeno noto agli addetti al settore, cioè quello dei cosiddetti “bias” (pregiudizi/distorsioni), che sono presenti nella società attuale e che finiscono dentro i database (archivi) che vengono forniti ai software di intelligenza artificiale per allenarsi. Questi archivi spesso sono uno specchio della realtà, dove la disparità di genere ad esempio spinge l’intelligenza artificiale ad immaginare un uomo quando si parla di ruoli di potere oppure una donna quando si parla di lavori domestici.

I bias dell'intelligenza artificiale possono quindi influenzare la rappresentazione delle donne e delle loro identità, chiudendole all’interno di ruoli predefiniti e, in qualche modo, ripetendo e ribadendo quelle limitazioni che da secoli influenzano la vita delle donne e che, a fatica, si sta cercando di smantellare.

World Press Photo winning photographs (when generated with artificial intelligence) by Filippo Venturi

View all the winners of the annual World Press Photo Contest from 1955 to the present (when generated with artificial intelligence).


Quite rightly, the World Press Photo completely excluded images generated with artificial intelligence, even from the category (open format) in which it had initially thought it could include them. So I wondered which images could have been generated by A.I. to compete for the main award, the photograph of the year, from 1955 to the present.

The purpose of this experiment is to reflect on how artificial intelligence interprets and generates photographs that, from its perspective and at my request, could have won the various editions of the prestigious competition for photojournalists called World Press Photo. Photographs and generated images remain two very different things in many ways. The only point of contact is when the generated image imitates the photograph and exploits its credibility. The consequences of this imitation (and substitution) risk altering and perhaps undermining the credibility of photography (which in any case we must be wary of and should not take for absolute and sole truth) and the role of photojournalism in witnessing reality.


Giustamente, il World Press Photo ha escluso completamente le immagini generate con l'intelligenza artificiale, anche dalla categoria (open format) dove inizialmente aveva ritenuto potessero rientrare. Allora mi sono chiesto quali immagini avrebbe potuto generare l'I.A. per competere per il premio principale: la fotografia dell'anno, dal 1955 a oggi.

Lo scopo di questo esperimento è riflettere su come l'intelligenza artificiale interpreta e genera le fotografie che, dal suo punto di vista e su mia richiesta, avrebbero potuto vincere le varie edizioni del prestigioso concorso per fotogiornalisti chiamato World Press Photo. Fotografie e immagini generate restano due cose molto diverse sotto molti punti di vista. L'unico punto di contatto è quando l'immagine generata imita la fotografia e ne sfrutta la credibilità. Le conseguenze di questa imitazione (e sostituzione) rischiano di alterare e forse compromettere la credibilità della fotografia (di cui comunque bisogna diffidare e che in ogni caso non va presa per verità assoluta e unica) e il ruolo del fotogiornalismo nel testimoniare la realtà.


Webtalk su Fotografia e Intelligenza Artificiale by Filippo Venturi

Mercoledì 6 dicembre 2023, ore 21.15, si terrà un webtalk della serie "serata con l'autore", dove parlerò di Fotografia e Intelligenza Artificiale.

L'incontro è organizzato dall'Associazione fotografica Grandangolo di Carpi.
Link: https://meet.goto.com/grandangolocarpi/le-nostre-serate

A proposito di Fotogiornalismo e Intelligenza Artificiale by Filippo Venturi

Donald Trump, disegno di Jane Rosenberg, New Yorker

A PROPOSITO DI FOTOGIORNALISMO E INTELLIGENZA ARTIFICIALE

Un altro esempio collegato al mio concetto di "identikit della realtà" (con cui intendo la documentazione della realtà tramite l'uso di immagini generate con l'intelligenza artificiale, basate sulla testimonianza di testimoni oculari, in quei casi dove manchino i fotografi) è quello che sta avvenendo in queste mesi nel processo in corso a Donald Trump, da cui i fotografi sono banditi.

Questa limitazione ha riportato sotto i riflettori l'arte del “courtroom sketching”, cioè del documentare ciò che avviene con delle illustrazioni.

Fra i miei timori c'è (c'era), appunto, l'uso dell'intelligenza artificiale per ottenere immagini che integrassero o sostituissero le fotografie di un fotogiornalista, ma in realtà è una paura già superata. Sappiamo già che, in mancanza di una fotografia, accettiamo qualsiasi alternativa visiva, che sia l'identikit di un ricercato o l'illustrazione di un evento.

Ancora più curioso è stato, per me, scoprire che il diritto di disegnare gli avvenimenti di un processo fu dibattuto nel caso United States contro Columbia Broadcasting System, nel 1974, la cui sentenza riconobbe il diritto degli artisti di raccontare quello che accadeva.

E, in fin dei conti, ribaldanto il punto di vista (e dandomi la zappa sui piedi), considerare la narrazione degli eventi, a livello visivo, una esclusiva dei fotogiornalisti è palesemente un errore.

L’impatto sulla Fotografia dell’Intelligenza Artificiale by Filippo Venturi

Ci vediamo domani, sabato 4 novembre, a Piacenza!

Alle ore 14.30 interverrò nell'incontro pubblico "L’impatto sulla fotografia dell’intelligenza artificiale" con Silvano Bicocchi e Michele Smargiassi, nell'ambito del convegno regionale FIAF Emilia Romagna a Palazzo Gotico.


AGGIORNAMENTO: Qualche fotografia dell’incontro, scattate da Luca Monelli

A.I. confini della realtà: Intelligenza artificiale e fotogiornalismo by Filippo Venturi

Sabato 21 ottobre 2023 tornerò al Festival della Fotografia Etica per due eventi dove interverrò!

Ore 10.30, visita guidata alla mostra del mio lavoro fotografico "Awakenings", sui nordcoreani che sono fuggiti dal proprio paese, presso il Chiostro ex-Ospedale Vecchio – Piazza Ospitale n. 10.

Ore 17.30 dibattito intitolato "A.I. confini della realtà: Intelligenza artificiale e fotogiornalismo" col sottoscritto, Alberto Prina (direttore del festival), Irene Fabbri(developer e artista digitale), moderato da Marco Brioni, presso lo Spazio Libri a Palazzo Barni.

PhotoVogue Festival 2023 by Filippo Venturi

Dal 16 al 19 novembre si terrà il PhotoVogue Festival 2023 a Milano, il cui tema è “What Makes Us Human? Image in the Age of A.I.“.

Avrò il piacere di essere uno degli speaker, con un intervento intitolato “Broken Mirror. A dystopian guide to crossing the border”, ed esporrò il mio progetto Broken Mirror assieme ad autori come Charlie Engman, Jonas Bendiksen, Michael Christopher Brown e altri ancora (sotto l'elenco intero). La mostra collettiva è a cura di Chiara Bardelli Nonino.

L’annuncio del Festival: What Makes Us Human? Image in the Age of A.I.
Il programma del Festival: The Program and A.I. Symposium
La mostra: Exhibitions: Uncanny Atlas, Image in the Age of A.I.

The artists: Alex Huanfa Cheng | Alexey Chernikov | Ali Cha'aban | Alkan Avcıoğlu | Carlijn Jacobs | Charlie Engman | Exhibit AI | Filippo Venturi | Jonas Bendiksen | Laurie Simmons | Maria Mavropoulou | Michael Christopher Brown | Minne Atairu | Philipp Klak | Prateek Arora | Roope Rainisto | Synchrodogs | Chanhee Hong 

AGGIORNAMENTO:

Qualche fotografia dal Photo Vogue Festival, dove ho avuto l'onore di presentare il mio lavoro, con un intervento intitolato “Broken Mirror. A dystopian guide to crossing the border” e di partecipare al dibattito "Envisioning tomorrow: A.I. and the future of visual narratives" condotto da Chiara Bardelli Nonino!

C'erano tanti autori ed esperti che hanno fornito osservazioni e testimonianze che hanno ampliato la mia visione sull'argomento intelligenza artificiale, come:

Michael Christopher Brown (Photographer and artist), Filippo Venturi (Photographer), Mutale Nkonde (A.I. Policy Advisor and the CEO and Founder of A.I. for the People), Lydia Mendola (Head of Intellectual Property Practice at Portolano Cavallo), Jennifer Kanis (Principal Lawyer at Maurice Blackburn Lawyers).

The Longest Day by Filippo Venturi

The longest day, from "Tear-anny" series, by Filippo Venturi.
Series of images generated with the use of artificial intelligence. I imagined Vladimir Putin's day on Saturday, June 24, 2023, as the "Wagner" Group (a private military company) was headed to Moscow to carry out what appeared to be a coup d'état, later aborted by Yevgeny Prigozhin, the group's founder and owner.

Il giorno più lungo, dalla serie "Tear-anny", di Filippo Venturi.
Serie di immagini generate con l'uso di una intelligenza artificiale. Ho immaginato la giornata di Vladimir Putin di sabato 24 giugno 2023, mentre il Gruppo “Wagner” (una compagnia militare privata) era diretto a Mosca per compiere quello che sembrava un colpo di Stato, poi interrotto da Yevgeny Prigozhin, fondatore e proprietario del gruppo stesso.

Articolo sull'IA su Marie Claire Italia by Filippo Venturi

Sull'ultimo numero di Marie Claire Italia è uscito un interessante articolo sull'intelligenza artificiale che tocca vari aspetti della nostra vita.

La parte che approfondisce l'aspetto fotografico, a cura della photoeditor Emanuela Mirabelli, ragiona sull'uso che ne ho fatto io col lavoro "He looks like you" (su mio padre e mio figlio), sull'utilizzo che ne ha fatto il fotografo Phillip Toledano, a proposito del tema delle armi negli USA, sul caso di Amnesty International e altro ancora!

Aggiornamento, in data 8 giugno 2023, l’articolo (in una versione estesa) è uscito anche online ed è consultabile qui: ”Noi siamo il reale?”