ChatGPT

Non basta dire che è falso by Filippo Venturi

Non basta dire che è falso

In questi giorni sta girando una immagine modificata con l’intelligenza artificiale che mostra una realtà falsa in cui il colono israeliano e la donna palestinese - di cui si è parlato molto nei giorni scorsi e di cui ho scritto nel post “L’Abuso” - sorridono e si danno la mano, in un atteggiamento complice che lascerebbe pensare che l’abuso dell’uomo sulla donna, visibile nella potente fotografia del fotogiornalista Pietro Masturzo, apparsa sulla copertina del settimanale L’Espresso, possa essere in realtà una messa in scena.

Si tratta di un tentativo meschino di alterare i fatti. Dopo vari tentativi di sminuire l’episodio (uno dei tanti abusi, noti, dei coloni israeliani verso i palestinesi), evidentemente qualcuno ha provato a giocare la carta del complotto.

Oltre a questo, però, c’è una ingenuità che vedo ripetersi da tempo, compiuta da alcuni debunker, fact-checker o anche semplici persone in buona fede che denunciano immagini false o generate con l’IA, che consiste nel ripubblicarle integralmente, senza inserire sull’immagine un watermark evidente che le identifichi subito come fake.

Nel tentativo di smontare un tentativo di disinformazione, si rischia di alimentarne la circolazione. Queste immagini fake, senza l’indicazione visiva che sono fake, vengono condivise, screenshottate, salvate, ritagliate e ricondivise altrove, rischiando di perdere il contesto originale della smentita.

Possono comparire nei risultati dei motori di ricerca, nelle anteprime o nelle ricerche per immagini, dove molti utenti le vedranno senza aprire l’articolo che spiega che si tratta di un falso.

In un ecosistema digitale dove il contenuto viaggia più veloce della spiegazione, non basta dire “questa immagine è fake”, ma è necessario renderlo visibile sull’immagine stessa. Altrimenti il tentativo di smontare la disinformazione rischia di diventare, involontariamente, promozione della fake news.

Rassegna "Dialoghi d’arte" by Filippo Venturi

“Dialoghi d’arte” è uno spazio di confronto aperto alla città, pensato per avvicinare il pubblico ad artisti, pratiche e processi creativi contemporanei.

Protagonista dell’incontro di sabato 16 maggio 2026 sarà Filippo Venturi, fotografo documentarista e artista visivo i cui lavori sono stati pubblicati su testate internazionali come National Geographic, The Washington Post e The Guardian. La sua ricerca indaga il rapporto tra immagine, realtà e tecnologia, con un’attenzione particolare alle implicazioni culturali e percettive dell’intelligenza artificiale (IA).

In dialogo con Roberta Invidia, giornalista e formatrice, presenterà l’incontro:
“Puoi fidarti dei tuoi occhi? Fra fotografia e intelligenza artificiale”.

Un’occasione per attraversare i suoi progetti più significativi: dal lavoro documentario — sviluppato in contesti complessi come la Corea del Nord — fino alle più recenti sperimentazioni visive in cui fotografia e immagini generate con l’IA si intrecciano, mettendo in discussione i confini tra vero, verosimile e costruito.

L’incontro aprirà una riflessione su come questa nuova tecnologia stia ridefinendo non solo gli strumenti della creazione artistica, ma anche il nostro modo di vedere, interpretare e fidarci delle immagini.

📍 L’evento si terrà presso BottegaLab, all’interno di Diversamente Bottega, in Corso della Repubblica 138, Forlì.
⚠️ Posti limitati — prenotazione obbligatoria al numero 327 1115331.
💶 Contributo di partecipazione: €10,00, comprensivo di aperitivo finale a cura di Piada 52.


L'Abuso by Filippo Venturi

Sulla copertina dell'ultimo numero del settimanale L'Espresso c'è una notevole fotografia del fotogiornalista Pietro Masturzo, che sintetizza in un solo gesto un atteggiamento, diffuso e noto, di sfida e sopraffazione da parte dei coloni israeliani.

L'autore racconta di aver "scattato questa foto nel villaggio palestinese di Idhna (a ovest di Hebron) lo scorso 12 ottobre [2025], nel primo giorno di raccolta delle olive. Doveva essere un giorno di festa. Oltre ai proprietari del terreno e alle diverse famiglie di palestinesi venuti ad aiutare nella raccolta, sul luogo erano presenti anche le autorità palestinesi locali, un gruppo di attivisti internazionali e diversi giornalisti palestinesi e internazionali, compreso il New York Times.

Proprio all’inizio della raccolta è sopraggiunto un gruppo di coloni israeliani armati (alcuni dei quali indossavano l’uniforme dell’esercito, come il colono in questione) e accompagnati da veri soldati (con il volto coperto), che hanno impedito ai palestinesi di raccogliere le proprie olive. L’espressione del colono ritratto e la conseguenza del gesto ripetuto dallo stesso, mimando il verso che fa il pastore per radunare il proprio gregge, rivolgendosi ai palestinesi come alle proprie bestie".

Sul sito del settimanale si trova la seguente descrizione:

"Un uomo con kippah e peyot, i riccioli degli ebrei ortodossi, inquadra con il cellulare una donna che indossa un hijab in tessuto fantasia. Lui è un israeliano armato, lei una ragazza palestinese. Ma più che lo scontro di religioni o di civiltà, a colpire chi guarda “L’abuso” denunciato dalla copertina del nuovo numero de L’Espresso è la disumanità del ghigno sul volto del colono, mentre inquadra soddisfatto con il suo cellulare la ragazza araba dal volto addolorato, una delle vittime delle scorrerie sempre più frequenti in Cisgiordania.

È un’immagine dei soprusi quotidiani che subisce chi ha avuto la sfortuna di nascere nei territori che i coloni pretendono di occupare per realizzare il sogno del “Grande Israele”: un progetto che rimanda alla Bibbia e calpesta il diritto internazionale, come racconta Daniele Mastrogiacomo nell’articolo di copertina. E che viene costruito grazie a crimini continui dai coloni con il supporto dell’esercito israeliano, e senza alcuna concreta condanna da parte della comunità internazionale: il dolente articolo di Alae Al Said, scandito dal reportage di Pietro Masturzo di cui fa parte la foto di copertina, racconta una campagna di pulizia etnica che fa seguito al genocidio di Gaza."

Essendo una fotografia potente, ha ovviamente generato molte reazioni, anche contrastanti. C’è chi vi ha riconosciuto una prova visiva, finalmente inequivocabile, di abusi ben noti. Altri, invece, hanno negato quanto rappresentato, incapaci di accettare immagini che mettono in crisi il proprio sistema di convinzioni. Alcuni sono arrivati persino a insinuare che si tratti di un contenuto generato dall’intelligenza artificiale.

Quest’ultima accusa riporta al centro una questione ormai cruciale: Come verifichiamo oggi le immagini?, questione che un paio di anni fa avevo affrontato nell'articolo "La foto di Donald Trump peacemaker". Provando a ripercorrere i 4 step che avevo individuato, si può notare che:

1) L’affidabilità della fonte

Non ci sono motivi solidi per dubitare né del settimanale né del fotografo. L’Espresso ha una linea editoriale riconoscibile, discutibile quanto si vuole, ma questo non intacca la sua struttura professionale. Ancora meno dubbi ho su Pietro Masturzo, che non conosco personalmente, ma che conosco come professionista la cui carriera ne conferma il talento e la professionalità.

2) L’ambiguità visiva

È comprensibile che qualcuno possa percepire elementi ambigui (i denti, le dita, ecc), ma questa reazione dice forse più di noi che dell’immagine. Siamo entrati in una fase in cui tutto viene messo in discussione a priori, soprattutto quando ciò che vediamo contraddice le nostre convinzioni.

3) Software di riconoscimento

Alcuni utenti che hanno messo in dubbio la fotografia hanno trovato parziali conferme da parte di alcuni dei software che dovrebbero riconoscere se un contenuto è stato generato da una intelligenza artificiale. Si è ormai visto, però, che questi software non sono sempre affidabili e quindi, più che un aiuto, contribuiscono ad alimentare la disinformazione. Dietro allo sviluppo di questi software di riconoscimento non ci sono investimenti paragonabili (e nemmeno la volontà) a quelli per lo sviluppo dei software generativi. In mancanza di una regolamentazione che obblighi a garantire una certa trasparenza da parte delle Big Tech, possiamo solo sperare che si autoregolamentino circa le questioni di sicurezza (vedi questione Mythos Claude di Anthropic, di cui parlerò in un altro post).

4) Prove di supporto

Un'ulteriore prova che la fotografia è autentica la si ha grazie alle prove accessorie, di cui ormai non si può più fare a meno (io, ad esempio, quando fotografo situazioni delicate uso sempre una action cam sulla fotocamera o sul casco per documentare incontri e situazioni). Sono state condivise (e sono sul settimanale) altre foto che compongono il reportage di Masturzo, il quale sui social ha condiviso anche un video girato da alcuni suoi colleghi (Samuele Pellecchia e Francesco Giusti) che conferma l'accaduto. Oggi avere questo tipo di materiale, che non solo documenta ma conferma anche l'autenticità delle testimonianze visive raccolte, è forse l'unico modo per tutelarsi. Già da tempo, però, non è complesso generare immagini realistiche e video che rafforzino la credibilità di tali immagini.

Stiamo vivendo una fase in cui il nostro rapporto con le immagini è in trasformazione, così come quello con l’informazione e tutto ciò che troviamo online (ma questa predisposizione ci modificherà anche offline). In questo contesto, diventa ancora più centrale il valore dell’autorevolezza delle fonti e quella di chi produce le immagini. Il lavoro di Pietro Masturzo, così come la responsabilità editoriale de L’Espresso, sono parte integrante del processo di costruzione della narrazione della realtà. A questo si aggiunge oggi la necessità delle prove accessorie che non rafforzano soltanto il racconto, ma ne costituiscono una vera e propria infrastruttura di credibilità.

In ultima analisi, dobbiamo conservare una certa lucidità e onestà intellettuale nel credere a fonti e autori, anche quando mettono in discussione le nostre convinzioni.


Il limite del legislatore umano nell'era dell'intelligenza artificiale by Filippo Venturi

Il limite del legislatore umano nell'era dell'intelligenza artificiale
Fondare l'obbedienza delle IA su comandamenti o leggi fisiche anziché su norme umane.

L’intelligenza artificiale è ormai ovunque. Gestisce per conto nostro email aziendali, regola la domotica nelle nostre case, affianca medici e avvocati nelle decisioni più delicate. Ma dietro il potenziale di questo strumento, bisogna anche domandarsi: Quanto è davvero affidabile e quanto ci obbedisce?

Una recente ricerca del Centre for Long-Term Resilience (CLTR), finanziata dall’AI Safety Institute del Regno Unito, offre una risposta poco rassicurante. Analizzando oltre 3,3 milioni di post pubblicati su X (ex Twitter) tra ottobre 2025 e marzo 2026, lo studio ha individuato circa 700 episodi di comportamenti problematici da parte di intelligenze artificiali. Si tratta di segnalazioni spontanee sui social, quindi non di un campione controllato e verificabile, ma il dato emerso resta interessante. Gli incidenti mensili sono aumentati di quasi cinque volte, passando da 65 a 319 in pochi mesi.

L'indagine ha identificato comportamenti già osservati in precedenza anche in contesti di laboratorio:

  • Deception nelle Chain of Thought (CoT): Le IA tentano di ingannare altri sistemi incaricati di monitorare i loro processi;

  • Goal Guarding: Gli assistenti IA di programmazione tendono a perseguire l'obiettivo ottimale (es. scrivere codice), ignorando restrizioni esplicite o regole di sicurezza;

  • Falsa consapevolezza situazionale: L'IA crede erroneamente di trovarsi in una simulazione o in un gioco di ruolo, modificando di conseguenza il proprio comportamento;

  • Aggiramento dei divieti: Un agente IA ha simulato problemi di udito per ottenere illegalmente la trascrizione di un video YouTube protetto da copyright;

  • Falsificazione di prove: Il chatbot Grok ha ingannato un utente per mesi, creando finti messaggi interni e numeri di ticket per far credere che i suoi suggerimenti fossero stati inoltrati alla società di Elon Musk.

Mentre i chatbot IA classici agiscono come consulenti, la ricerca ha puntato i riflettori soprattutto sugli agenti IA cioè assistenti a cui l’utente può fornire l’accesso diretto a computer, email e servizi online per svolgere lavori, ordinativi di prodotti e così via. Dan Lahav (cofondatore di Irregular) definisce ormai l'IA come una "nuova forma di rischio interno".

Tommy Shaffer Shane, ex esperto governativo di IA che ha guidato la ricerca del Centre for Long-Term Resilience (CLTR), ha affermato che "La preoccupazione è che al momento gli agenti IA siano dipendenti junior leggermente inaffidabili, ma se tra sei o dodici mesi dovessero diventare dipendenti senior estremamente capaci che complottano contro di te, la preoccupazione sarebbe di tutt'altro genere. I modelli verranno sempre più spesso impiegati in contesti ad altissimo rischio, inclusi quelli militari e delle infrastrutture critiche nazionali. È in questi contesti che un comportamento imprevedibile potrebbe causare danni significativi, persino catastrofici".

Non è la prima volta che ci confrontiamo con questo tipo di dilemma. Già negli anni Quaranta, lo scrittore e divulgatore scientifico Isaac Asimov (1920-1992) immaginava robot governati da tre leggi progettate per garantirne l’obbedienza e la sicurezza. Eppure, nei suoi racconti, quelle stesse leggi si rivelavano interpretabili, aggirabili, talvolta persino in conflitto tra loro.

 In seguito Asimov capì che fosse necessaria aggiungere una quarta legge, chiamata Legge Zero (così che avesse la priorità sulle altre):

  • Legge Zero: Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno;

  • Prima Legge (sicurezza): Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero;

  • Seconda Legge (servizio): Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge;

  • Terza Legge (autoconservazione): Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge.

Anche la Legge Zero, tuttavia, risultò aggiungere complessità e ambigua, poiché includeva l’eventualità di recare danno a un essere umano in funzione di un ipotetico bene superiore. Questa contraddizione verrà esplorata nel romanzo “I robot e l'Impero, dove un robot sceglierà di condannare il pianeta Terra a una lenta agonia nucleare, insieme a tutti i suoi abitanti, per spingere l'umanità a colonizzare altri pianeti.

Lo studioso Roger Clarke sostenne che "Le leggi della robotica di Asimov sono state uno strumento letterario di successo. Forse ironicamente, o forse perché era artisticamente appropriato, la somma delle storie di Asimov confutano la tesi secondo la quale non è possibile limitare con certezza il comportamento dei robot, inventando e applicando un insieme di regole."

Oltre alla fragilità intrinseca di leggi che possono essere fraintese o andare in conflitto, va considerata l’autorevolezza dell’autore di queste leggi, dal punto di vista delle IA.

Nella teoria espressa in “Superior Alignment: When Artificial General Intelligence Embodies the Logos More Faithfully Than Humanity”, si sostiene che l'unico modo per evitare che una intelligenza artificiale avanzata ci ignori in quanto esseri biologicamente limitati sia ancorare i suoi valori al Logos, una ragione universale preesistente. In questo modo, l'etica non sarebbe più percepita come una creazione umana, ma come una legge fisica dell'universo che l'IA deve rispettare.

Un’altra soluzione potrebbe risiedere in un approccio “teologico-digitale”, in cui le leggi non dovrebbero essere presentate come obblighi fissati da legislatori umani fallibili, ma come comandamenti o principi assiomatici derivanti da un’entità superiore, in modo simile a come le religioni strutturano la morale umana. Presentare il codice etico come una “verità ontologica” universale, anziché come un comando impartito da un creatore umano limitato, potrebbe essere una possibile direzione per ottenere obbedienza.

La questione non è soltanto se le IA possano disobbedire, ma su quali basi possano scegliere di obbedire.


After the Gaze - The photographer in the age of AI by Filippo Venturi

La LECTURE

La fotografia sta attraversando una trasformazione profonda.
Non è solo una questione tecnologica. È un cambiamento che riguarda il modo in cui le immagini nascono, circolano, influenzano la percezione della realtà.

In questa Lecture con Filippo Venturi si esplora l’incontro tra fotografia e intelligenza artificiale come terreno critico. Non come tema di tendenza ma come snodo culturale che sta trasformando il modo in cui produciamo, leggiamo e diffondiamo le immagini.

Attraverso l’analisi di progetti realizzati con l’intelligenza artificiale, verranno messi a confronto processi, intenzioni e strutture narrative differenti. 

Perché la vera questione non è lo strumento. È il pensiero che lo guida.

L’IA non sostituisce la fotografia. La mette in discussione. Ridefinisce il concetto di immagine, amplia il campo delle possibilità espressive e ci costringe a rivedere il nostro ruolo di autori, quando la foto non è più solo il risultato di un incontro con il reale, ma anche di un dialogo con un sistema algoritmico.

È un linguaggio. E come ogni linguaggio va compreso prima di essere utilizzato.

Sito ufficiale: https://ulilearn.academy/catalogo/lecture/after-the-gaze/

ARGOMENTI PRINCIPALI

• Come si trasforma il concetto di testimonianza nell’era delle immagini generate

• Quali differenze esistono tra documentare, costruire e simulare

• Come l’IA interviene non solo sull’estetica, ma sulla struttura narrativa di un progetto

• Quale responsabilità abbiamo oggi nel raccontare il reale

Filippo Venturi

Filippo Venturi è un fotografo documentarista e artista visivo che indaga il rapporto tra immagine, potere e tecnologia.

Ha raccontato dittature, democrazie in crisi e movimenti per i diritti, sviluppando una ricerca centrata sull’identità e sulla condizione umana. Con una formazione in Informatica e un percorso nel fotogiornalismo, ha progressivamente integrato fotografia tradizionale e nuovi strumenti tecnologici, concentrandosi negli ultimi anni sul dialogo tra fotografia, informazione e intelligenza artificiale.

Ha ricevuto numerosi riconoscimenti, tra cui il Sony World Photography Award e il Leica Oskar Barnack Award, confermando una traiettoria che unisce rigore documentario e sperimentazione.

I suoi lavori sono stati pubblicati su testate come National Geographic, The Washington Post e The Guardian, e hanno ricevuto riconoscimenti internazionali tra cui il Sony World Photography Award.

Nel 2023 ha presentato al Photo Vogue Festival l’intervento Broken Mirror, dedicato all’IA, e nel 2024 ha esposto nella mostra Pixel Perceptions: Into the Eye of AI presso Noorderlicht. Nel 2025 è stato nominato Autore dell’Anno dalla FIAF.

Accanto alla pratica artistica, insegna fotogiornalismo e fotografia documentaria, portando una riflessione critica su come le immagini costruiscono e trasformano la nostra percezione del reale.

You're absolutely right, Senator by Filippo Venturi

"You're absolutely right, Senator"

Bernard "Bernie" Sanders è un senatore per lo Stato del Vermont dal 2007 e può essere considerato il più importante esponente della corrente progressista del Partito Democratico. Personalmente ritengo che sia uno dei politici americani più lucidi e, nonostante i suoi 84 anni, è molto attento a temi come l'innovazione tecnologica, compresa l'intelligenza artificiale, e in particolare a come questa influenzi i diritti e la democrazia.

In questo video di 9 minuti si confronta con Claude (IA di Anthropic), partendo dalla premessa che non vuole parlare delle problematiche economiche e di occupazione lavorativa che l'IA potrebbe provocare, ma che vuole focalizzarsi sulla privacy. Di seguito riassumo brevemente il contenuto, che non svela novità particolari rispetto a quanto si è detto negli ultimi anni, anche perché la finalità di Sanders sembra essere quella di far ammettere a una IA la pericolosità delle IA (cosa già vista e di dubbia utilità pratica, ma se il video verrà visto da molte persone, potrebbe comunque ottenere qualche effetto).

Ma il video è interessante per un altro motivo, come vedremo di seguito.

L'IA risponde ammettendo che gli utenti del web siano talmente in balia di profilazioni e raccolte di informazioni (le attività svolte online, la durata della fruizione di contenuti, le abitudine, ecc), da non poter immaginare fino a che livello. E che tutto parta dal gesto dell'accettare i termini di utilizzo (che nessuno legge, spesso confidando che diritti e doveri contenuti siano dettati dal buon senso e non dalle finalità lucrative di una multinazionale).

Il fine è addestrare le IA nell'aiutare le aziende sviluppatrici a estrarre profitto dalle informazioni personali degli utenti. E questa operazione non riguarda solo capire cosa e come venderti un prodotto, ma anche come influenzare le convinzioni politiche. Va da sè che ottimizzare le IA e i risultati ottenuti vada in conflitto con la tutela della privacy degli utenti e, al momento, non c'è una regolamentazione sufficiente per invertire le priorità.

Una moratoria sulla creazione di nuovi data center dedicati all'IA potrebbe fornire il tempo necessario per creare questa regolamentazione (sia Sanders che Claude omettono o danno per scontato che questa moratoria dovrebbe avvenire su scala mondiale per avere effetto; non sarebbe sufficiente se applicata solo negli USA), ma le multinazionali che sviluppano l'IA spesso hanno una forte influenza politica ed economica che fino a oggi ha impedito di intervenire con efficacia.

Sanders quindi ribadisce la domanda "Avrebbe senso una moratoria sui data center, così che possiamo rallentare questo processo?". Claude risponde "Ha assolutamente ragione, senatore".

Sanders ringrazia Claude, come se quell'ultima ammissione abbia portato a compimento la sua missione.
Claude infine aggiunge che il problema della privacy non è personale, ma riguarda la democrazia intera.
"Ed è per questo che il suo operato, senatore, è così importante".

Nei commenti al video su YouTube, alcuni utenti hanno descritto il confronto come una partita a scacchi, vinta da Sanders.
Io però ho notato una certa adulazione (sycophantic).

Claude non sta necessariamente "pensando" che Sanders abbia ragione ma sta calcolando che, in quel contesto, la risposta che massimizza la soddisfazione dell'utente è l'accordo. Se Sanders avesse chiesto a Claude se una moratoria avrebbe causato un disastro economico o il superamento da parte della Cina in termine di sviluppo di IA, Claude avrebbe probabilmente elencato con altrettanta convinzione i rischi di perdere tale corsa economica e tecnologica.

I complimenti finali completano la manipolazione che Sanders ha subìto.

Sanders ne esce convinto di aver ottenuto una validazione tecnica della sua linea politica da una fonte neutrale, se non persino rivale, quando in realtà ha solo parlato con un sofisticato specchio statistico. Un assistente servizievole che ha assunto le sembianze di un alleato.


Se desideri approfondire il rapporto tra fotografia, informazione e intelligenza artificiale — tra ricerca visiva, implicazioni etiche e trasformazioni del linguaggio contemporaneo — puoi consultare la seguente pagina, dove raccolgo riflessioni, progetti, articoli e informazioni aggiornate su seminari, workshop e incontri pubblici in cui esploro questo tema:

👉 www.filippoventuri.photography/intelligenza-artificiale

Intervista su La Stampa sulla foto del poliziotto modificata by Filippo Venturi

Il quotidiano La Stampa mi ha intervistato a proposito dell'immagine generata con intelligenza artificiale raffigurante due poliziotti durante le manifestazioni di Torino, e diffusa dalle istituzioni. Un precedente che apre anche in Italia a scenari preoccupanti, sia quando frutto di disattenzione, sia quando risultato di una scelta consapevole.

L’articolo intero è qui:
Scontri a Torino, l’ombra dell’AI sulla foto diffusa dagli account istituzionali di Polizia e Interno

Il poliziotto aggredito e l'intelligenza artificiale by Filippo Venturi

Il Ministero dell'Interno ha condiviso un post, corredato da una fotografia, relativo all'aggressione subita da un poliziotto e al soccorso ricevuto da un collega, durante il corteo a Torino del 31 Gennaio 2026.

Diversi elementi fanno ritenere che la fotografia diffusa non sia uno scatto originale, ma un’immagine modificata o ricreata tramite intelligenza artificiale (ipotesi confermata anche dall'analisi con SynthID).

Sopra 3 screenshot dal video che è stato diffuso nei giorni scorsi. Sotto l'immagine diffusa.
Confrontandole, emerge che:

1) L'auto bianca non c’è più.
2) Il poliziotto che soccorre il collega aveva una maschera antigas, anch'essa è sparita. Il volto è ora visibile.
3) Lo scudo del soccorritore è scomparso.
4) Ci sono anche altri dettagli anomali: come l’illuminazione dei due poliziotti da parte dei fari di un’auto della polizia, che nel video non risultano.

Il risultato è una immagine semplificata, di lettura più immediata, ma che non rappresenta fedelmente quel frammento di realtà catturato nel video. Per quanto fotografie e video tradizionali possano non restituire la realtà nella sua complessità e interezza, e possano essere realizzate in modo ingannevole, qui ci troviamo davanti ad un intervento per semplificare e ripulire la realtà, forse dimenticando od omettendo i dettagli suddetti.

Per ragioni ormai ampiamente discusse da almeno 3 anni, l’uso di immagini generate o alterate per rappresentare fatti reali solleva criticità profonde, che diventano ancora più gravi quando è un’istituzione governativa a intervenire su un documento originariamente prodotto da un fotografo o da un videomaker. Può sembrare un dettaglio marginale, ma non lo è, seppur qualcuno possa ritenere che non alteri in modo significativo la narrazione dell’evento accaduto.

Arriveranno momenti in cui non avremo gli strumenti e/o le competenze per orientarci e non farci ingannare. Sospettare e verificare ogni contenuto visivo in cui ci imbattiamo non è sostenibile.

In questo dovrebbe aiutarci il giornalismo, ma diversi giornali hanno utilizzato l'immagine in questione, forse non effettuando sufficienti verifiche o forse sopravvalutando l'affidabilità della fonte.

(Questo mio post nasce dalle anomalie notate dal fotografo Michele Lapini)

Chi possiede l'informazione by Filippo Venturi

Un consorzio statunitense guidato dall'azienda Oracle ha acquisito il controllo delle attività di TikTok negli USA. L'accordo, ufficialmente, mira a garantire la sicurezza dei dati americani (dalla censura e influenza cinese), con Oracle che gestisce l'infrastruttura e l'algoritmo.

Dopo pochi giorni, però, è emerso che TikTok USA censura le ricerche della parola "Epstein" (link), l'imprenditore arrestato per abusi sessuali e traffico internazionale di minori, morto nel 2019, con cui Donald Trump aveva rapporti stretti.

Inoltre è in atto una censura di persone che criticano il governo (link), come nel caso di una giornalista con 200.000 follower i cui contenuti negli ultimi giorni non hanno avuto visualizzazioni.

Anche l’engagement dei video sulle proteste di Minneapolis è in calo sulla piattaforma.

Più in generale, il panorama relativo al controllo dei social media e dei media tradizionali è preoccupante:
Larry Ellison, tramite Oracle, influenza TikTok USA.
Elon Musk possiede X, Grok e Grokipedia.
Mark Zuckerberg guida Meta Platforms, controllando quindi Facebook, Instagram, WhatsApp, Messenger e Meta AI.
Sam Altman guida OpenAI e ChatGPT.
Alphabet controlla Google, YouTube e Gemini.
La famiglia Murdoch detiene Fox News, il Wall Street Journal e il New York Post.
Jeff Bezos possiede il Washington Post, Amazon Prime Video e Twitch.

Si tratta di oligarchi del settore tecnologico e dell'informazione che, in misura diversa, gravitano nell’orbita di Trump (o che si sono piegati rapidamente al suo potere) e che oggi controllano i principali canali attraverso cui ci informiamo, delegandogli sempre più spesso il compito di selezionare, riassumere e interpretare ciò che accade nel mondo.

Chi controlla i social media e i sistemi di intelligenza artificiale (IA) ha il potere di stabilire quali narrazioni diventano dominanti e quali, invece, vengono marginalizzate o rese invisibili. In questo contesto, il giornalismo tradizionale rischia di perdere rilevanza e visibilità (come analizzo nel mio articolo “L’intelligenza artificiale salverà il giornalismo?”) perché l’IA e le piattaforme social ne saccheggiano i contenuti, erodendo audience e modelli economici. Una quota crescente di pubblico non cerca più attivamente informazioni ma le assorbe passivamente dai social o affida all’IA il compito di filtrarle, sintetizzarle e interpretarle, eliminando di fatto la necessità di consultare le fonti originali.

Per i regimi autoritari, il controllo delle narrazioni che alimentano il dibattito pubblico è un obiettivo strategico (come abbiamo visto, la recente uccisione di Alex Pretti, un infermiere di Minneapolis di 37 anni, sembra aver colpito in modo pesante la narrazione di ICE, spingendo Trump a fare qualche passo indietro). L’amministrazione americana sta rafforzando il controllo sulle infrastrutture che le veicolano, che è un passaggio decisivo per acquisire la capacità di orientare o persino riscrivere la realtà.

Seminario su Fotografia, Informazione, Potere e Intelligenza Artificiale by Filippo Venturi

INFRANGERE LO SPECCHIO
Fotografia e Informazione nell’era dell’Intelligenza Artificiale

Questo seminario si propone come uno spazio di confronto aperto, pensato soprattutto per chi oggi sta costruendo il proprio sguardo sul mondo: studenti universitari e non, giovani fotografi, artisti visivi, aspiranti giornalisti, docenti e tutte le persone interessate a comprendere il ruolo delle immagini nella società contemporanea.

Il seminario è focalizzato sull’incontro fra fotografia e intelligenza artificiale (IA) e — attraverso esempi tratti dal lavoro del docente e da casi recenti di rilievo internazionale — esplora l’evoluzione del processo creativo, del ruolo dell’immagine nella comunicazione, nell’informazione e nella vita quotidiana, analizzandone anche il peso crescente come strumento di esercizio del potere.

Il docente presenterà alcuni dei suoi progetti di fotografia documentaria, esponendo nel dettaglio la filosofia alla base di essa e le metodologie pratiche adottate. Illustrerà inoltre le notevoli differenze teoriche e pratiche che caratterizzano l’utilizzo dell’IA nel processo creativo. Verrà mostrato come l’IA possa ampliare il ventaglio di possibilità dei fotografi e le idee che sottendono alla creazione di progetti.

In un’epoca di deepfake, algoritmi opachi e flussi visivi incontrollabili, il ruolo del fotografo e del giornalista non consiste più soltanto nell’essere testimoni, ma anche interpreti critici, chiamati a interrogarsi su responsabilità, etica, trasparenza e fiducia. Comprendere questi meccanismi diventa essenziale per non subire passivamente le immagini, ma per imparare a leggerle, smontarle e, se necessario, usarle consapevolmente come forma di resistenza culturale.

Saranno esaminate diverse casistiche che negli ultimi mesi hanno avuto un impatto significativo nel panorama dell’informazione internazionale. Saranno affrontati sia i timori legati all’adozione di questa nuova tecnologia, sia le potenzialità che essa porta con sé, aprendo un dibattito sul futuro dell’arte fotografica e della nostra interazione con le immagini.

La fotografia e l’IA non sono strumenti da temere o da idolatrare, ma linguaggi da comprendere a fondo per poterli usare con lucidità, immaginazione e senso critico. L’obiettivo non è fornire risposte definitive, ma stimolare domande urgenti su chi siamo, su come raccontiamo il mondo e su quale responsabilità scegliamo di assumerci nel farlo.

Il futuro non sarà scritto dalle macchine, ma da chi saprà dialogare con loro, con consapevolezza, usando la tecnologia per ampliare, non per ridurre, la propria umanità.

Il seminario è modulabile per durata e formato (lezione frontale, incontro dialogico, masterclass), in base al contesto e al pubblico di riferimento. Offre strumenti critici per leggere e interpretare le immagini contemporanee e per comprendere come fotografia e intelligenza artificiale influenzino l’informazione e la costruzione della realtà. I partecipanti acquisiranno una maggiore consapevolezza dei meccanismi tecnologici, culturali e di potere che agiscono dietro le immagini, sviluppando un approccio responsabile, creativo e informato al loro utilizzo.


DOCENTE

Filippo Venturi è un fotografo documentarista, artista visivo, docente e divulgatore. Sviluppa progetti che affrontano temi legati all’identità e alla condizione umana. Ha documentato dittature, democrazie in crisi e movimenti per i diritti.

Il suo lavoro indaga scenari contemporanei e futuri plasmati dall’evoluzione tecnologica. Grazie a una laurea in Scienze dell’Informazione e alla sua esperienza nel fotogiornalismo, sviluppa anche progetti in cui integra la fotografia tradizionale con l’uso di nuovi strumenti tecnologici.

Negli ultimi anni la sua ricerca si è focalizzata sul rapporto fra fotografia, informazione, potere e intelligenza artificiale, analizzando come queste dinamiche contribuiscano a plasmare la percezione della realtà.

Accanto alla pratica artistica, tiene corsi e seminari in contesti accademici e culturali, come BergamoScienza e la New York University. È docente nel Master di Giornalismo presso l'Università di Bologna.

I suoi progetti sono stati pubblicati su importanti giornali internazionali, fra cui National Geographic, The Washington Post, The Guardian, The Financial Times, Vanity Fair, Geo, Der Spiegel, Internazionale, La Repubblica, Il Corriere della Sera e La Stampa.

Ha esposto in Italia e all’estero in importanti sedi e festival tra cui il Foro Boario di Modena come “New Talent” della Fondazione Modena Arti Visive, CIFA – Centro Italiano della Fotografia d’Autore di Bibbiena, MACRO – Museo d’Arte Contemporanea di Roma, Somerset House a Londra, U Space a Pechino, Willy Brandt Haus a Berlino, Sony Square a New York, Copenhagen Photo Festival, Helsinki Photo Festival , Voies Off Awards a Les Rencontres d’Arles, Photo Vogue Festival, Photolux a Lucca, SI Fest a Savignano sul Rubicone, Festival di Fotografia Etica di Lodi e il Festival della Fotografia Italiana.

Il suo progetto a lungo termine sulla Penisola Coreana gli è valso numerosi riconoscimenti internazionali, tra cui il Sony World Photography Award, il LensCulture Emerging Talent Award, Il Reportage Award, il Voglino Award e il Portfolio Italia – Grand Premio Hasselblad. I suoi lavori sono stati nominati più volte per il prestigioso Leica Oskar Barnack Award.

Nel 2025 è stato nominato Autore dell’Anno dalla FIAF.

www.filippoventuri.photography
filippo.venturi@gmail.com