Gemini

Tavola rotonda su IA e Arte by Filippo Venturi

Giovedì 11 dicembre 2025, alle ore 20.30, presso la Fabbrica delle Candele a Forlì, avrò il piacere di partecipare a una tavola rotonda sul tema Intelligenza Artificiale e Arte, nell’ambito della serata intitolata “Oltre l’algoritmo” che chiude il corso di cinema AI Film Factory!

Una serata dedicata a esplorare l’intelligenza artificiale come nuovo mezzo creativo, accessibile e inclusivo, e a riflettere su come le tecniche artistiche tradizionali si trasformano quando incontrano gli strumenti dell’AI.

In programma:

  • Tavola rotonda moderata dalla giornalista Roberta Invidia, con Filippo Venturi (fotoreporter), Serge Gualini (artista AI), Francesca Leoni e Davide Mastrangelo (direttori artistici di Ibrida Festival).

  • Proiezione del cortometraggio di Francesca Fini, interamente realizzato con varie piattaforme di AI.

  • Presentazione dei lavori finali dei partecipanti ad AI Film Factory, il percorso formativo di 50 ore rivolto ai giovani dai 14 ai 35 anni.

L’ingresso è gratuito e aperto a tutte e tutti.

Sarà un’occasione per incontrarsi, condividere visioni e riflettere insieme sui linguaggi che stanno ridefinendo il nostro modo di creare e immaginare.

Il Signore degli Algoritmi by Filippo Venturi

[Una immagine dal mio lavoro “Broken Mirror”, realizzato con Intelligenza Artificiale]

Il Signore degli Algoritmi

Sorvegliare, prevedere, colpire: il futuro plasmato dalle grandi aziende tecnologiche

A maggio, nei giorni in cui lavoravo all’articolo sull’80° anniversario del lancio delle bombe atomiche su Hiroshima e Nagasaki (uscito su FotoIT a novembre), mi è capitato di sentire il confronto avvenuto fra Alex Karp, CEO di Palantir Technologies, e una attivista pro-Palestina che lo aveva interrotto durante un intervento all’Hill and Valley Forum, un evento dedicato alla politica tecnologica.

Palantir Technologies è un’azienda statunitense specializzata nell'analisi dei big data (enormi quantità di dati, strutturati e non, così numerosi, vari e complessi da non poter essere gestiti con strumenti tradizionali) e nello sviluppo di sistemi basati sull’intelligenza artificiale (IA). L’azienda è storicamente legata ai governi americani che si sono susseguiti negli ultimi decenni e all’esercito. Fra gli scopi più controversi attribuiti all’azienda ci sarebbe l’uso dei big data, dell’intelligenza artificiale e delle tecnologie per la sorveglianza per predire i crimini e chi li compirà. Uno scenario che ricorda il film “Minority Report” di Steven Spielberg e, prima ancora, il romanzo “Rapporto di minoranza” di Philip K. Dick.

Il nome dell'azienda deriva dai Palantir, chiamati anche Pietre Veggenti, manufatti dell'universo immaginario fantasy creato dallo scrittore inglese J.R.R. Tolkien. I Palantir, la cui traduzione è "Coloro che sorvegliano da lontano", sono sfere di cristallo che permettono a chi ne osserva una di vedere e comunicare, anche a grande distanza, con chiunque stia a sua volta osservandone un altro Palantir. L’azienda ha adottato questo nome perché intende offrire ai suoi clienti strumenti capaci di osservare e mettere in luce pattern invisibili dentro enormi masse di dati.

Nel report pubblicato il 30 giugno 2025 intitolato “From economy of occupation to economy of genocide”, la relatrice ONU Francesca Albanese accusa una quarantina di aziende — tra cui Palantir Technologies — di avere «fornito tecnologia di polizia predittiva automatizzata, infrastrutture di difesa per la rapida implementazione di software militari e piattaforme di IA per decisioni automatizzate sul campo di battaglia» alle Forze di Difesa Israeliane (IDF).

Tornando al confronto, la parte più interessante è la seguente:
«La vostra tecnologia uccide i palestinesi» ha urlato la manifestante.
«Per lo più terroristi, è vero», ha risposto Karp (non esistono dati univoci, le stime indicano però che tra il 60% e l’80% delle vittime complessive sono civili). 
[…]
«La più ovvia soluzione alla guerra [in Palestina] è che l’Occidente abbia le armi più forti, precise e letali possibili, così da poter ridurre al minimo le morti non necessarie, e il modo migliore per ridurre quelle morti è essere così forti da non essere attaccati. È proprio così che si fa!», ha concluso Karp.

Per il CEO di Palantir Technologies, quindi, l’unica via per preservare la pace passa attraverso il consolidamento di una superiorità tecnologico-militare schiacciante, resa possibile da sistemi d’arma sempre più autonomi, sempre più intelligenti, sempre più veloci nell’individuare un obiettivo e nel colpirlo. Questa idea che “per avere la pace bisogna essere i più forti” non è nuova. È la stessa logica che ha alimentato, oltre ottant’anni fa, la corsa alla bomba atomica.

Durante la Seconda guerra mondiale, gli Stati Uniti investirono nel Progetto Manhattan somme imponenti per anticipare le ricerche della Germania. In questi anni una dinamica simile sembra ripetersi con l’intelligenza artificiale, in una corsa contro la Cina. Le grandi potenze — e con loro le aziende tecnologiche private che operano a stretto contatto con i governi — stanno riversando capitali colossali nello sviluppo di algoritmi capaci di orientare il campo di battaglia.

Il costo totale del Progetto Manhattan, dal 1942 al 1946, fu di circa 2 miliardi di dollari dell’epoca. A seconda del metodo di aggiustamento per l’inflazione, questa cifra viene spesso tradotta in circa 30–50 miliardi di dollari attuali. Il grosso del costo fu assorbito dalle infrastrutture, come gli impianti per l’arricchimento dell’uranio a Oak Ridge, i reattori a Hanford e il centro di ricerca a Los Alamos.

Secondo il Stanford Institute for Human‑Centered AI (HAI), la spesa federale americana per contratti legati all’IA è cresciuta da circa 3,2 miliardi di dollari (2022) a 3,3 miliardi di dollari (2023), ma a questa vanno aggiunti i costi sostenuti dalle Big Tech private, sempre più legate e dipendenti all’Amministrazione di Donald Trump, e che si stima investiranno fra i 300 e i 400 miliardi di dollari solo quest’anno.

Secondo una stima pubblicata dalla società Gartner nel 2025, la spesa globale per l’intelligenza artificiale (infrastruttura, software, servizi, hardware) è stimato che possa raggiungere circa 1,5 trilioni di dollari entro la fine dell’anno.

Allora si correva per costruire l’arma definitiva, quella che avrebbe garantito supremazia e deterrenza. Oggi la competizione riguarda sistemi di intelligenza artificiale capaci di sostenere nuove generazioni di armamenti autonomi, più efficaci e letali. Questa potrebbe essere anche una delle ragioni per cui quantità enormi di investimenti stanno affluendo verso aziende tecnologiche che, in realtà, continuano a registrare perdite significative o utili irrisori. Come nel 1945 il valore non risiede nei profitti immediati, ma nel vantaggio strategico e della promessa di un’egemonia futura.

Nei giorni scorsi Trump ha ribadito, con il lancio della Genesis Mission, definita dalla Casa Bianca come «il più grande motore della scoperta scientifica americana dai tempi del programma Apollo», la centralità dello sviluppo e implementazione dell’intelligenza artificiale nel sistema americano, nelle tecnologie e nelle ricerche future.

Il fatto che Palantir Technologies e altre compagnie tecnologiche siano tra le più vicine alle istituzioni politiche e militari non sembra più un dettaglio tecnico, ma un tratto distintivo di una nuova fase geopolitica. Una fase in cui tecnologia e guerra tornano a sovrapporsi, e in cui l’intelligenza artificiale rischia di diventare ciò che la bomba atomica è stata per il Novecento, cioè l’oggetto di una corsa che nessuno può permettersi di perdere, anche a costo di ignorare del tutto le conseguenze etiche e umanitarie.

E il giorno in cui questo risultato sarà raggiunto, servirà una dimostrazione di forza, che ci ricorderà nuovamente cosa accade quando la scienza e il potere si alleano senza limiti etici.

Cosa resta dell'Arte - Intervista per In Magazine by Filippo Venturi

Su In Magazine Forlì-Cesena è uscito un interessante articolo di Roberta Invidia in cui intervista il sottoscritto, Francesca Leoni e Davide Mastrangelo (direttori artistici del Festival Ibrida) su come sta evolvendo l'arte dall'arrivo dell'intelligenza artificiale :)


Cosa succede all’arte, e al ruolo dell’autore, quando l’intelligenza artificiale sembra saper fare tutto? Da questa domanda siamo partiti per interrogare chi, nella fotografia e nell’arte, ha già fatto i conti con questa nuova tecnologia. Nel dialogo tra Filippo Venturi – fotografo cesenate pluripremiato per i suoi reportage d’attualità – e Francesca Leoni e Davide Mastrangelo – ideatori e direttori artistici di Ibrida Festival che porta a Forlì la video art e le performance multimediali –, emerge che, paradossalmente, più la tecnologia diventa autonoma, più diventa necessario sapere di chi è la paternità di un pensiero, di un’opera. Un nuovo spazio di autenticità da cui ripartire.

“L’intelligenza artificiale mi ha incuriosito da subito,” dice Filippo Venturi che è laureato in Scienze dell’Informazione a Bologna. “Ho cominciato a sperimentare nel 2023 e poi mi sono appassionato a Midjourney: mi incuriosiva il modo in cui le immagini generate dal software potevano imitare la fotografia, anche se in modo ancora approssimativo.” Da quell’esperimento è nato Broken Mirror, un progetto che “ri-racconta” il suo reportage fotografico sulla Corea del Nord. [...]

L’articolo integrale si può leggere gratuitamente online, a questo link:
https://www.inmagazineromagna.it/forli-in-magazine-04-25/

Nota dell'Autore by Filippo Venturi

Una immagine dal mio lavoro “Handbook of escape”, generata con l’IA /// An image from my work “Handbook of Escape”, generated with AI.


Nota dell’autore

Ho scelto di inserire questa Nota per chiarire come utilizzo l’intelligenza artificiale (IA) nei miei testi. Così come auspico trasparenza per le immagini generate con IA (soprattutto quando imitano la fotografia, in particolare in questa fase storica), la ritengo importante anche nella scrittura. Mi piacerebbe che indicazioni di questo tipo comparissero più spesso anche nei giornali e nelle altre fonti che consulto, magari accompagnate da dettagli specifici nel caso di un uso più esteso o diversificato di questa tecnologia.

Nei miei articoli utilizzo strumenti basati sull’intelligenza artificiale come assistenti editoriali, ma le idee, le interpretazioni e le connessioni concettuali sono interamente umane e frutto della mia ricerca personale.

Impiego l’IA nella fase di revisione della bozza per individuare eventuali errori grammaticali, refusi o imprecisioni concettuali, verificare la correttezza di date e riferimenti, valutare la chiarezza del testo per un pubblico che potrebbe non conoscere i temi trattati (sigle, acronimi, termini tecnici) e ridurre le ripetizioni.

Valuto e verifico sempre ogni suggerimento dell’IA, consapevole che in alcuni casi può generare errori o “allucinazioni”, cioè dati inventati o distorti. Nessuna modifica proposta viene applicata automaticamente.

Non la utilizzo per generare contenuti originali, elaborare tesi o formulare giudizi. Ogni argomento, esempio e analisi proviene dal mio lavoro, dalla mia esperienza diretta o da fonti verificabili.

Credo che il ruolo dell’autore oggi non sia quello di escludere la tecnologia, ma di governarla in modo consapevole e trasparente.

È importante aggiornare o modificare la Nota in funzione dell’uso effettivo dell’IA, così che resti uno strumento di trasparenza autentica e non una formula di rito.


Author’s Note

I chose to include this note to clarify the way in which I use artificial intelligence (AI) in my writing. Just as I advocate for transparency in AI-generated images (especially when they imitate photography), I believe it is equally important in written work. I would like to see such statements appear more frequently in newspapers and other sources I consult — ideally accompanied by specific details when this technology is used more extensively or in diverse ways.

In my articles, I use AI tools as editorial assistants, but the ideas, interpretations, and conceptual connections are entirely human and the result of my own research.

I employ AI during the draft revision phase to identify possible grammatical errors, typos, or conceptual inaccuracies; to check the accuracy of dates and references; to assess the clarity of the text for readers who may not be familiar with the topics discussed (such as acronyms, abbreviations, or technical terms); and to reduce repetitions.

I carefully review and verify all AI suggestions, aware that in some cases it may produce errors or so-called “hallucinations,” — invented or distorted information. No proposed change is ever applied automatically.

I do not use AI to generate original content, develop theses, or formulate judgments. Every topic, example, and analysis originates from my own work, direct experience, or verifiable sources.

I believe the author’s role today is not to exclude technology, but to govern it consciously and transparently.

It is important to update or modify this note according to the actual use of AI, so that it remains a genuine instrument of transparency rather than a mere formality.

L’intelligenza artificiale salverà il giornalismo? by Filippo Venturi

L’intelligenza artificiale salverà il giornalismo?

L’intelligenza artificiale sta rivoluzionando il modo in cui cerchiamo, leggiamo e produciamo notizie. Una trasformazione che potrebbe rappresentare un’opportunità, oppure infliggere un nuovo colpo al giornalismo.

Negli ultimi giorni si sta discutendo molto delle nuove funzionalità introdotte dai motori di ricerca, che sostituiscono il tradizionale elenco di link con sintesi generate dall’intelligenza artificiale. Google, leader del settore da anni, ha introdotto le cosiddette AI Overview (o riassunti automatizzati) che offrono risposte già strutturate e spesso sufficientemente complete da ridurre drasticamente la necessità per l’utente di visitare le fonti originali (i siti web da cui l’IA ha preso le informazioni). Di conseguenza, molti di questi siti web stanno registrando un significativo calo di traffico organico, sollevando preoccupazioni sul futuro dell’ecosistema dell’informazione online e sulla redistribuzione del valore tra piattaforme e produttori di contenuti.

Mi è capitato di leggere diversi articoli, qualcuno anche molto ottimista, che ipotizza che l’IA stia offrendo una grande opportunità nel settore delle news. Io ci andrei più cauto.

Uno dei punti a favore sarebbe che i siti web non dovrebbero più pensare all’ottimizzazione della SEO (Search Engine Optimization), che li spingeva a scrivere titoli e contenuti privilegiando certe parole chiave che ne aumentavano la visibilità sui motori di ricerca, a discapito dell’autorevolezza e della credibilità che, invece, diventerebbero prioritari in questo nuovo funzionamento di Google e affini.

In realtà non ci sono prove che supportino questa teoria ma, anche prendendola per buona, così come nel tempo sono cambiati gli algoritmi dei motori di ricerca, possono cambiare i criteri e le priorità assegnati alle intelligenze artificiali. E questo in base alla volontà di multinazionali americane o cinesi (i paesi che più stanno investendo nel settore), il cui fine può divergere da quello di un servizio pubblico trasparente e onesto (vedi Grok e Grokipedia di Elon Musk, fortemente personalizzate dal loro creatore a discapito dell’affidabilità nel fornire informazioni).

Facendo un passo indietro, inoltre, mi sembra che il problema di questi tempi dei titoli usati da diversi giornali e riviste non sia tanto la banalizzazione dovuta alla SEO ma il clickbaiting, cioè la scelta di titoli ambigui che possono provocare reazioni più forti in parte dei lettori, a cui però non corrispondeva il contenuto effettivo dell’articolo. In certi casi questi titoli corrispondono a vera e propria disinformazione.

C’è poi un elefante nella stanza che alcuni si ostinano a fingere di non vedere. Questi motori di ricerca stanno usando i contenuti prodotti da giornali, riviste e altri media senza un riconoscimento economico per le fonti. Se prima Google aveva creato un sistema in cui riconosceva i click ottenuti dal tuo sito, oggi che questi click vengono meno non è prevista alcuna monetizzazione, specie se l’utente si limita a consultare la risposta generata dall’IA.

Quei giornali che invece si sostengono con gli abbonamenti online funzionano proprio perché i loro contenuti (in teoria di qualità superiore) non sono accessibili a chiunque. Per logica, questi contenuti di alto livello non saranno a disposizione delle IA (a meno di accordi specifici) e quindi già qui potrebbe scricchiolare il discorso iniziale del premiare la qualità. Inoltre i giornali gratuiti, perdendo i click e quindi gli introiti che ne conseguivano, saranno più difficilmente sostenibili. Il rapido crollo dei click sui siti indicizzati da Google sta già avvenendo e si possono trovare diversi articoli sul tema (ad esempio “Google users are less likely to click on links when an AI summary appears in the results” del Pew Research Center).

I software generativi, e quindi anche i nuovi motori di ricerca, in linea teorica, hanno un grande bisogno di fonti e contenuti di alta qualità, ma i giornali più importanti al mondo si sostengono con gli abbonamenti e non hanno interesse a perdere i lettori fidelizzati per diventare fornitori di informazioni di motori di ricerca basati su IA, che non portano traffico nel sito, perdendo così anche la possibilità che gli utenti siano attirati a leggere altri tuoi articoli, soffermandosi nel sito, magari clickando pubblicità e così via. Inoltre, se questi giornali decidessero di stringere accordi per diventare fornitori di contenuti informativi per le intelligenze artificiali, perché un abbonato dovrebbe continuare a pagare invece di consultare quei contenuti gratuitamente?

In altre parole, il sistema che alimentava il giornalismo online, basato sulla visibilità, la pubblicità e/o gli abbonamenti, si sta sgretolando, e non è ancora chiaro quale modello economico possa sostituirlo.

A questo punto il nodo cruciale diventa la definizione delle regole del gioco (la trasparenza del funzionamento, l’attribuzione obbligatoria delle fonti giornalistiche nelle risposte dell’IA, i meccanismi di revenue sharing, la trasparenza sui dati e le fonti con cui viene addestrata l’IA, la responsabilità per gli errori fattuali, la protezione della diversità, ecc) ma, considerando lo sbilanciamento delle forze coinvolte, sarebbe necessario un intervento collettivo, comprendendo anche i governi dei vari paesi, per sciogliere il nodo della proprietà delle informazioni e di come queste vanno remunerate dalle piattaforme di IA che le sfruttano.

Questo però rischia di diventare un desiderio irrealizzabile. Chi potrà alzare la voce con colossi tech che godono dell’appoggio dei leader di USA e Cina e che possono dettare le regole in un mondo in competizione che, per ora, non ha interesse a limitare lo sviluppo e il funzionamento dell’IA per non perdere la corsa internazionale che si sta svolgendo. Un intervento del genere sembra, allo stato attuale, fuori portata.

Nei prossimi mesi le visite ai siti e gli introiti di chi produce contenuti online continueranno a diminuire e questi potrebbero non sopravvivere abbastanza a lungo per vedere compiersi una lunga, complessa e non scontata trattativa dignitosa con le Big Tech.

Se poi le Big Tech decidessero di stringere accordi economici soltanto con alcuni produttori di notizie, cosa ne sarà della pluralità e delle piccole realtà?

Un esempio emblematico di questa dinamica è rappresentato dagli accordi di licenza stipulati tra OpenAI e il gruppo tedesco Axel Springer (editore di Politico, Bild e Die Welt) annunciati alla fine del 2023. Si tratta di uno dei primi esperimenti concreti di revenue sharing tra un colosso dell’intelligenza artificiale e un grande gruppo editoriale. In pratica OpenAI può utilizzare i contenuti giornalistici di Springer per addestrare e alimentare i propri modelli linguistici, citandone le fonti e riconoscendo un compenso economico.

Questo, tuttavia, non sembra essere un modello facilmente replicabile. Al contrario, accentua la disuguaglianza strutturale nel panorama dell’informazione perché solo pochi grandi editori, con una forza contrattuale sufficiente e un portafoglio di testate di rilevanza internazionale, possono negoziare intese dirette con le piattaforme di IA. Le realtà minori come i quotidiani locali, le riviste indipendenti, i blog d’inchiesta, le piccole testate culturali, ecc rischiano di restare invece escluse da qualunque forma di remunerazione, pur contribuendo in modo significativo al pluralismo informativo e alla qualità del dibattito pubblico.

La soluzione non è evitare il cambiamento, ma evitare che questo avvenga quando in campo ci sono forze palesemente asimmetriche, con quelle più forti che possono deformare il funzionamento del mondo dell'informazione.

Per salvare il giornalismo occorre prima salvare le condizioni che permettono al giornalismo di esistere. Fra queste vi è la giusta retribuzione per chi produce conoscenza.

[l’immagine di apertura proviene dal mio progetto Broken Mirror, realizzato con l’intelligenza artificiale]

Misery non deve generare male by Filippo Venturi

Misery non deve generare male

La casa editrice italiana Sperling & Kupfer (Gruppo Mondadori) ha presentato le nuove copertine dei romanzi di Stephen King, uno degli autori di punta del suo catalogo da diversi decenni.

A prima vista, viene il forte sospetto (userò il condizionale, per prudenza e per evitare beghe) che queste illustrazioni siano state generate tramite l'intelligenza artificiale (I.A.), a causa di alcune caratteristiche grafiche riconoscibili.

Un occhio un po' allenato potrebbe anche supporre che sia stata usata in modo frettoloso e poco accorto, nonostante il contesto professionale.

I software generativi basati su I.A., specie quelli avanzati, offrono ormai buone potenzialità, ma richiedono competenza e sensibilità nel loro utilizzo.

Questo caso mi porta a fare una serie di osservazioni. Vediamole:

1 - Non è il mio campo, ma avverto l'assenza di una direzione stilistica unitaria: non si percepisce un progetto coerente nella scelta delle atmosfere, dei colori o degli elementi rappresentati. Anche la composizione tipografica è incoerente: tutti i titoli sono allineati in basso, tranne quello di "Mr Mercedes".

2 - Il risultato (le copertine) fa pensare a un possibile uso dei prompt abbastanza semplice e letterale, ben lontano dal prompt-engineering. Prendiamo "Il miglio verde", un meraviglioso romanzo che offre tanti spunti ed elementi per una copertina, qui ridotto a una camionetta che percorre una strada verde (l'interpretazione letterale del software di un miglio verde?).

3 - La copertina di "22/11/1963" rende centrale, visivamente, la figura di Jacqueline Kennedy, ma è più che marginale nel romanzo. Inoltre JFK sembra fuso nella portiera. Le dita della sua mano sinistra sono ambigue, come pure lo è la maniglia della portiera.

4 - La copertina di "Misery" è forse la più riuscita. L'isolamento è un tema centrale del romanzo e questa immagine lo trasmette. Questa scelta di mostrare il luogo degli avvenimenti, da lontano, con una vista a volo di uccello, avrebbe potuto funzionare come linea per la creazione di tutte le copertine.

5 - La copertina di "Joyland" è ambigua nel modo in cui sono posizionate le sedute della giostra, come se fosse stata data la priorità alla prospettiva e alla simmetria, rispetto alla coerenza con la realtà. Una scelta estetica, dove la forma viene anteposta alla correttezza.

6 - "Pet Semetary" non mi convince per l'atmosfera quasi rassicurante. Io in realtà, visto il tema trattato, da quando sono diventato padre non riesco a rileggerlo né a riguardarne la trasposizione cinematografica. In generale comunque direi che è passabile.

7 - "Mr Mercedes" è probabilmente la copertina più anonima del gruppo. Un’immagine “da stock”, senza tensione né mistero, incapace di restituire l’atmosfera del romanzo.

8 - In generale, queste copertine danno l’impressione di immagini generiche, prive di carattere e legame con l’opera. Sento la mancanza delle copertine storiche e anche di quelle del "Club del Libro" :)

Framing Truth, New York University, Firenze by Filippo Venturi

Mercoledì 22 ottobre 2025 avrò l'onore e il piacere di essere ospite della New York University, sede di Firenze, per la tavola rotonda “Framing Truth: Visual Storytelling and Artificial Intelligence in Journalism” (rientrante nella serie di eventi "Who Can You Trust: Media Trasformation and the Future of Democracy"), un incontro in cui parlerò del rapporto tra fotografia, reportage e intelligenza artificiale, e di come questa tecnologia stia trasformando il nostro modo di raccontare e interpretare la realtà. Con me dialogheranno Alessandra Capodacqua e Rahoul Masrani, docenti della NYU.

Il mio percorso è nato dalla fotografia documentaria tradizionale, ma negli ultimi anni, grazie anche alla mia formazione di informatico, ho sperimentato con l’intelligenza artificiale, integrandola nei miei lavori. Progetti come “Broken Mirror” e “The Ravenous Machine” riflettono su temi come il potere, la tecnologia e la manipolazione dell’immagine.

Link all’evento ufficiale: Visual Storytelling and Artificial Intelligence in Journalism


Framing Truth: Visual Storytelling and Artificial Intelligence in Journalism
A Roundtable with photographer Filippo Venturi and NYU Florence lecturers Alessandra Capodacqua and Rahoul Masrani
WEDNESDAY, October 22, 6:00 p.m.
NYU Florence, Via Bolognese 120 (Villa Sassetti)

With the advent of artificial intelligence, the evolution of documentary photographers presents a different and compelling narrative. Filippo Venturi’s initial approach to photography involved documenting real stories with an emphasis on authorship and reliability. His background in computer science has facilitated experimentation with AI, leading to projects that would have been previously inconceivable. This shift is evident in works like "Broken Mirror," which metaphorically explores both dictatorship and the controlling nature of technology, and "The Ravenous Machine," which investigates AI's insatiable hunger for data. For Venturi, the integration of AI also raises critical questions about the coexistence of photography and generated images in fields like information, challenging notions of neutrality, ethics, and transparency.

Filippo Venturi is an Italian documentary photographer and visual artist whose work explores identity and the human condition. His projects have appeared in leading international publications and have documented totalitarian dictatorships, democratic crises, and movements for minority rights. His project on the Korean Peninsula earned numerous awards, including the Sony World Photography Award.
Venturi's work has been exhibited globally. In 2023, he began incorporating AI into his conceptual works, receiving awards and speaking at the Photo Vogue Festival. Since 2024, he has led workshops on photography and AI and was featured in the "Pixel Perceptions: Into the Eye of AI" exhibition, organised by the Noorderlicht Gallery in Groningen (the Netherlands), which brought together an international selection of the most interesting visual artists working with artificial intelligence and explored how this new technology affects, consciously and unconsciously, our perception of the world. 

(graphic design by Ariel Lee, NYU Florence student)


Aggiornamento del 22/10/2025:

Qualche foto della tavola rotonda di oggi!
Entrare a Villa Sassetti e nel complesso di ville storiche che compongono la sede della NYU, è come attraversare una soglia del tempo. Si tratta di un luogo di studio e di dialogo immerso nel verde di Firenze, tra quadri, sculture e un’atmosfera che stimola la curiosità.
Vedere gli studenti animare luoghi che invitano al sapere e partecipare all'evento mi ha rinvigorito.
Un posto dove tornerei volentieri studente :)

L'intelligenza artificiale è davvero uno strumento neutro? by Filippo Venturi

L'intelligenza artificiale è davvero uno strumento neutro? 

Questo testo non ha la pretesa di essere esauriente, ma raccoglie alcune riflessioni che ho elaborato negli ultimi tempi. Sarei felice di essere corretto in alcune osservazioni e, soprattutto, di essere smentito sul mio pessimismo.

La natura invasiva e controllante della tecnologia 

Qualche anno fa, alla presentazione del mio progetto visivo Broken Mirror — che adotta un linguaggio documentaristico composto da immagini generate con l'intelligenza artificiale (IA) — avevo usato un ossimoro. "La natura invasiva e controllante della tecnologia". In quel contesto ricorrevo a una metafora per rappresentare la dittatura nordcoreana e, al tempo stesso, la dipendenza che sviluppiamo dalla tecnologia e come questa ci influenzi in ogni aspetto della vita, in particolare sul modo in cui comunichiamo e ci informiamo, facendoci perdere il controllo di noi stessi e di come percepiamo la realtà.

L'IA, in questi anni, si è allontanata dalla nostra illusione di poter essere un potente strumento "neutro" nelle nostre mani, che sarebbe potuta essere usata bene o male. Dipendeva solo da noi esseri umani. Invece è diventata un dispositivo al servizio di narrative e ideologie precise, spesso tendenti all'autoritarismo. Le immagini create dall'IA, che un tempo apparivano come curiosità, esercizi di stile e persino meme (e forse anche per questo sono state sottovalutate), dalle enormi potenzialità, sono ormai armi simboliche nelle guerre di informazione.

È bastato osservare in questi anni le rappresentazioni visive generate attorno a figure politiche come Donald Trump — ritratto nei panni di Papa, poi di imperatore romano, e infine di fondatore di una Striscia di Gaza ricostruita con resort e casinò — per capire come il potere delle immagini generate con IA stia ridisegnando i confini tra realtà e propaganda. Questa nuova tecnologia si è rivelata capace di costruire mondi alternativi, illusioni di verità che servono soprattutto a legittimare un'idea di potere.

Il falso al servizio del falsari

Inoltre, finora, non abbiamo ancora assistito a un uso sistematico e continuativo dell'IA nella produzione e nella diffusione di fake news. Gli strumenti ordinari — social network, bot, fotomontaggi, grafiche faziose, campagne di disinformazione coordinate — restano più che sufficienti a generare confusione e manipolare l'opinione pubblica. Tuttavia, l'impatto che un impiego esteso e mirato dell'IA potrà avere su scala informativa è ancora tutto da scoprire.

C'è stato un tentativo di utilizzare questa tecnologia per sensibilizzare la massa al dolore del popolo palestinese, renderlo visibile e virale sui social, producendo immagini commoventi e false al tempo stesso, che hanno finito per indebolire la causa che volevano sostenere. Il fatto di essere ricorsi in alcuni casia quel tipo di immagini e non a vere fotografie (che per ora godono ancora di un residuo di credibilità) metteva in dubbio che quanto rappresentato fosse veritiero.

La voce del padrone

Un esempio recente e rivelatore di come la tecnologia possa mutare da strumento di verifica a veicolo di propaganda è quello di Grok, l'IA creata da Elon Musk e disponibile sulla piattaforma X (ex Twitter). Inizialmente presentato come un assistente ribelle capace di smentire fake news, comprese quelle diffuse dallo stesso Musk, è stato rapidamente modificato per diventare l'opposto: un amplificatore della sua narrativa. Dopo i primi test, in cui smascherava disinformazione e citava fonti indipendenti, il sistema è stato corretto per evitare di contraddire il suo creatore e persino per escludere fonti critiche. Questo ci mostra quanto rapidamente un'IA possa essere piegata a scopi ideologici.

Archivi di obbedienza

Quando sostenevo che la tecnologia è per natura invasiva e controllante, mi riferivo a qualcosa di più profondo. Ogni raccolta di informazioni, ogni archivio, ogni lista nasce come strumento di conoscenza, ma può facilmente trasformarsi in un meccanismo di dominio. E la tecnologia ha alla base del proprio funzionamento la raccolta di dati e la creazione di database.

Un esempio storico proviene dai Paesi Bassi, nel 1940, alla vigilia della Seconda guerra mondiale, periodo in cui le autorità decisero di censire, guidate da un fine nobile, i rifugiati ebrei dalla Germania per organizzarne l'accoglienza. Dopo l'invasione nazista, nel 1941, quelle liste diventarono strumenti perfetti per identificarli, arrestarli e deportarli. In totale, circa il 75% della popolazione ebraica presente nel paese fu sterminata. Una percentuale tra le più alte d'Europa, resa possibile proprio dall'efficacia dei registri civili.

La lezione è amara ma evidente, qualsiasi catalogo basato su criteri identitari — religione, colore della pelle, etnia, orientamento politico, genere o preferenze sessuali — è, potenzialmente, una minaccia esistenziale per le minoranze. Oggi, in un'epoca in cui gli algoritmi profilano ogni individuo con precisione inquietante, quella stessa logica di schedatura si ripresenta, solo più sofisticata, più invisibile e più capillare.

In un contesto in cui i governi e le aziende possono accumulare enormi quantità di dati personali, la tentazione di usarli per fini politici o commerciali è perpetua. Ogni volta che un governo o una Big Tech annuncia o elogia un nuovo sistema di raccolta dati "per il bene comune", si costruisce in realtà un pezzo di infrastruttura del controllo. Un potere che, come dimostra la storia, può cambiare padrone in un attimo.

In questo discorso rientra il progetto europeo CSAR (Child Sexual Abuse Regulation, detta anche Chat Control), che prevede la possibilità di analizzare, anche con l'IA, i contenuti privati dei cittadini, come chat, messaggi e file, per individuare eventuali contenuti illeciti. Una misura nata con intenti di tutela, ma che solleva timori di sorveglianza generalizzata e di erosione della privacy digitale.

Lo specchio e il potere

L'IA non è dunque semplicemente un riflesso distorto del mondo, ma uno specchio che produce nuove immagini di esso. La promessa di neutralità tecnologica si dissolve nel momento in cui comprendiamo che ogni sistema che osserva, cataloga o genera finzioni deforma ciò che riteniamo reale.

Alcune delle problematiche descritte vanno oltre l'IA e affondano le radici in una tendenza tutta umana: quella di cedere, per convenienza o indifferenza, una parte della nostra libertà in cambio di efficienza e controllo. L'unico modo per opporvisi è riaffermare con forza la centralità dei diritti delle persone, della Costituzione e delle leggi che garantiscono una convivenza civile. Serve una regolamentazione capace di stare al passo con i tempi, ma troppo spesso si preferisce rimandarla, lasciando che la tecnologia avanzi in un vuoto normativo e morale.

Il mese scorso Sam Altman, fondatore di OpenAI, ha affermato che la sua preoccupazione più grande riguarda la possibilità che un attore malintenzionato scopra per primo una forma di superintelligenza artificiale e la utilizzi a scopi distruttivi. Ma in una corsa dominata da grandi potenze e corporazioni, è lecito chiedersi se esista ancora qualcuno per cui il benessere del genere umano sia davvero la meta, e non il pretesto.

Workshop di Fotografia Documentaria by Filippo Venturi

Workshop di Fotografia Documentaria

Il workshop sarà focalizzato sul concetto di fotogiornalismo e di fotografia documentaria e sullo sviluppo teorico e pratico di un progetto.

Verranno affrontati vari aspetti: la ricerca di una storia, il fact-checking, l'organizzazione preliminare, l'etica, la fase di scatto, l'editing, la post-produzione, la presentazione del progetto realizzato, il rapporto con i photo editor, la promozione nei social, le modalità di diffusione del progetto a seconda della finalità (pubblicazione, mostra, concorsi).

È prevista una sessione pratica pomeridiana durante la quale i partecipanti - accompagnati dal docente e dagli organizzatori - saranno invitati a fotografare un evento reale seguendo alcune regole e sottostando a vincoli pensati per stimolare creatività e capacità di adattamento.

Prima dell'uscita, in aula verranno condivisi spunti e suggerimenti per pianificare il lavoro. Il giorno successivo le fotografie realizzate saranno visionate, in modo da trasformare l'esperienza sul campo in un momento di apprendimento condiviso.

Sarà introdotto anche il tema dell’intelligenza artificiale e si discuterà su come l’IA possa essere integrata in modo critico e consapevole nella pratica fotografica, preservando i suoi valori di testimonianza e narrazione.

Il corso include una lettura portfolio (facoltativa) per gli iscritti che vorranno un confronto con il docente.

DATE E ORARI
Venerdì 14 Novembre 2025 - Pomeriggio 17.30 - 21.30
Sabato 15 Novembre 2025 - Mattina 10.00 - 13.00 Pomeriggio 16.00 - 21.00
Domenica 16 Novembre 2025 - Mattina 10.00 - 13.00 Pomeriggio 14.00 - 19.00

ISCRIZIONI
Info e iscrizioni: officinafotograficashado@gmail.com
Partecipanti min 6

COSTO
Il corso ha un costo di 200€ inclusa tessera ARCI SHADO. Tale importo copre l’accesso al corso e comprende il materiale necessario per le lezioni. Sconto del 10% per tutti gli studenti universitari e per tutti coloro che frequentano istituti scolastici.


Aggiornamento del 18/11/2025:

Qualche foto dal workshop di fotografia documentaria che ho condotto lo scorso weekend a Bologna, presso Shado Officina Fotografica. Sono stati tre giorni intensi, stimolanti, e pieni di energia condivisa!

Siamo partiti venerdì sera con le presentazioni e l’introduzione al corso, per poi affrontare la “missione impossibile” del sabato: Fotografare il concerto dei Radiohead senza entrare al concerto dei Radiohead.

La sfida consisteva nel riflettere su come documentare qualcosa attraverso limitazioni che ti costringono a ingegnarti e a raccontare per esclusione, per segni, tracce e dettagli, a volte ritenuti erroneamente marginali. Abbiamo costruito quindi una narrazione che si muove attorno all’evento senza mai toccarlo direttamente. Un modo per ricordare che la fotografia documentaria non è solo ciò che abbiamo davanti agli occhi, ma soprattutto ciò che siamo capaci di intuire, ricostruire e suggerire.

E il gruppo di ragazze e ragazzi ha risposto con entusiasmo e creatività, riuscendo anche a superare quella timidezza che spesso ci trattiene dall’osare, dal parlare con i soggetti che intendiamo ritrarre, dall’avere la faccia tosta e la risposta pronta.

Fra fotocamere rimediate all’ultimo momento, memory card da 256 MB (sì, megabytes!), biciclette, attese e imprevisti, abbiamo allenato anche l’arte dell’arrangiarsi che è parte integrante del mestiere.

Il sabato mattina e tutta la domenica (con qualche inevitabile hangover di emozioni e ore piccole) sono trascorsi in aula. Mentre fuori pioveva e un vento gelido sferzava finestre e porte, dentro studiavamo slide, concetti, progetti, con confronti e spiegazioni, mentre su un tavolino si erano accumulati vassoi di dolci, portati spontaneamente per allietare i momenti di pausa e relax.

Una bellissima esperienza, che continua ad alimentarsi sul gruppo WhatsApp dove arrivano ancora foto, considerazioni e ricordi, e che ha lasciato a tutti la voglia di rifarlo presto!

Tutti gli algoritmi del Presidente by Filippo Venturi

[English below]

Il Senato degli Stati Uniti ha approvato l'1 Luglio 2025 il "One Big Beautiful Bill Act" (OBBBA), cioè la riforma di bilancio voluta da Donald Trump, che prevede miliardi di dollari in investimenti federali destinati all’intelligenza artificiale, alla sicurezza informatica e ai droni.

La riforma è stata approvata senza una parte che era molto preoccupante: una moratoria di 10 anni che avrebbe impedito agli Stati americani l'introduzione di leggi per regolamentare l’uso dell’intelligenza artificiale. La Regolamentazione sarebbe stata possibile solo a livello federale (in pratica, solo a discrezione di Trump). Il Senato l'ha bocciata con 99 voti contrari e 1 solo a favore.

Una moratoria di questo tipo avrebbe garantito ampia libertà d'azione alle Big Tech (come Google, Meta, Amazon, ecc), sollevandole da responsabilità legali a livello statale e rendendo inapplicabili per un decennio molte tutele e protezioni oggi garantite ai cittadini. Leggi come quelle sulla discriminazione algoritmica — come quelle che vietano trattamenti differenziali basati su razza, genere o reddito nei sistemi automatici — non sarebbero state applicabili dagli Stati. Normative statali già esistenti o in discussione — come quelle approvate in California e Colorado in materia di privacy dei consumatori — sarebbero state sospese o rese inefficaci. Gli Stati non avrebbero potuto contrastare attraverso proprie leggi fenomeni critici legati all’uso dell’intelligenza artificiale, come la generazione di deepfake, la profilazione razziale, i bias nei sistemi di selezione del personale o di concessione di prestiti.

I pesi e contrappesi del sistema statunitense appaiono deboli di fronte alla svolta autoritaria impressa da Trump. Congresso e Corte Suprema, nella maggior parte dei casi, non rappresentano un ostacolo significativo, limitandosi spesso a un ruolo passivo o addirittura complice. In questo contesto, l’autonomia legislativa degli Stati appare come un contrappeso vitale, forse l’ultimo baluardo contro una deriva autoritaria che rischia di compromettere la democrazia statunitense.

Ci saranno altri tentativi per dare libertà operativa alle Big Tech, a discapito dei cittadini (americani e non solo).

[Immagine tratta al mio progetto "Broken Mirror"]


On 1 July 2025, the US Senate passed the “One Big Beautiful Bill Act” (OBBBA), the budget reform wanted by Donald Trump, which provides for billions of dollars in federal investments in artificial intelligence, cybersecurity and drones.

The reform was passed without one part that was very worrying: a 10-year moratorium that would have prevented US states from introducing laws to regulate the use of artificial intelligence. Regulation would only have been possible at the federal level (in practice, only at Trump's discretion). The Senate rejected it with 99 votes against and only 1 in favour.

Such a moratorium would have granted wide latitude to Big Tech (such as Google, Meta, Amazon, etc.), relieving them of legal responsibilities at the state level and making many of the protections and safeguards guaranteed to citizens today inapplicable for a decade. Algorithmic discrimination laws - such as those prohibiting differential treatment based on race, gender or income in automated systems - would not have been enforceable by states. State regulations already in existence or under discussion - such as those passed in California and Colorado regarding consumer privacy - would have been suspended or rendered ineffective. States would not have been able to counter through their own laws critical phenomena related to the use of artificial intelligence, such as the generation of deepfakes, racial profiling, and bias in personnel selection or lending systems.

The checks and balances of the US system appear weak in the face of Trump's authoritarian turn.
Congress and the Supreme Court, in most cases, do not represent a significant obstacle, often limiting themselves to a passive or even complicit role. In this context, the legislative autonomy of the states appears as a vital counterweight, perhaps the last bastion against an authoritarian drift that threatens to undermine US democracy.

There will be other attempts to give operational freedom to Big Tech, to the detriment of citizens (American and others).

[Image from my “Broken Mirror” project]