OpenAI

Scorrete lacrime, impose il governo by Filippo Venturi

La Casa Bianca ha diffuso una fotografia modificata con l’intelligenza artificiale di una donna arrestata dopo una protesta contro l’ICE (Immigration and Customs Enforcement).

Un’analisi del Guardian (link) ha rilevato che la fotografia pubblicata mostra Nekima Levy Armstrong in lacrime, in modo drammatico, mentre nello scatto originale appariva calma e composta. Inoltre, il colore della pelle della donna risulta scurito.

La segretaria per la sicurezza interna, Kristi Noem, ha pubblicato una prima immagine dell’arresto che ritraeva un agente delle forze dell’ordine, con il volto oscurato, che accompagna Armstrong. La donna appare composta. Circa trenta minuti dopo, la Casa Bianca ha pubblicato una seconda immagine dello stesso arresto, in cui Armstrong piange.

Interpellata sull’alterazione digitale dello scatto, la Casa Bianca ha risposto inoltrando un post pubblicato su X da Kaelan Dorr, vicedirettore delle comunicazioni: «Ancora una volta, a coloro che sentono il bisogno di difendere in modo istintivo gli autori di crimini efferati nel nostro paese, condivido questo messaggio: l’applicazione della legge continuerà. I meme continueranno», ha scritto.

Questo episodio va letto come l’ennesimo segnale del rapporto sempre più instabile tra potere, immagine e verità. La manipolazione visiva mira a orientare emotivamente lo sguardo del pubblico, trasformando un documento in uno strumento narrativo e punitivo (pare ormai che il bullismo permei ogni aspetto della vita politica e comunicativa statunitense). Il ricorso esplicito ai “meme” rivendicato dalla Casa Bianca rivela una strategia comunicativa che legittima la fusione fra informazione, propaganda e intrattenimento.

Seminario su Fotografia, Giornalismo, Potere e Intelligenza Artificiale by Filippo Venturi

INFRANGERE LO SPECCHIO
Il rapporto fra fotografia, giornalismo, potere e intelligenza artificiale

Questo seminario si propone come uno spazio di confronto aperto, pensato soprattutto per chi oggi sta costruendo il proprio sguardo sul mondo: studenti universitari e non, giovani fotografi, artisti visivi, aspiranti giornalisti e tutte le persone interessate a comprendere il ruolo delle immagini nella società contemporanea. Si rivolge a chi desidera sviluppare uno sguardo critico sulla fotografia e sull’intelligenza artificiale (IA), interrogandosi sul loro rapporto con l’informazione, il potere e la costruzione della realtà, con curiosità e apertura al confronto.

Il seminario è focalizzato sull’incontro fra fotografia e IA ed esplora l’evoluzione del ruolo dell’immagine nella comunicazione, nell’informazione e nella vita quotidiana, analizzandone il peso crescente come strumento di costruzione del consenso e di esercizio del potere.

Il docente presenterà alcuni dei suoi progetti di fotografia documentaria, esponendo nel dettaglio la filosofia alla base di essa e le metodologie pratiche adottate. Illustrerà inoltre le notevoli differenze teoriche e pratiche che caratterizzano l’utilizzo dell’IA nel processo creativo. Verrà mostrato come l’IA possa ampliare il ventaglio di possibilità dei fotografi e le idee che sottendono alla creazione di progetti.

In un’epoca di deepfake, algoritmi opachi e flussi visivi incontrollabili, il ruolo del fotografo e del giornalista non consiste più soltanto nell’essere testimoni, ma anche interpreti critici, chiamati a interrogarsi su responsabilità, etica, trasparenza e fiducia. Comprendere questi meccanismi diventa essenziale per non subire passivamente le immagini, ma per imparare a leggerle, smontarle e, se necessario, usarle consapevolmente come forma di resistenza culturale.

Saranno esaminate diverse casistiche che negli ultimi mesi hanno avuto un impatto significativo nel panorama dell’informazione internazionale. Saranno affrontati sia i timori legati all’adozione di questa nuova tecnologia, sia le potenzialità che essa porta con sé, aprendo un dibattito sul futuro dell’arte fotografica e della nostra interazione con le immagini digitali.

La fotografia e l’IA non sono strumenti da temere o da idolatrare, ma linguaggi da comprendere a fondo per poterli usare con lucidità, immaginazione e senso critico. L’obiettivo non è fornire risposte definitive, ma stimolare domande urgenti su chi siamo, su come raccontiamo il mondo e su quale responsabilità scegliamo di assumerci nel farlo.

Il futuro non sarà scritto dalle macchine, ma da chi saprà dialogare con loro, con consapevolezza, usando la tecnologia per ampliare, non per ridurre, la propria umanità.

Il seminario è modulabile per durata e formato (lezione frontale, incontro dialogico, masterclass), in base al contesto e al pubblico di riferimento. Offre strumenti critici per leggere e interpretare le immagini contemporanee, comprendendo come fotografia e intelligenza artificiale influenzino l’informazione e la costruzione della realtà. I partecipanti acquisiranno una maggiore consapevolezza dei meccanismi tecnologici, culturali e di potere che agiscono dietro le immagini, sviluppando un approccio responsabile, creativo e informato al loro utilizzo.


DOCENTE

Filippo Venturi è un fotografo documentarista, artista visivo, divulgatore e formatore sul tema fotografia e intelligenza artificiale.

Realizza progetti su storie e problematiche riguardanti l'identità e la condizione umana. Ha documentato dittature, democrazie in crisi e movimenti che si battono per i diritti.

I suoi lavori sono stati pubblicati sui principali quotidiani e magazine, come National Geographic, The Washington Post, The Guardian, The Financial Times, Vanity Fair, Newsweek, Geo, Der Spiegel, Die Zeit, Internazionale, La Repubblica, Il Corriere della Sera e La Stampa.

Laureato in Scienze dell’Informazione, ha esteso la sua ricerca ai legami tra fotografia, giornalismo, potere e intelligenza artificiale, indagando come questi influenzino la nostra percezione della realtà.

Svolge attività didattica e divulgativa in ambito accademico e culturale, tenendo lezioni e seminari per festival e istituzioni come Vogue Photo Fest, MIA Photo Fair, Festival della Fotografia Etica di Lodi, BergamoScienza, Università di Bologna, New York University.

Negli ultimi anni si è dedicato a un ampio progetto sulla Penisola Coreana, che gli è valso numerosi premi, fra cui il Sony World Photography Award, il Premio Il Reportage, il Premio Voglino e il Portfolio Italia - Gran Premio Hasselblad.

Nel 2025 è stato nominato Autore dell’Anno dalla FIAF (Federazione Italiana Associazioni Fotografiche).

www.filippoventuri.photography
filippo.venturi@gmail.com

Software denudatori, quando l’IA riscrive i corpi by Filippo Venturi

SOFTWARE DENUDATORI
Quando l’IA riscrive i corpi

Grok, l’intelligenza artificiale di Elon Musk, interpellabile sul social network X (ex Twitter), consente da qualche tempo di modificare in pochi secondi le fotografie condivise da altri utenti, pubblicando direttamente il risultato sulla piattaforma.

Così può capitare che una ragazza condivida una propria fotografia e gli utenti, nei commenti, chiedano a Grok di mostrarla in bikini, di farla diventare un uomo, di mostrarne il viso che nella foto originale era celato (il viso generato, presumibilmente, è inventato e non quello reale; ma non sarebbe difficile istruire una IA a cercare altre foto nel profilo di quella ragazza per risalire al viso e inserirlo nell'immagine generata) e così via.

Se è facilmente intuibile quali possano essere le conseguenze negative di questa nuova possibilità, non è ben chiaro quali siano quelle positive. Prima o poi ci scapperà qualche post divertente, e poi? Tutti gli altri deepfake che effetto avranno?

Ufficialmente Grok è stato limitato dai suoi sviluppatori in modo che non possa generare deepfake pornografici; eppure è già capitato che abbia generato immagini pornografiche con ragazze minorenni. Sulla questione è intervenuto anche il governo indiano, che ha chiesto a Musk di porre rimedio (link 1).

Operazioni di denudazioni femminili sono possibili anche con le IA generative di Google e ChatGPT (link 2).

Ovviamente il fenomeno dei deepfake esisteva anche prima, ma richiedeva competenze non comuni. Rendere questa attività alla portata di chiunque sappia scrivere un commento cambia le cose. Forse l'unico pregio (molto relativo, non risolutivo e forse utopistico) è che impareremo a prestare più attenzione a quello che condividiamo online.

Nonostante polemiche e indagini, e le promesse di porvi rimedio, Grok viene usato per produrre in modo sistematico immagini di donne in bikini e in biancheria intima. I ricercatori stimano che Grok sia diventato il più grande creatore di immagini deepfake a sfondo sessuale (link 3).

Come se non bastasse, la domanda per questo tipo di contenuti è così elevata che esistono aziende specializzate nello sviluppo di software "denudatori" (basati su intelligenza artificiale, che prendono online foto di donne, anche minorenni, le denudano e le collocano in contesti pornografici). Due di queste aziende hanno lasciato i loro database aperti e visibili a chiunque con un minimo di conoscenze tecniche (link 4).

Questo tipo di reato è già punibile in diversi casi (in parte dipende dall’eventuale condivisione o pubblicazione, ma non solo), ma l’accessibilità e la scala con cui queste tecnologie operano rendono l’applicazione delle norme esistenti complessa e spesso inefficace. A meno che non si intervenga alla radice, sulla regolamentazione dell’uso delle intelligenze artificiali in contesti delicati come il suddetto.

La fotografia fake dell'arresto di Nicolas Maduro by Filippo Venturi

Questa fotografia (o frame da un video) che circola online mostrerebbe l'arresto di Nicolás Maduro, Presidente del Venezuela, da parte dalle forze statunitensi.

In attesa di sviluppi (verifiche ed eventuali smentite andrebbero sempre aspettate, ma oggi adottiamo un sistema di informazione e comunicazione che non tollera l'attesa) possiamo affermare che molto probabilmente non è una fotografia e nemmeno un frame estratto da un video reale, ma che si tratta di una immagine generata con intelligenza artificiale.

Proviamo a seguire i 4 passaggi che avevo suggerito ormai un anno fa, in casi analoghi (vedi il link nei commenti; sottolineo che, anche quando tutti i passaggi sembrano indicare una risposta univoca, non sempre possiamo giungere a una certezza assoluta):

1) L’affidabilità della fonte: al momento non ho trovato fonti giornalistiche affidabili che la riportino dopo le opportune verifiche e conferme.

2) L’ambiguità visiva: l'immagine riporta un timestamp anacronistico e che sembra più un tentativo di rafforzare la credibilità e attualità dell'immagine come documento. Il volto di Maduro sembra staccarsi troppo dal resto della immagine (come nitidezza e come effetto patinato). Le divise dei due militari hanno qualche anomalia, come la dicitura "DEA" ben visibile. Non è da escludere che il tutto sembri posticcio perché inscenato per produrre materiale visivo da diffondere. Personalmente però tenderei a considerarla una immagine generata.

3) Software di riconoscimento: viene rilevata la filigrana SynthID (quindi di una immagine generata con intelligenza artificiale).

4) Prove di supporto: non ho trovato foto o video o registrazioni audio di momenti immediatamente precedenti o successivi alla situazione mostrata nell'immagine.

La mia personale conclusione è quindi che si tratti di una immagine falsa di un evento reale (l'effettivo arresto di Maduro non è in discussione), che rende visibile qualcosa di cui, al momento, non ci sono prove visibili.

Ci troviamo di fronte a una dinamica che si è fatta largo nel mondo contemporaneo (occidentale, ma non solo, come dimostra il fatto che numerosi media asiatici abbiano utilizzato questa immagine come prova reale) in cui la realtà necessita di prove visive per consolidarsi come tale. A qualsiasi costo. Fino al paradosso di inventare un’immagine per confermare la realtà.

L'accettare l'uso di questo tipo di immagini, per questo scopo, fortunatamente è ancora considerato inaccettabile nel mondo dell'informazione di qualità.

Nessun algoritmo genera curiosità by Filippo Venturi

Nessun algoritmo genera curiosità

Una riflessione sul rapporto dei giovani con l'intelligenza artificiale

Questa è una fotografia dell'auditorium di un Liceo Scientifico e Artistico di Rimini, dove ho tenuto un intervento su fotografia, informazione e intelligenza artificiale (IA) qualche giorno fa, a sei classi di età compresa fra i 16 e i 18 anni.

Al di là del piacere - e della speranza - di riuscire a fornire stimoli e contenuti utili a orientrarsi in questo panorama sempre più complesso e interdisciplinare, mi ha colpito una cosa che mi è stata riferita in via confidenziale prima dell'inizio del mio talk, e non per la prima volta in contesti scolastici: i giovani dimostrano poco interesse e molta diffidenza nei confronti dell'intelligenza artificiale.

Una buona parte di loro è critica perché lo vede come un modo per barare (nei compiti, ma anche nel produrre contenuti, arte compresa) e questo ha trovato conferma anche nei compiti scritti di alcuni loro compagni di classe che contenevano, a seguito di copia\incolla distratti, i suggerimenti classici di ChatGPT ("Vuoi che lo riscriva con un tono più professionale?", "Vuoi che ti faccia una tabella riassuntiva?", ecc).

Confesso che questa diffidenza non mi dispiace troppo (purché non si trasformi nel tempo in chiusura e rifiuto, ma resti un modo per avvicinarsi con prudenza e spirito critico), specie quando viene da persone che si stanno formando, che stanno costruendo un proprio metodo. È fondamentale attraversare quella fase formativa in cui si impara a consultare le fonti, assorbire informazioni, analizzarle e sintetizzarle in autonomia, mentalmente e per iscritto, senza delegare tutto ad un software basato su IA, limitandosi a imparare a memoria il riassunto generato.

Un concetto che non mi stancherò mai di ripetere è che i lavori visivi che ho svolto con l'intelligenza artificiale non li avrei potuti realizzare con lucidità e consapevolezza se non avessi avuto la mia "cassetta degli attrezzi" composta negli anni (ormai ho una età in cui posso dire nei decenni) da studi informatici, studi fotografici, lavoro sul campo, esperienza e confronto con altri autori. Inoltre i progetti che ho svolto, a parer mio, funzionano proprio perché realizzati con questa nuova tecnologia, criticando o evidenziando alcune caratteristiche (limiti e rischi compresi) di questa stessa tecnologia.

L’intelligenza artificiale può suggerire risposte, ma ai giovani (e non solo) serve soprattutto imparare a farsi le domande giuste e a mettere in discussione il mondo che trovano confezionato dagli adulti. Le risposte sono ovunque, immediate, spesso persino ridondanti; ciò che manca, e che nessuna macchina può generare al nostro posto, è la capacità di interrogarci sul mondo con curiosità e profondità.

Tavola rotonda su IA e Arte by Filippo Venturi

Giovedì 11 dicembre 2025, alle ore 20.30, presso la Fabbrica delle Candele a Forlì, avrò il piacere di partecipare a una tavola rotonda sul tema Intelligenza Artificiale e Arte, nell’ambito della serata intitolata “Oltre l’algoritmo” che chiude il corso di cinema AI Film Factory!

Una serata dedicata a esplorare l’intelligenza artificiale come nuovo mezzo creativo, accessibile e inclusivo, e a riflettere su come le tecniche artistiche tradizionali si trasformano quando incontrano gli strumenti dell’AI.

In programma:

  • Tavola rotonda moderata dalla giornalista Roberta Invidia, con Filippo Venturi (fotoreporter), Serge Gualini (artista AI), Francesca Leoni e Davide Mastrangelo (direttori artistici di Ibrida Festival).

  • Proiezione del cortometraggio di Francesca Fini, interamente realizzato con varie piattaforme di AI.

  • Presentazione dei lavori finali dei partecipanti ad AI Film Factory, il percorso formativo di 50 ore rivolto ai giovani dai 14 ai 35 anni.

L’ingresso è gratuito e aperto a tutte e tutti.

Sarà un’occasione per incontrarsi, condividere visioni e riflettere insieme sui linguaggi che stanno ridefinendo il nostro modo di creare e immaginare.

Il Signore degli Algoritmi by Filippo Venturi

[Una immagine dal mio lavoro “Broken Mirror”, realizzato con Intelligenza Artificiale]

Il Signore degli Algoritmi

Sorvegliare, prevedere, colpire: il futuro plasmato dalle grandi aziende tecnologiche

A maggio, nei giorni in cui lavoravo all’articolo sull’80° anniversario del lancio delle bombe atomiche su Hiroshima e Nagasaki (uscito su FotoIT a novembre), mi è capitato di sentire il confronto avvenuto fra Alex Karp, CEO di Palantir Technologies, e una attivista pro-Palestina che lo aveva interrotto durante un intervento all’Hill and Valley Forum, un evento dedicato alla politica tecnologica.

Palantir Technologies è un’azienda statunitense specializzata nell'analisi dei big data (enormi quantità di dati, strutturati e non, così numerosi, vari e complessi da non poter essere gestiti con strumenti tradizionali) e nello sviluppo di sistemi basati sull’intelligenza artificiale (IA). L’azienda è storicamente legata ai governi americani che si sono susseguiti negli ultimi decenni e all’esercito. Fra gli scopi più controversi attribuiti all’azienda ci sarebbe l’uso dei big data, dell’intelligenza artificiale e delle tecnologie per la sorveglianza per predire i crimini e chi li compirà. Uno scenario che ricorda il film “Minority Report” di Steven Spielberg e, prima ancora, il romanzo “Rapporto di minoranza” di Philip K. Dick.

Il nome dell'azienda deriva dai Palantir, chiamati anche Pietre Veggenti, manufatti dell'universo immaginario fantasy creato dallo scrittore inglese J.R.R. Tolkien. I Palantir, la cui traduzione è "Coloro che sorvegliano da lontano", sono sfere di cristallo che permettono a chi ne osserva una di vedere e comunicare, anche a grande distanza, con chiunque stia a sua volta osservandone un altro Palantir. L’azienda ha adottato questo nome perché intende offrire ai suoi clienti strumenti capaci di osservare e mettere in luce pattern invisibili dentro enormi masse di dati.

Nel report pubblicato il 30 giugno 2025 intitolato “From economy of occupation to economy of genocide”, la relatrice ONU Francesca Albanese accusa una quarantina di aziende — tra cui Palantir Technologies — di avere «fornito tecnologia di polizia predittiva automatizzata, infrastrutture di difesa per la rapida implementazione di software militari e piattaforme di IA per decisioni automatizzate sul campo di battaglia» alle Forze di Difesa Israeliane (IDF).

Tornando al confronto, la parte più interessante è la seguente:
«La vostra tecnologia uccide i palestinesi» ha urlato la manifestante.
«Per lo più terroristi, è vero», ha risposto Karp (non esistono dati univoci, le stime indicano però che tra il 60% e l’80% delle vittime complessive sono civili). 
[…]
«La più ovvia soluzione alla guerra [in Palestina] è che l’Occidente abbia le armi più forti, precise e letali possibili, così da poter ridurre al minimo le morti non necessarie, e il modo migliore per ridurre quelle morti è essere così forti da non essere attaccati. È proprio così che si fa!», ha concluso Karp.

Per il CEO di Palantir Technologies, quindi, l’unica via per preservare la pace passa attraverso il consolidamento di una superiorità tecnologico-militare schiacciante, resa possibile da sistemi d’arma sempre più autonomi, sempre più intelligenti, sempre più veloci nell’individuare un obiettivo e nel colpirlo. Questa idea che “per avere la pace bisogna essere i più forti” non è nuova. È la stessa logica che ha alimentato, oltre ottant’anni fa, la corsa alla bomba atomica.

Durante la Seconda guerra mondiale, gli Stati Uniti investirono nel Progetto Manhattan somme imponenti per anticipare le ricerche della Germania. In questi anni una dinamica simile sembra ripetersi con l’intelligenza artificiale, in una corsa contro la Cina. Le grandi potenze — e con loro le aziende tecnologiche private che operano a stretto contatto con i governi — stanno riversando capitali colossali nello sviluppo di algoritmi capaci di orientare il campo di battaglia.

Il costo totale del Progetto Manhattan, dal 1942 al 1946, fu di circa 2 miliardi di dollari dell’epoca. A seconda del metodo di aggiustamento per l’inflazione, questa cifra viene spesso tradotta in circa 30–50 miliardi di dollari attuali. Il grosso del costo fu assorbito dalle infrastrutture, come gli impianti per l’arricchimento dell’uranio a Oak Ridge, i reattori a Hanford e il centro di ricerca a Los Alamos.

Secondo il Stanford Institute for Human‑Centered AI (HAI), la spesa federale americana per contratti legati all’IA è cresciuta da circa 3,2 miliardi di dollari (2022) a 3,3 miliardi di dollari (2023), ma a questa vanno aggiunti i costi sostenuti dalle Big Tech private, sempre più legate e dipendenti all’Amministrazione di Donald Trump, e che si stima investiranno fra i 300 e i 400 miliardi di dollari solo quest’anno.

Secondo una stima pubblicata dalla società Gartner nel 2025, la spesa globale per l’intelligenza artificiale (infrastruttura, software, servizi, hardware) è stimato che possa raggiungere circa 1,5 trilioni di dollari entro la fine dell’anno.

Allora si correva per costruire l’arma definitiva, quella che avrebbe garantito supremazia e deterrenza. Oggi la competizione riguarda sistemi di intelligenza artificiale capaci di sostenere nuove generazioni di armamenti autonomi, più efficaci e letali. Questa potrebbe essere anche una delle ragioni per cui quantità enormi di investimenti stanno affluendo verso aziende tecnologiche che, in realtà, continuano a registrare perdite significative o utili irrisori. Come nel 1945 il valore non risiede nei profitti immediati, ma nel vantaggio strategico e della promessa di un’egemonia futura.

Nei giorni scorsi Trump ha ribadito, con il lancio della Genesis Mission, definita dalla Casa Bianca come «il più grande motore della scoperta scientifica americana dai tempi del programma Apollo», la centralità dello sviluppo e implementazione dell’intelligenza artificiale nel sistema americano, nelle tecnologie e nelle ricerche future.

Il fatto che Palantir Technologies e altre compagnie tecnologiche siano tra le più vicine alle istituzioni politiche e militari non sembra più un dettaglio tecnico, ma un tratto distintivo di una nuova fase geopolitica. Una fase in cui tecnologia e guerra tornano a sovrapporsi, e in cui l’intelligenza artificiale rischia di diventare ciò che la bomba atomica è stata per il Novecento, cioè l’oggetto di una corsa che nessuno può permettersi di perdere, anche a costo di ignorare del tutto le conseguenze etiche e umanitarie.

E il giorno in cui questo risultato sarà raggiunto, servirà una dimostrazione di forza, che ci ricorderà nuovamente cosa accade quando la scienza e il potere si alleano senza limiti etici.

Cosa resta dell'Arte - Intervista per In Magazine by Filippo Venturi

Su In Magazine Forlì-Cesena è uscito un interessante articolo di Roberta Invidia in cui intervista il sottoscritto, Francesca Leoni e Davide Mastrangelo (direttori artistici del Festival Ibrida) su come sta evolvendo l'arte dall'arrivo dell'intelligenza artificiale :)


Cosa succede all’arte, e al ruolo dell’autore, quando l’intelligenza artificiale sembra saper fare tutto? Da questa domanda siamo partiti per interrogare chi, nella fotografia e nell’arte, ha già fatto i conti con questa nuova tecnologia. Nel dialogo tra Filippo Venturi – fotografo cesenate pluripremiato per i suoi reportage d’attualità – e Francesca Leoni e Davide Mastrangelo – ideatori e direttori artistici di Ibrida Festival che porta a Forlì la video art e le performance multimediali –, emerge che, paradossalmente, più la tecnologia diventa autonoma, più diventa necessario sapere di chi è la paternità di un pensiero, di un’opera. Un nuovo spazio di autenticità da cui ripartire.

“L’intelligenza artificiale mi ha incuriosito da subito,” dice Filippo Venturi che è laureato in Scienze dell’Informazione a Bologna. “Ho cominciato a sperimentare nel 2023 e poi mi sono appassionato a Midjourney: mi incuriosiva il modo in cui le immagini generate dal software potevano imitare la fotografia, anche se in modo ancora approssimativo.” Da quell’esperimento è nato Broken Mirror, un progetto che “ri-racconta” il suo reportage fotografico sulla Corea del Nord. [...]

L’articolo integrale si può leggere gratuitamente online, a questo link:
https://www.inmagazineromagna.it/forli-in-magazine-04-25/

Nota dell'Autore by Filippo Venturi

Una immagine dal mio lavoro “Handbook of escape”, generata con l’IA /// An image from my work “Handbook of Escape”, generated with AI.


Nota dell’autore

Ho scelto di inserire questa Nota per chiarire come utilizzo l’intelligenza artificiale (IA) nei miei testi. Così come auspico trasparenza per le immagini generate con IA (soprattutto quando imitano la fotografia, in particolare in questa fase storica), la ritengo importante anche nella scrittura. Mi piacerebbe che indicazioni di questo tipo comparissero più spesso anche nei giornali e nelle altre fonti che consulto, magari accompagnate da dettagli specifici nel caso di un uso più esteso o diversificato di questa tecnologia.

Nei miei articoli utilizzo strumenti basati sull’intelligenza artificiale come assistenti editoriali, ma le idee, le interpretazioni e le connessioni concettuali sono interamente umane e frutto della mia ricerca personale.

Impiego l’IA nella fase di revisione della bozza per individuare eventuali errori grammaticali, refusi o imprecisioni concettuali, verificare la correttezza di date e riferimenti, valutare la chiarezza del testo per un pubblico che potrebbe non conoscere i temi trattati (sigle, acronimi, termini tecnici) e ridurre le ripetizioni.

Valuto e verifico sempre ogni suggerimento dell’IA, consapevole che in alcuni casi può generare errori o “allucinazioni”, cioè dati inventati o distorti. Nessuna modifica proposta viene applicata automaticamente.

Non la utilizzo per generare contenuti originali, elaborare tesi o formulare giudizi. Ogni argomento, esempio e analisi proviene dal mio lavoro, dalla mia esperienza diretta o da fonti verificabili.

Credo che il ruolo dell’autore oggi non sia quello di escludere la tecnologia, ma di governarla in modo consapevole e trasparente.

È importante aggiornare o modificare la Nota in funzione dell’uso effettivo dell’IA, così che resti uno strumento di trasparenza autentica e non una formula di rito.


Author’s Note

I chose to include this note to clarify the way in which I use artificial intelligence (AI) in my writing. Just as I advocate for transparency in AI-generated images (especially when they imitate photography), I believe it is equally important in written work. I would like to see such statements appear more frequently in newspapers and other sources I consult — ideally accompanied by specific details when this technology is used more extensively or in diverse ways.

In my articles, I use AI tools as editorial assistants, but the ideas, interpretations, and conceptual connections are entirely human and the result of my own research.

I employ AI during the draft revision phase to identify possible grammatical errors, typos, or conceptual inaccuracies; to check the accuracy of dates and references; to assess the clarity of the text for readers who may not be familiar with the topics discussed (such as acronyms, abbreviations, or technical terms); and to reduce repetitions.

I carefully review and verify all AI suggestions, aware that in some cases it may produce errors or so-called “hallucinations,” — invented or distorted information. No proposed change is ever applied automatically.

I do not use AI to generate original content, develop theses, or formulate judgments. Every topic, example, and analysis originates from my own work, direct experience, or verifiable sources.

I believe the author’s role today is not to exclude technology, but to govern it consciously and transparently.

It is important to update or modify this note according to the actual use of AI, so that it remains a genuine instrument of transparency rather than a mere formality.

L’intelligenza artificiale salverà il giornalismo? by Filippo Venturi

L’intelligenza artificiale salverà il giornalismo?

L’intelligenza artificiale sta rivoluzionando il modo in cui cerchiamo, leggiamo e produciamo notizie. Una trasformazione che potrebbe rappresentare un’opportunità, oppure infliggere un nuovo colpo al giornalismo.

Negli ultimi giorni si sta discutendo molto delle nuove funzionalità introdotte dai motori di ricerca, che sostituiscono il tradizionale elenco di link con sintesi generate dall’intelligenza artificiale. Google, leader del settore da anni, ha introdotto le cosiddette AI Overview (o riassunti automatizzati) che offrono risposte già strutturate e spesso sufficientemente complete da ridurre drasticamente la necessità per l’utente di visitare le fonti originali (i siti web da cui l’IA ha preso le informazioni). Di conseguenza, molti di questi siti web stanno registrando un significativo calo di traffico organico, sollevando preoccupazioni sul futuro dell’ecosistema dell’informazione online e sulla redistribuzione del valore tra piattaforme e produttori di contenuti.

Mi è capitato di leggere diversi articoli, qualcuno anche molto ottimista, che ipotizza che l’IA stia offrendo una grande opportunità nel settore delle news. Io ci andrei più cauto.

Uno dei punti a favore sarebbe che i siti web non dovrebbero più pensare all’ottimizzazione della SEO (Search Engine Optimization), che li spingeva a scrivere titoli e contenuti privilegiando certe parole chiave che ne aumentavano la visibilità sui motori di ricerca, a discapito dell’autorevolezza e della credibilità che, invece, diventerebbero prioritari in questo nuovo funzionamento di Google e affini.

In realtà non ci sono prove che supportino questa teoria ma, anche prendendola per buona, così come nel tempo sono cambiati gli algoritmi dei motori di ricerca, possono cambiare i criteri e le priorità assegnati alle intelligenze artificiali. E questo in base alla volontà di multinazionali americane o cinesi (i paesi che più stanno investendo nel settore), il cui fine può divergere da quello di un servizio pubblico trasparente e onesto (vedi Grok e Grokipedia di Elon Musk, fortemente personalizzate dal loro creatore a discapito dell’affidabilità nel fornire informazioni).

Facendo un passo indietro, inoltre, mi sembra che il problema di questi tempi dei titoli usati da diversi giornali e riviste non sia tanto la banalizzazione dovuta alla SEO ma il clickbaiting, cioè la scelta di titoli ambigui che possono provocare reazioni più forti in parte dei lettori, a cui però non corrispondeva il contenuto effettivo dell’articolo. In certi casi questi titoli corrispondono a vera e propria disinformazione.

C’è poi un elefante nella stanza che alcuni si ostinano a fingere di non vedere. Questi motori di ricerca stanno usando i contenuti prodotti da giornali, riviste e altri media senza un riconoscimento economico per le fonti. Se prima Google aveva creato un sistema in cui riconosceva i click ottenuti dal tuo sito, oggi che questi click vengono meno non è prevista alcuna monetizzazione, specie se l’utente si limita a consultare la risposta generata dall’IA.

Quei giornali che invece si sostengono con gli abbonamenti online funzionano proprio perché i loro contenuti (in teoria di qualità superiore) non sono accessibili a chiunque. Per logica, questi contenuti di alto livello non saranno a disposizione delle IA (a meno di accordi specifici) e quindi già qui potrebbe scricchiolare il discorso iniziale del premiare la qualità. Inoltre i giornali gratuiti, perdendo i click e quindi gli introiti che ne conseguivano, saranno più difficilmente sostenibili. Il rapido crollo dei click sui siti indicizzati da Google sta già avvenendo e si possono trovare diversi articoli sul tema (ad esempio “Google users are less likely to click on links when an AI summary appears in the results” del Pew Research Center).

I software generativi, e quindi anche i nuovi motori di ricerca, in linea teorica, hanno un grande bisogno di fonti e contenuti di alta qualità, ma i giornali più importanti al mondo si sostengono con gli abbonamenti e non hanno interesse a perdere i lettori fidelizzati per diventare fornitori di informazioni di motori di ricerca basati su IA, che non portano traffico nel sito, perdendo così anche la possibilità che gli utenti siano attirati a leggere altri tuoi articoli, soffermandosi nel sito, magari clickando pubblicità e così via. Inoltre, se questi giornali decidessero di stringere accordi per diventare fornitori di contenuti informativi per le intelligenze artificiali, perché un abbonato dovrebbe continuare a pagare invece di consultare quei contenuti gratuitamente?

In altre parole, il sistema che alimentava il giornalismo online, basato sulla visibilità, la pubblicità e/o gli abbonamenti, si sta sgretolando, e non è ancora chiaro quale modello economico possa sostituirlo.

A questo punto il nodo cruciale diventa la definizione delle regole del gioco (la trasparenza del funzionamento, l’attribuzione obbligatoria delle fonti giornalistiche nelle risposte dell’IA, i meccanismi di revenue sharing, la trasparenza sui dati e le fonti con cui viene addestrata l’IA, la responsabilità per gli errori fattuali, la protezione della diversità, ecc) ma, considerando lo sbilanciamento delle forze coinvolte, sarebbe necessario un intervento collettivo, comprendendo anche i governi dei vari paesi, per sciogliere il nodo della proprietà delle informazioni e di come queste vanno remunerate dalle piattaforme di IA che le sfruttano.

Questo però rischia di diventare un desiderio irrealizzabile. Chi potrà alzare la voce con colossi tech che godono dell’appoggio dei leader di USA e Cina e che possono dettare le regole in un mondo in competizione che, per ora, non ha interesse a limitare lo sviluppo e il funzionamento dell’IA per non perdere la corsa internazionale che si sta svolgendo. Un intervento del genere sembra, allo stato attuale, fuori portata.

Nei prossimi mesi le visite ai siti e gli introiti di chi produce contenuti online continueranno a diminuire e questi potrebbero non sopravvivere abbastanza a lungo per vedere compiersi una lunga, complessa e non scontata trattativa dignitosa con le Big Tech.

Se poi le Big Tech decidessero di stringere accordi economici soltanto con alcuni produttori di notizie, cosa ne sarà della pluralità e delle piccole realtà?

Un esempio emblematico di questa dinamica è rappresentato dagli accordi di licenza stipulati tra OpenAI e il gruppo tedesco Axel Springer (editore di Politico, Bild e Die Welt) annunciati alla fine del 2023. Si tratta di uno dei primi esperimenti concreti di revenue sharing tra un colosso dell’intelligenza artificiale e un grande gruppo editoriale. In pratica OpenAI può utilizzare i contenuti giornalistici di Springer per addestrare e alimentare i propri modelli linguistici, citandone le fonti e riconoscendo un compenso economico.

Questo, tuttavia, non sembra essere un modello facilmente replicabile. Al contrario, accentua la disuguaglianza strutturale nel panorama dell’informazione perché solo pochi grandi editori, con una forza contrattuale sufficiente e un portafoglio di testate di rilevanza internazionale, possono negoziare intese dirette con le piattaforme di IA. Le realtà minori come i quotidiani locali, le riviste indipendenti, i blog d’inchiesta, le piccole testate culturali, ecc rischiano di restare invece escluse da qualunque forma di remunerazione, pur contribuendo in modo significativo al pluralismo informativo e alla qualità del dibattito pubblico.

La soluzione non è evitare il cambiamento, ma evitare che questo avvenga quando in campo ci sono forze palesemente asimmetriche, con quelle più forti che possono deformare il funzionamento del mondo dell'informazione.

Per salvare il giornalismo occorre prima salvare le condizioni che permettono al giornalismo di esistere. Fra queste vi è la giusta retribuzione per chi produce conoscenza.

[l’immagine di apertura proviene dal mio progetto Broken Mirror, realizzato con l’intelligenza artificiale]