Tavola rotonda su IA e Arte by Filippo Venturi

Giovedì 11 dicembre 2025, alle ore 20.30, presso la Fabbrica delle Candele a Forlì, avrò il piacere di partecipare a una tavola rotonda sul tema Intelligenza Artificiale e Arte, nell’ambito della serata intitolata “Oltre l’algoritmo” che chiude il corso di cinema AI Film Factory!

Una serata dedicata a esplorare l’intelligenza artificiale come nuovo mezzo creativo, accessibile e inclusivo, e a riflettere su come le tecniche artistiche tradizionali si trasformano quando incontrano gli strumenti dell’AI.

In programma:

  • Tavola rotonda moderata dalla giornalista Roberta Invidia, con Filippo Venturi (fotoreporter), Serge Gualini (artista AI), Francesca Leoni e Davide Mastrangelo (direttori artistici di Ibrida Festival).

  • Proiezione del cortometraggio di Francesca Fini, interamente realizzato con varie piattaforme di AI.

  • Presentazione dei lavori finali dei partecipanti ad AI Film Factory, il percorso formativo di 50 ore rivolto ai giovani dai 14 ai 35 anni.

L’ingresso è gratuito e aperto a tutte e tutti.

Sarà un’occasione per incontrarsi, condividere visioni e riflettere insieme sui linguaggi che stanno ridefinendo il nostro modo di creare e immaginare.

Il Signore degli Algoritmi by Filippo Venturi

[Una immagine dal mio lavoro “Broken Mirror”, realizzato con Intelligenza Artificiale]

Il Signore degli Algoritmi

Sorvegliare, prevedere, colpire: il futuro plasmato dalle grandi aziende tecnologiche

A maggio, nei giorni in cui lavoravo all’articolo sull’80° anniversario del lancio delle bombe atomiche su Hiroshima e Nagasaki (uscito su FotoIT a novembre), mi è capitato di sentire il confronto avvenuto fra Alex Karp, CEO di Palantir Technologies, e una attivista pro-Palestina che lo aveva interrotto durante un intervento all’Hill and Valley Forum, un evento dedicato alla politica tecnologica.

Palantir Technologies è un’azienda statunitense specializzata nell'analisi dei big data (enormi quantità di dati, strutturati e non, così numerosi, vari e complessi da non poter essere gestiti con strumenti tradizionali) e nello sviluppo di sistemi basati sull’intelligenza artificiale (IA). L’azienda è storicamente legata ai governi americani che si sono susseguiti negli ultimi decenni e all’esercito. Fra gli scopi più controversi attribuiti all’azienda ci sarebbe l’uso dei big data, dell’intelligenza artificiale e delle tecnologie per la sorveglianza per predire i crimini e chi li compirà. Uno scenario che ricorda il film “Minority Report” di Steven Spielberg e, prima ancora, il romanzo “Rapporto di minoranza” di Philip K. Dick.

Il nome dell'azienda deriva dai Palantir, chiamati anche Pietre Veggenti, manufatti dell'universo immaginario fantasy creato dallo scrittore inglese J.R.R. Tolkien. I Palantir, la cui traduzione è "Coloro che sorvegliano da lontano", sono sfere di cristallo che permettono a chi ne osserva una di vedere e comunicare, anche a grande distanza, con chiunque stia a sua volta osservandone un altro Palantir. L’azienda ha adottato questo nome perché intende offrire ai suoi clienti strumenti capaci di osservare e mettere in luce pattern invisibili dentro enormi masse di dati.

Nel report pubblicato il 30 giugno 2025 intitolato “From economy of occupation to economy of genocide”, la relatrice ONU Francesca Albanese accusa una quarantina di aziende — tra cui Palantir Technologies — di avere «fornito tecnologia di polizia predittiva automatizzata, infrastrutture di difesa per la rapida implementazione di software militari e piattaforme di IA per decisioni automatizzate sul campo di battaglia» alle Forze di Difesa Israeliane (IDF).

Tornando al confronto, la parte più interessante è la seguente:
«La vostra tecnologia uccide i palestinesi» ha urlato la manifestante.
«Per lo più terroristi, è vero», ha risposto Karp (non esistono dati univoci, le stime indicano però che tra il 60% e l’80% delle vittime complessive sono civili). 
[…]
«La più ovvia soluzione alla guerra [in Palestina] è che l’Occidente abbia le armi più forti, precise e letali possibili, così da poter ridurre al minimo le morti non necessarie, e il modo migliore per ridurre quelle morti è essere così forti da non essere attaccati. È proprio così che si fa!», ha concluso Karp.

Per il CEO di Palantir Technologies, quindi, l’unica via per preservare la pace passa attraverso il consolidamento di una superiorità tecnologico-militare schiacciante, resa possibile da sistemi d’arma sempre più autonomi, sempre più intelligenti, sempre più veloci nell’individuare un obiettivo e nel colpirlo. Questa idea che “per avere la pace bisogna essere i più forti” non è nuova. È la stessa logica che ha alimentato, oltre ottant’anni fa, la corsa alla bomba atomica.

Durante la Seconda guerra mondiale, gli Stati Uniti investirono nel Progetto Manhattan somme imponenti per anticipare le ricerche della Germania. In questi anni una dinamica simile sembra ripetersi con l’intelligenza artificiale, in una corsa contro la Cina. Le grandi potenze — e con loro le aziende tecnologiche private che operano a stretto contatto con i governi — stanno riversando capitali colossali nello sviluppo di algoritmi capaci di orientare il campo di battaglia.

Il costo totale del Progetto Manhattan, dal 1942 al 1946, fu di circa 2 miliardi di dollari dell’epoca. A seconda del metodo di aggiustamento per l’inflazione, questa cifra viene spesso tradotta in circa 30–50 miliardi di dollari attuali. Il grosso del costo fu assorbito dalle infrastrutture, come gli impianti per l’arricchimento dell’uranio a Oak Ridge, i reattori a Hanford e il centro di ricerca a Los Alamos.

Secondo il Stanford Institute for Human‑Centered AI (HAI), la spesa federale americana per contratti legati all’IA è cresciuta da circa 3,2 miliardi di dollari (2022) a 3,3 miliardi di dollari (2023), ma a questa vanno aggiunti i costi sostenuti dalle Big Tech private, sempre più legate e dipendenti all’Amministrazione di Donald Trump, e che si stima investiranno fra i 300 e i 400 miliardi di dollari solo quest’anno.

Secondo una stima pubblicata dalla società Gartner nel 2025, la spesa globale per l’intelligenza artificiale (infrastruttura, software, servizi, hardware) è stimato che possa raggiungere circa 1,5 trilioni di dollari entro la fine dell’anno.

Allora si correva per costruire l’arma definitiva, quella che avrebbe garantito supremazia e deterrenza. Oggi la competizione riguarda sistemi di intelligenza artificiale capaci di sostenere nuove generazioni di armamenti autonomi, più efficaci e letali. Questa potrebbe essere anche una delle ragioni per cui quantità enormi di investimenti stanno affluendo verso aziende tecnologiche che, in realtà, continuano a registrare perdite significative o utili irrisori. Come nel 1945 il valore non risiede nei profitti immediati, ma nel vantaggio strategico e della promessa di un’egemonia futura.

Nei giorni scorsi Trump ha ribadito, con il lancio della Genesis Mission, definita dalla Casa Bianca come «il più grande motore della scoperta scientifica americana dai tempi del programma Apollo», la centralità dello sviluppo e implementazione dell’intelligenza artificiale nel sistema americano, nelle tecnologie e nelle ricerche future.

Il fatto che Palantir Technologies e altre compagnie tecnologiche siano tra le più vicine alle istituzioni politiche e militari non sembra più un dettaglio tecnico, ma un tratto distintivo di una nuova fase geopolitica. Una fase in cui tecnologia e guerra tornano a sovrapporsi, e in cui l’intelligenza artificiale rischia di diventare ciò che la bomba atomica è stata per il Novecento, cioè l’oggetto di una corsa che nessuno può permettersi di perdere, anche a costo di ignorare del tutto le conseguenze etiche e umanitarie.

E il giorno in cui questo risultato sarà raggiunto, servirà una dimostrazione di forza, che ci ricorderà nuovamente cosa accade quando la scienza e il potere si alleano senza limiti etici.

Interstizi di coscienza by Filippo Venturi

Il fatto che siano uscite le intercettazioni di Witkoff con Yuri Ushakov, dimostra che anche in una Amministrazione come quella americana, composta nei suoi vertici interamente da yes-man, qualcuno che è schifato c’è sempre.

Mi vengono in mente Fini e Alfano, che a loro tempo misero il bastone fra le ruote a Berlusconi, così come John Bolton con lo stesso Trump (al primo mandato) o Geoffrey Howe con Margaret Thatcher.

Pare che qualcuno dell'intelligence americana (vedi articolo del Guardian, “Chi ha leakato la telefonata di Witkoff?”) abbia voluto portare alla luce le porcherie di Trump e dei suoi uomini di fiducia nel portare avanti le trattative sull’Ucraina, concedendo tutto ai russi. Vedremo se queste interferenze si ripeteranno in futuro.

Non di rado, queste figure ribelli vengono emarginate e quindi è improbabile che facciano quel che facciano per un proprio tornaconto economico o politico. Evidentemente c'è un limite anche nel mangiare la m3rda.

Sembra che anche nei sistemi più verticali e asserviti, qualche individuo conservi un frammento di coscienza, al punto di spingersi a compiere un gesto di sabotaggio, che incrina l’ordine prestabilito. È come se, dentro ogni struttura di potere, sopravvivesse un interstizio in cui il senso di giustizia può ancora mettere radici.

Il bagliore che non svanisce by Filippo Venturi

Su FotoIT è uscito un mio articolo sulla fotografia giapponese in relazione al trauma nucleare di cui, quest’anno, cade l’80° anniversario. Si tratta del primo articolo in cui esploro il linguaggio fotografico in Giappone e che intendo continuare a raccontare in altri articoli che usciranno sulla rivista!

Di seguito un estratto dell’articolo.


Il bagliore che non svanisce

Fotografia e memoria del trauma nucleare in Giappone, 80 anni dopo.

In Europa, la Seconda guerra mondiale terminò l’8 maggio 1945 con la resa della Germania, ma nel Pacifico il conflitto proseguì in modo sanguinoso. Il Giappone, infatti, non contemplava la sconfitta e si preparava a una resistenza a oltranza contro gli attacchi degli americani.

Il 16 luglio 1945, con l’esito positivo del test Trinity, condotto nel deserto del New Mexico nell’ambito del Progetto Manhattan, gli Stati Uniti divennero i primi possessori dell’arma atomica funzionante. In breve tempo, questa nuova bomba fu considerata lo strumento con cui accelerare la conclusione del conflitto: avrebbe dovuto causare una tale distruzione da spezzare anche l’orgoglio giapponese e costringere il paese alla resa.

Il 6 agosto, alle ore 8.15, la bomba all’uranio Little Boy venne sganciata su Hiroshima (l’esplosione avvenne a un’altezza di circa 580 metri dal suolo) provocando la morte immediata di decine di migliaia di persone — il bilancio totale delle vittime, incluse quelle decedute successivamente per ustioni e radiazioni, è stimato in 140.000. Il 9 agosto, alle ore 11.02, la bomba al plutonio Fat Man colpì Nagasaki, causando complessivamente circa 70-80.000 morti.

Neppure dopo queste ecatombi i vertici militari giapponesi accettarono la sconfitta. Si rese quindi necessario l’intervento personale dell’imperatore Hirohito che — rompendo con la tradizione che lo voleva figura sacra e distante — si rivolse per la prima volta direttamente alla nazione, pronunciando il 15 agosto 1945 un discorso radiofonico per annunciare la cessazione delle ostilità e salvare il Giappone dalla completa distruzione. Il 2 settembre 1945, infine, venne firmato l’atto di resa a bordo della nave da guerra USS Missouri, nella baia di Tokyo.

Il trauma atomico del 1945 segnò profondamente l’identità culturale del Giappone e si riflesse con forza nella sua produzione artistica, dando origine a una lunga e dolorosa elaborazione collettiva. L’esperienza apocalittica di Hiroshima e Nagasaki, unita allo shock per la resa e la fine dell’imperialismo, generò un senso diffuso di lutto, vergogna e riflessione esistenziale, che si tradusse in una ricerca di nuove forme espressive capaci di affrontare l’irrappresentabile e di dare voce all’angoscia di un’intera nazione. […]


Ulisse alla scoperta di Letizia Battaglia by Filippo Venturi

Qualche giorno fa ho portato mio figlio Ulisse alla visita guidata per bambini — condotta dalla sempre bravissima Lisa Rodi — della mostra “Letizia Battaglia. L'opera 1970-2020” ai Musei di San Domenico, a Forlì.

Conoscevo già bene il lavoro immenso di Letizia, ma questa visita mi ha permesso di rivederlo con calma e scoprire nuovi dettagli e aneddoti.

Al primo piano, comprensibilmente, la visita guidata ha saltato la sala dedicata alle stragi di mafia dove io, invece, mi ci sono soffermato a lungo.

Come detto, conoscevo già queste fotografie ma, entrando nella sala, quando mi è apparsa la stampa grande del giudice Giovanni Falcone ai funerali del generale Dalla Chiesa, vittima della mafia nel 1982, e conoscendo anche il destino solitario che lo attenderà nei dieci anni successivi, fino al suo assassinio, ho avuto una sorta di sindrome di Stendhal e gli occhi mi si sono riempiti di lacrime.

Ho rivisto i cadaveri delle vittime, le macchine coi vetri in frantumi, i parenti disperati e tutto il turbinio di voci e grida — potevo sentirle, in qualche modo — e questo era davvero insopportabile. Quando poi ho letto il testo che presentava le opere esposte nella sala, ho potuto comprendere a fondo la sua profonda stanchezza nel fotografare queste situazioni, senza vedere una reazione da parte dei cittadini e delle autorità.

Dopo essermi ripreso, mi sono riunito al gruppo di bambini che, intanto, stava osservando una delle sale successive, con soggetti più leggeri, dove c’erano anche le fotografie di Letizia a dei bambini che giocano con delle pistole giocattolo ricevute in dono dai genitori, nel Giorno dei Morti.

Sono arrivato giusto in tempo per sentire Ulisse fare una delle sue tipiche osservazioni, da bambino, a volte fuori tema ma allo stesso tempo perfettamente in tema: “Io è tutta la vita che mi chiedo perché fanno i fucili e le pistole se poi non le usano bene”.

Ho provato una certa soddisfazione e consolazione.

Nell’ultima sala, la mia attenzione è andata al potente ritratto che Letizia Battaglia ha fatto a Rosaria Costa — la vedova dell’agente di scorta Vito Schifani, ucciso nella strage di Capaci del 23 maggio 1992 insieme a Giovanni Falcone, alla moglie e agli altri agenti — e si è ripetuto quello strano fenomeno in cui potevo sentire le fotografie parlare, ma in questo caso ho udito le parole del suo indimenticabile intervento in chiesa, al funerale del marito.

Ulisse ha invece notato la foto di una madre sulla spiaggia, abbracciata alla figlia, con didascalia “Olimpia a Mondello” e mi ha confidato che gli piacerebbe una foto così, abbracciato alla mamma.

Butoh, a japanese dance by Filippo Venturi

Some photos from my reportage on butoh dance, which is part of the project “The nails that sticks out gets hammered down”.

Butoh dancer Kohei Wakaba during the costume-dressing for the performance titled “Those Who Ain’t Damn Nobody,” staged together with fellow butoh dancer Mana Kawamura.



Butoh dance was born in Japan in the late 1950s as a form of aesthetic and spiritual rebellion against the wounds of the postwar period, Western influence, and the pressures of a society built on order, conformity, and productivity.

Created by choreographer Tatsumi Hijikata and dancer Kazuo Ōno, it transforms the body into a instrument of protest and revelation.

Bodies painted white, slow or convulsive movements, grotesque and distorted gestures stage pain, metamorphosis, and the individual’s resistance.

Also called the “dance of darkness”, Butoh explores the unspeakable: atomic memory, social repression, and the deep tensions between harmony and suffering that run through the soul of contemporary Japan.

«The moon is invisible during the day and shines brightly at night. It takes night to make the moon shine. It takes ugliness to make the public reflect on beauty.»

«I believe that the role of Butoh is to resist defeat, on the ash-covered ground, next to the fragments of intercontinental ballistic missiles, without shouting against war or calling for peace, but simply standing silently, painted white, amid the ashes.»

— Kohei Wakaba

Cosa resta dell'Arte - Intervista per In Magazine by Filippo Venturi

Su In Magazine Forlì-Cesena è uscito un interessante articolo di Roberta Invidia in cui intervista il sottoscritto, Francesca Leoni e Davide Mastrangelo (direttori artistici del Festival Ibrida) su come sta evolvendo l'arte dall'arrivo dell'intelligenza artificiale :)


Cosa succede all’arte, e al ruolo dell’autore, quando l’intelligenza artificiale sembra saper fare tutto? Da questa domanda siamo partiti per interrogare chi, nella fotografia e nell’arte, ha già fatto i conti con questa nuova tecnologia. Nel dialogo tra Filippo Venturi – fotografo cesenate pluripremiato per i suoi reportage d’attualità – e Francesca Leoni e Davide Mastrangelo – ideatori e direttori artistici di Ibrida Festival che porta a Forlì la video art e le performance multimediali –, emerge che, paradossalmente, più la tecnologia diventa autonoma, più diventa necessario sapere di chi è la paternità di un pensiero, di un’opera. Un nuovo spazio di autenticità da cui ripartire.

“L’intelligenza artificiale mi ha incuriosito da subito,” dice Filippo Venturi che è laureato in Scienze dell’Informazione a Bologna. “Ho cominciato a sperimentare nel 2023 e poi mi sono appassionato a Midjourney: mi incuriosiva il modo in cui le immagini generate dal software potevano imitare la fotografia, anche se in modo ancora approssimativo.” Da quell’esperimento è nato Broken Mirror, un progetto che “ri-racconta” il suo reportage fotografico sulla Corea del Nord. [...]

L’articolo integrale si può leggere gratuitamente online, a questo link:
https://www.inmagazineromagna.it/forli-in-magazine-04-25/

Nota dell'Autore by Filippo Venturi

Una immagine dal mio lavoro “Handbook of escape”, generata con l’IA /// An image from my work “Handbook of Escape”, generated with AI.


Nota dell’autore

Ho scelto di inserire questa Nota per chiarire come utilizzo l’intelligenza artificiale (IA) nei miei testi. Così come auspico trasparenza per le immagini generate con IA (soprattutto quando imitano la fotografia, in particolare in questa fase storica), la ritengo importante anche nella scrittura. Mi piacerebbe che indicazioni di questo tipo comparissero più spesso anche nei giornali e nelle altre fonti che consulto, magari accompagnate da dettagli specifici nel caso di un uso più esteso o diversificato di questa tecnologia.

Nei miei articoli utilizzo strumenti basati sull’intelligenza artificiale come assistenti editoriali, ma le idee, le interpretazioni e le connessioni concettuali sono interamente umane e frutto della mia ricerca personale.

Impiego l’IA nella fase di revisione della bozza per individuare eventuali errori grammaticali, refusi o imprecisioni concettuali, verificare la correttezza di date e riferimenti, valutare la chiarezza del testo per un pubblico che potrebbe non conoscere i temi trattati (sigle, acronimi, termini tecnici) e ridurre le ripetizioni.

Valuto e verifico sempre ogni suggerimento dell’IA, consapevole che in alcuni casi può generare errori o “allucinazioni”, cioè dati inventati o distorti. Nessuna modifica proposta viene applicata automaticamente.

Non la utilizzo per generare contenuti originali, elaborare tesi o formulare giudizi. Ogni argomento, esempio e analisi proviene dal mio lavoro, dalla mia esperienza diretta o da fonti verificabili.

Credo che il ruolo dell’autore oggi non sia quello di escludere la tecnologia, ma di governarla in modo consapevole e trasparente.

È importante aggiornare o modificare la Nota in funzione dell’uso effettivo dell’IA, così che resti uno strumento di trasparenza autentica e non una formula di rito.


Author’s Note

I chose to include this note to clarify the way in which I use artificial intelligence (AI) in my writing. Just as I advocate for transparency in AI-generated images (especially when they imitate photography), I believe it is equally important in written work. I would like to see such statements appear more frequently in newspapers and other sources I consult — ideally accompanied by specific details when this technology is used more extensively or in diverse ways.

In my articles, I use AI tools as editorial assistants, but the ideas, interpretations, and conceptual connections are entirely human and the result of my own research.

I employ AI during the draft revision phase to identify possible grammatical errors, typos, or conceptual inaccuracies; to check the accuracy of dates and references; to assess the clarity of the text for readers who may not be familiar with the topics discussed (such as acronyms, abbreviations, or technical terms); and to reduce repetitions.

I carefully review and verify all AI suggestions, aware that in some cases it may produce errors or so-called “hallucinations,” — invented or distorted information. No proposed change is ever applied automatically.

I do not use AI to generate original content, develop theses, or formulate judgments. Every topic, example, and analysis originates from my own work, direct experience, or verifiable sources.

I believe the author’s role today is not to exclude technology, but to govern it consciously and transparently.

It is important to update or modify this note according to the actual use of AI, so that it remains a genuine instrument of transparency rather than a mere formality.

L’intelligenza artificiale salverà il giornalismo? by Filippo Venturi

L’intelligenza artificiale salverà il giornalismo?

L’intelligenza artificiale sta rivoluzionando il modo in cui cerchiamo, leggiamo e produciamo notizie. Una trasformazione che potrebbe rappresentare un’opportunità, oppure infliggere un nuovo colpo al giornalismo.

Negli ultimi giorni si sta discutendo molto delle nuove funzionalità introdotte dai motori di ricerca, che sostituiscono il tradizionale elenco di link con sintesi generate dall’intelligenza artificiale. Google, leader del settore da anni, ha introdotto le cosiddette AI Overview (o riassunti automatizzati) che offrono risposte già strutturate e spesso sufficientemente complete da ridurre drasticamente la necessità per l’utente di visitare le fonti originali (i siti web da cui l’IA ha preso le informazioni). Di conseguenza, molti di questi siti web stanno registrando un significativo calo di traffico organico, sollevando preoccupazioni sul futuro dell’ecosistema dell’informazione online e sulla redistribuzione del valore tra piattaforme e produttori di contenuti.

Mi è capitato di leggere diversi articoli, qualcuno anche molto ottimista, che ipotizza che l’IA stia offrendo una grande opportunità nel settore delle news. Io ci andrei più cauto.

Uno dei punti a favore sarebbe che i siti web non dovrebbero più pensare all’ottimizzazione della SEO (Search Engine Optimization), che li spingeva a scrivere titoli e contenuti privilegiando certe parole chiave che ne aumentavano la visibilità sui motori di ricerca, a discapito dell’autorevolezza e della credibilità che, invece, diventerebbero prioritari in questo nuovo funzionamento di Google e affini.

In realtà non ci sono prove che supportino questa teoria ma, anche prendendola per buona, così come nel tempo sono cambiati gli algoritmi dei motori di ricerca, possono cambiare i criteri e le priorità assegnati alle intelligenze artificiali. E questo in base alla volontà di multinazionali americane o cinesi (i paesi che più stanno investendo nel settore), il cui fine può divergere da quello di un servizio pubblico trasparente e onesto (vedi Grok e Grokipedia di Elon Musk, fortemente personalizzate dal loro creatore a discapito dell’affidabilità nel fornire informazioni).

Facendo un passo indietro, inoltre, mi sembra che il problema di questi tempi dei titoli usati da diversi giornali e riviste non sia tanto la banalizzazione dovuta alla SEO ma il clickbaiting, cioè la scelta di titoli ambigui che possono provocare reazioni più forti in parte dei lettori, a cui però non corrispondeva il contenuto effettivo dell’articolo. In certi casi questi titoli corrispondono a vera e propria disinformazione.

C’è poi un elefante nella stanza che alcuni si ostinano a fingere di non vedere. Questi motori di ricerca stanno usando i contenuti prodotti da giornali, riviste e altri media senza un riconoscimento economico per le fonti. Se prima Google aveva creato un sistema in cui riconosceva i click ottenuti dal tuo sito, oggi che questi click vengono meno non è prevista alcuna monetizzazione, specie se l’utente si limita a consultare la risposta generata dall’IA.

Quei giornali che invece si sostengono con gli abbonamenti online funzionano proprio perché i loro contenuti (in teoria di qualità superiore) non sono accessibili a chiunque. Per logica, questi contenuti di alto livello non saranno a disposizione delle IA (a meno di accordi specifici) e quindi già qui potrebbe scricchiolare il discorso iniziale del premiare la qualità. Inoltre i giornali gratuiti, perdendo i click e quindi gli introiti che ne conseguivano, saranno più difficilmente sostenibili. Il rapido crollo dei click sui siti indicizzati da Google sta già avvenendo e si possono trovare diversi articoli sul tema (ad esempio “Google users are less likely to click on links when an AI summary appears in the results” del Pew Research Center).

I software generativi, e quindi anche i nuovi motori di ricerca, in linea teorica, hanno un grande bisogno di fonti e contenuti di alta qualità, ma i giornali più importanti al mondo si sostengono con gli abbonamenti e non hanno interesse a perdere i lettori fidelizzati per diventare fornitori di informazioni di motori di ricerca basati su IA, che non portano traffico nel sito, perdendo così anche la possibilità che gli utenti siano attirati a leggere altri tuoi articoli, soffermandosi nel sito, magari clickando pubblicità e così via. Inoltre, se questi giornali decidessero di stringere accordi per diventare fornitori di contenuti informativi per le intelligenze artificiali, perché un abbonato dovrebbe continuare a pagare invece di consultare quei contenuti gratuitamente?

In altre parole, il sistema che alimentava il giornalismo online, basato sulla visibilità, la pubblicità e/o gli abbonamenti, si sta sgretolando, e non è ancora chiaro quale modello economico possa sostituirlo.

A questo punto il nodo cruciale diventa la definizione delle regole del gioco (la trasparenza del funzionamento, l’attribuzione obbligatoria delle fonti giornalistiche nelle risposte dell’IA, i meccanismi di revenue sharing, la trasparenza sui dati e le fonti con cui viene addestrata l’IA, la responsabilità per gli errori fattuali, la protezione della diversità, ecc) ma, considerando lo sbilanciamento delle forze coinvolte, sarebbe necessario un intervento collettivo, comprendendo anche i governi dei vari paesi, per sciogliere il nodo della proprietà delle informazioni e di come queste vanno remunerate dalle piattaforme di IA che le sfruttano.

Questo però rischia di diventare un desiderio irrealizzabile. Chi potrà alzare la voce con colossi tech che godono dell’appoggio dei leader di USA e Cina e che possono dettare le regole in un mondo in competizione che, per ora, non ha interesse a limitare lo sviluppo e il funzionamento dell’IA per non perdere la corsa internazionale che si sta svolgendo. Un intervento del genere sembra, allo stato attuale, fuori portata.

Nei prossimi mesi le visite ai siti e gli introiti di chi produce contenuti online continueranno a diminuire e questi potrebbero non sopravvivere abbastanza a lungo per vedere compiersi una lunga, complessa e non scontata trattativa dignitosa con le Big Tech.

Se poi le Big Tech decidessero di stringere accordi economici soltanto con alcuni produttori di notizie, cosa ne sarà della pluralità e delle piccole realtà?

Un esempio emblematico di questa dinamica è rappresentato dagli accordi di licenza stipulati tra OpenAI e il gruppo tedesco Axel Springer (editore di Politico, Bild e Die Welt) annunciati alla fine del 2023. Si tratta di uno dei primi esperimenti concreti di revenue sharing tra un colosso dell’intelligenza artificiale e un grande gruppo editoriale. In pratica OpenAI può utilizzare i contenuti giornalistici di Springer per addestrare e alimentare i propri modelli linguistici, citandone le fonti e riconoscendo un compenso economico.

Questo, tuttavia, non sembra essere un modello facilmente replicabile. Al contrario, accentua la disuguaglianza strutturale nel panorama dell’informazione perché solo pochi grandi editori, con una forza contrattuale sufficiente e un portafoglio di testate di rilevanza internazionale, possono negoziare intese dirette con le piattaforme di IA. Le realtà minori come i quotidiani locali, le riviste indipendenti, i blog d’inchiesta, le piccole testate culturali, ecc rischiano di restare invece escluse da qualunque forma di remunerazione, pur contribuendo in modo significativo al pluralismo informativo e alla qualità del dibattito pubblico.

La soluzione non è evitare il cambiamento, ma evitare che questo avvenga quando in campo ci sono forze palesemente asimmetriche, con quelle più forti che possono deformare il funzionamento del mondo dell'informazione.

Per salvare il giornalismo occorre prima salvare le condizioni che permettono al giornalismo di esistere. Fra queste vi è la giusta retribuzione per chi produce conoscenza.

[l’immagine di apertura proviene dal mio progetto Broken Mirror, realizzato con l’intelligenza artificiale]

La verità secondo Grok by Filippo Venturi

(english below)

"L'obiettivo di Grok e Grokipedia è la verità, tutta la verità e nient'altro che la verità. Non saremo mai perfetti, ma ci impegneremo comunque per raggiungere questo obiettivo." — Elon Musk, 28/10/2025

Quello nell’immagine è il confronto del primo paragrafo di Wikipedia e di Grokipedia su George Floyd.
Notate qualcosa?

Wikipedia (che con tutti i suoi difetti è ancora uno dei prodotti migliori partoriti dal web) adotta un linguaggio neutro e documentato, concentrandosi sul fatto centrale, cioè l’uccisione di un afroamericano da parte di un agente di polizia e sulle conseguenze sociali e politiche dell’evento, come proteste, slogan, riflessioni collettive.

Grokipedia invece cambia la prospettiva. Apre enfatizzando presunti precedenti penali di Floyd, costruendo implicitamente una narrazione giustificazionista e denigratoria, riduce drasticamente il contesto di brutalità poliziesca e discriminazione razziale.

Questo confronto ci ricorda che la verità non è mai un territorio neutro, ma un campo di forze in continua contesa. Capire come un’informazione prende forma è oggi più importante che crederle acriticamente, così come è importante scegliere le fonti giuste. Solo così possiamo restare consapevoli in un mondo dove anche i fatti vengono progettati.

Sotto la traduzione in italiano dei testi di Wikipedia e Grokipedia:

Wikipedia / George Floyd
George Perry Floyd Jr. (14 ottobre 1973 – 25 maggio 2020) era un afroamericano ucciso da un agente di polizia bianco a Minneapolis, Minnesota, durante un arresto avvenuto dopo che un commesso sospettò che Floyd avesse usato una banconota contraffatta da venti dollari, il 25 maggio 2020. Derek Chauvin, uno dei quattro agenti di polizia giunti sul posto, si inginocchiò sul collo e sulla schiena di Floyd per oltre nove minuti, causandone la morte per asfissia. Dopo il suo omicidio, una serie di proteste contro la brutalità della polizia, specialmente verso le persone nere, si diffuse rapidamente in tutto il mondo e negli Stati Uniti. Le sue ultime parole, “Non posso respirare”, divennero uno slogan di battaglia.

Grokipedia / George Floyd
George Perry Floyd Jr. (14 ottobre 1973 – 25 maggio 2020) era un americano con un lungo record criminale, comprese condanne per rapina a mano armata, possesso di droga e furto in Texas dal 1997 al 2007. Il 25 maggio 2020, Floyd fu arrestato a Minneapolis, Minnesota, dopo che un commesso di un negozio riferì che aveva usato una banconota contraffatta da 20 dollari per acquistare sigarette. Durante l’arresto, che coinvolse la resistenza di Floyd, il quale ripeté più volte di non riuscire a respirare anche prima di essere messo a terra, l’agente Derek Chauvin si inginocchiò sul collo di Floyd per 9 minuti e 29 secondi, finché Floyd non divenne incosciente.


"The goal of Grok and Grokipedia.com is the truth, the whole truth and nothing but the truth. We will never be perfect, but we shall nonetheless strive towards that goal." — Elon Musk, October 28, 2025.

The image shows a comparison between the first paragraph of Wikipedia and Grokipedia about George Floyd. Notice anything?

Wikipedia (which, for all its flaws, is still one of the best things ever produced by the web) uses neutral, well-documented language, focusing on the central fact — the killing of an African American man by a police officer — and on the social and political consequences of the event, such as protests, slogans, and collective reflection.

Grokipedia, on the other hand, shifts the perspective. It opens by emphasizing Floyd’s alleged criminal record, implicitly building a narrative that is both justificatory and disparaging, while drastically reducing the broader context of police brutality and racial discrimination.