News

L’intelligenza artificiale salverà il giornalismo? by Filippo Venturi

L’intelligenza artificiale salverà il giornalismo?

L’intelligenza artificiale sta rivoluzionando il modo in cui cerchiamo, leggiamo e produciamo notizie. Una trasformazione che potrebbe rappresentare un’opportunità, oppure infliggere un nuovo colpo al giornalismo.

Negli ultimi giorni si sta discutendo molto delle nuove funzionalità introdotte dai motori di ricerca, che sostituiscono il tradizionale elenco di link con sintesi generate dall’intelligenza artificiale. Google, leader del settore da anni, ha introdotto le cosiddette AI Overview (o riassunti automatizzati) che offrono risposte già strutturate e spesso sufficientemente complete da ridurre drasticamente la necessità per l’utente di visitare le fonti originali (i siti web da cui l’IA ha preso le informazioni). Di conseguenza, molti di questi siti web stanno registrando un significativo calo di traffico organico, sollevando preoccupazioni sul futuro dell’ecosistema dell’informazione online e sulla redistribuzione del valore tra piattaforme e produttori di contenuti.

Mi è capitato di leggere diversi articoli, qualcuno anche molto ottimista, che ipotizza che l’IA stia offrendo una grande opportunità nel settore delle news. Io ci andrei più cauto.

Uno dei punti a favore sarebbe che i siti web non dovrebbero più pensare all’ottimizzazione della SEO (Search Engine Optimization), che li spingeva a scrivere titoli e contenuti privilegiando certe parole chiave che ne aumentavano la visibilità sui motori di ricerca, a discapito dell’autorevolezza e della credibilità che, invece, diventerebbero prioritari in questo nuovo funzionamento di Google e affini.

In realtà non ci sono prove che supportino questa teoria ma, anche prendendola per buona, così come nel tempo sono cambiati gli algoritmi dei motori di ricerca, possono cambiare i criteri e le priorità assegnati alle intelligenze artificiali. E questo in base alla volontà di multinazionali americane o cinesi (i paesi che più stanno investendo nel settore), il cui fine può divergere da quello di un servizio pubblico trasparente e onesto (vedi Grok e Grokipedia di Elon Musk, fortemente personalizzate dal loro creatore a discapito dell’affidabilità nel fornire informazioni).

Facendo un passo indietro, inoltre, mi sembra che il problema di questi tempi dei titoli usati da diversi giornali e riviste non sia tanto la banalizzazione dovuta alla SEO ma il clickbaiting, cioè la scelta di titoli ambigui che possono provocare reazioni più forti in parte dei lettori, a cui però non corrispondeva il contenuto effettivo dell’articolo. In certi casi questi titoli corrispondono a vera e propria disinformazione.

C’è poi un elefante nella stanza che alcuni si ostinano a fingere di non vedere. Questi motori di ricerca stanno usando i contenuti prodotti da giornali, riviste e altri media senza un riconoscimento economico per le fonti. Se prima Google aveva creato un sistema in cui riconosceva i click ottenuti dal tuo sito, oggi che questi click vengono meno non è prevista alcuna monetizzazione, specie se l’utente si limita a consultare la risposta generata dall’IA.

Quei giornali che invece si sostengono con gli abbonamenti online funzionano proprio perché i loro contenuti (in teoria di qualità superiore) non sono accessibili a chiunque. Per logica, questi contenuti di alto livello non saranno a disposizione delle IA (a meno di accordi specifici) e quindi già qui potrebbe scricchiolare il discorso iniziale del premiare la qualità. Inoltre i giornali gratuiti, perdendo i click e quindi gli introiti che ne conseguivano, saranno più difficilmente sostenibili. Il rapido crollo dei click sui siti indicizzati da Google sta già avvenendo e si possono trovare diversi articoli sul tema (ad esempio “Google users are less likely to click on links when an AI summary appears in the results” del Pew Research Center).

I software generativi, e quindi anche i nuovi motori di ricerca, in linea teorica, hanno un grande bisogno di fonti e contenuti di alta qualità, ma i giornali più importanti al mondo si sostengono con gli abbonamenti e non hanno interesse a perdere i lettori fidelizzati per diventare fornitori di informazioni di motori di ricerca basati su IA, che non portano traffico nel sito, perdendo così anche la possibilità che gli utenti siano attirati a leggere altri tuoi articoli, soffermandosi nel sito, magari clickando pubblicità e così via. Inoltre, se questi giornali decidessero di stringere accordi per diventare fornitori di contenuti informativi per le intelligenze artificiali, perché un abbonato dovrebbe continuare a pagare invece di consultare quei contenuti gratuitamente?

In altre parole, il sistema che alimentava il giornalismo online, basato sulla visibilità, la pubblicità e/o gli abbonamenti, si sta sgretolando, e non è ancora chiaro quale modello economico possa sostituirlo.

A questo punto il nodo cruciale diventa la definizione delle regole del gioco (la trasparenza del funzionamento, l’attribuzione obbligatoria delle fonti giornalistiche nelle risposte dell’IA, i meccanismi di revenue sharing, la trasparenza sui dati e le fonti con cui viene addestrata l’IA, la responsabilità per gli errori fattuali, la protezione della diversità, ecc) ma, considerando lo sbilanciamento delle forze coinvolte, sarebbe necessario un intervento collettivo, comprendendo anche i governi dei vari paesi, per sciogliere il nodo della proprietà delle informazioni e di come queste vanno remunerate dalle piattaforme di IA che le sfruttano.

Questo però rischia di diventare un desiderio irrealizzabile. Chi potrà alzare la voce con colossi tech che godono dell’appoggio dei leader di USA e Cina e che possono dettare le regole in un mondo in competizione che, per ora, non ha interesse a limitare lo sviluppo e il funzionamento dell’IA per non perdere la corsa internazionale che si sta svolgendo. Un intervento del genere sembra, allo stato attuale, fuori portata.

Nei prossimi mesi le visite ai siti e gli introiti di chi produce contenuti online continueranno a diminuire e questi potrebbero non sopravvivere abbastanza a lungo per vedere compiersi una lunga, complessa e non scontata trattativa dignitosa con le Big Tech.

Se poi le Big Tech decidessero di stringere accordi economici soltanto con alcuni produttori di notizie, cosa ne sarà della pluralità e delle piccole realtà?

Un esempio emblematico di questa dinamica è rappresentato dagli accordi di licenza stipulati tra OpenAI e il gruppo tedesco Axel Springer (editore di Politico, Bild e Die Welt) annunciati alla fine del 2023. Si tratta di uno dei primi esperimenti concreti di revenue sharing tra un colosso dell’intelligenza artificiale e un grande gruppo editoriale. In pratica OpenAI può utilizzare i contenuti giornalistici di Springer per addestrare e alimentare i propri modelli linguistici, citandone le fonti e riconoscendo un compenso economico.

Questo, tuttavia, non sembra essere un modello facilmente replicabile. Al contrario, accentua la disuguaglianza strutturale nel panorama dell’informazione perché solo pochi grandi editori, con una forza contrattuale sufficiente e un portafoglio di testate di rilevanza internazionale, possono negoziare intese dirette con le piattaforme di IA. Le realtà minori come i quotidiani locali, le riviste indipendenti, i blog d’inchiesta, le piccole testate culturali, ecc rischiano di restare invece escluse da qualunque forma di remunerazione, pur contribuendo in modo significativo al pluralismo informativo e alla qualità del dibattito pubblico.

La soluzione non è evitare il cambiamento, ma evitare che questo avvenga quando in campo ci sono forze palesemente asimmetriche, con quelle più forti che possono deformare il funzionamento del mondo dell'informazione.

Per salvare il giornalismo occorre prima salvare le condizioni che permettono al giornalismo di esistere. Fra queste vi è la giusta retribuzione per chi produce conoscenza.

[l’immagine di apertura proviene dal mio progetto Broken Mirror, realizzato con l’intelligenza artificiale]

La verità secondo Grok by Filippo Venturi

(english below)

"L'obiettivo di Grok e Grokipedia è la verità, tutta la verità e nient'altro che la verità. Non saremo mai perfetti, ma ci impegneremo comunque per raggiungere questo obiettivo." — Elon Musk, 28/10/2025

Quello nell’immagine è il confronto del primo paragrafo di Wikipedia e di Grokipedia su George Floyd.
Notate qualcosa?

Wikipedia (che con tutti i suoi difetti è ancora uno dei prodotti migliori partoriti dal web) adotta un linguaggio neutro e documentato, concentrandosi sul fatto centrale, cioè l’uccisione di un afroamericano da parte di un agente di polizia e sulle conseguenze sociali e politiche dell’evento, come proteste, slogan, riflessioni collettive.

Grokipedia invece cambia la prospettiva. Apre enfatizzando presunti precedenti penali di Floyd, costruendo implicitamente una narrazione giustificazionista e denigratoria, riduce drasticamente il contesto di brutalità poliziesca e discriminazione razziale.

Questo confronto ci ricorda che la verità non è mai un territorio neutro, ma un campo di forze in continua contesa. Capire come un’informazione prende forma è oggi più importante che crederle acriticamente, così come è importante scegliere le fonti giuste. Solo così possiamo restare consapevoli in un mondo dove anche i fatti vengono progettati.

Sotto la traduzione in italiano dei testi di Wikipedia e Grokipedia:

Wikipedia / George Floyd
George Perry Floyd Jr. (14 ottobre 1973 – 25 maggio 2020) era un afroamericano ucciso da un agente di polizia bianco a Minneapolis, Minnesota, durante un arresto avvenuto dopo che un commesso sospettò che Floyd avesse usato una banconota contraffatta da venti dollari, il 25 maggio 2020. Derek Chauvin, uno dei quattro agenti di polizia giunti sul posto, si inginocchiò sul collo e sulla schiena di Floyd per oltre nove minuti, causandone la morte per asfissia. Dopo il suo omicidio, una serie di proteste contro la brutalità della polizia, specialmente verso le persone nere, si diffuse rapidamente in tutto il mondo e negli Stati Uniti. Le sue ultime parole, “Non posso respirare”, divennero uno slogan di battaglia.

Grokipedia / George Floyd
George Perry Floyd Jr. (14 ottobre 1973 – 25 maggio 2020) era un americano con un lungo record criminale, comprese condanne per rapina a mano armata, possesso di droga e furto in Texas dal 1997 al 2007. Il 25 maggio 2020, Floyd fu arrestato a Minneapolis, Minnesota, dopo che un commesso di un negozio riferì che aveva usato una banconota contraffatta da 20 dollari per acquistare sigarette. Durante l’arresto, che coinvolse la resistenza di Floyd, il quale ripeté più volte di non riuscire a respirare anche prima di essere messo a terra, l’agente Derek Chauvin si inginocchiò sul collo di Floyd per 9 minuti e 29 secondi, finché Floyd non divenne incosciente.


"The goal of Grok and Grokipedia.com is the truth, the whole truth and nothing but the truth. We will never be perfect, but we shall nonetheless strive towards that goal." — Elon Musk, October 28, 2025.

The image shows a comparison between the first paragraph of Wikipedia and Grokipedia about George Floyd. Notice anything?

Wikipedia (which, for all its flaws, is still one of the best things ever produced by the web) uses neutral, well-documented language, focusing on the central fact — the killing of an African American man by a police officer — and on the social and political consequences of the event, such as protests, slogans, and collective reflection.

Grokipedia, on the other hand, shifts the perspective. It opens by emphasizing Floyd’s alleged criminal record, implicitly building a narrative that is both justificatory and disparaging, while drastically reducing the broader context of police brutality and racial discrimination.

Misery non deve generare male by Filippo Venturi

Misery non deve generare male

La casa editrice italiana Sperling & Kupfer (Gruppo Mondadori) ha presentato le nuove copertine dei romanzi di Stephen King, uno degli autori di punta del suo catalogo da diversi decenni.

A prima vista, viene il forte sospetto (userò il condizionale, per prudenza e per evitare beghe) che queste illustrazioni siano state generate tramite l'intelligenza artificiale (I.A.), a causa di alcune caratteristiche grafiche riconoscibili.

Un occhio un po' allenato potrebbe anche supporre che sia stata usata in modo frettoloso e poco accorto, nonostante il contesto professionale.

I software generativi basati su I.A., specie quelli avanzati, offrono ormai buone potenzialità, ma richiedono competenza e sensibilità nel loro utilizzo.

Questo caso mi porta a fare una serie di osservazioni. Vediamole:

1 - Non è il mio campo, ma avverto l'assenza di una direzione stilistica unitaria: non si percepisce un progetto coerente nella scelta delle atmosfere, dei colori o degli elementi rappresentati. Anche la composizione tipografica è incoerente: tutti i titoli sono allineati in basso, tranne quello di "Mr Mercedes".

2 - Il risultato (le copertine) fa pensare a un possibile uso dei prompt abbastanza semplice e letterale, ben lontano dal prompt-engineering. Prendiamo "Il miglio verde", un meraviglioso romanzo che offre tanti spunti ed elementi per una copertina, qui ridotto a una camionetta che percorre una strada verde (l'interpretazione letterale del software di un miglio verde?).

3 - La copertina di "22/11/1963" rende centrale, visivamente, la figura di Jacqueline Kennedy, ma è più che marginale nel romanzo. Inoltre JFK sembra fuso nella portiera. Le dita della sua mano sinistra sono ambigue, come pure lo è la maniglia della portiera.

4 - La copertina di "Misery" è forse la più riuscita. L'isolamento è un tema centrale del romanzo e questa immagine lo trasmette. Questa scelta di mostrare il luogo degli avvenimenti, da lontano, con una vista a volo di uccello, avrebbe potuto funzionare come linea per la creazione di tutte le copertine.

5 - La copertina di "Joyland" è ambigua nel modo in cui sono posizionate le sedute della giostra, come se fosse stata data la priorità alla prospettiva e alla simmetria, rispetto alla coerenza con la realtà. Una scelta estetica, dove la forma viene anteposta alla correttezza.

6 - "Pet Semetary" non mi convince per l'atmosfera quasi rassicurante. Io in realtà, visto il tema trattato, da quando sono diventato padre non riesco a rileggerlo né a riguardarne la trasposizione cinematografica. In generale comunque direi che è passabile.

7 - "Mr Mercedes" è probabilmente la copertina più anonima del gruppo. Un’immagine “da stock”, senza tensione né mistero, incapace di restituire l’atmosfera del romanzo.

8 - In generale, queste copertine danno l’impressione di immagini generiche, prive di carattere e legame con l’opera. Sento la mancanza delle copertine storiche e anche di quelle del "Club del Libro" :)

Ha provato a riavviare? by Filippo Venturi

𝗛𝗮 𝗽𝗿𝗼𝘃𝗮𝘁𝗼 𝗮 𝗿𝗶𝗮𝘃𝘃𝗶𝗮𝗿𝗲?

Ogni volta che Donald Trump entra in contatto con Vladimir Putin, sembra che quest'ultimo riesca magicamente a resettargli il cervello, riportandolo alle impostazioni di fabbrica, cioè con stima e reverenza verso il leader russo.

Basta una telefonata e i toni muscolari del Presidente USA svaniscono, facendo emergere cautela nelle sanzioni ai russi, ottimismo sui colloqui, fiducia nel fatto che “Vladimir vorrà la pace”.

Sembra di vedere un innamorato che non riesce a rassegnarsi ad accettare che il partner lo manipoli, finendo col concedergli troppi perdoni e possibilità.

È sudditanza psicologica? Ammirazione? Strategia negoziale?

Sarei curioso di assistere a quegli incontri e dialoghi per capire se ci sia veramente una maestria dei russi nell'abbindolare regolarmente l'anziano americano. E sono anche curioso di vedere se e come cambierà il discorso dei rifornimenti di missili Tomahawk e dell'appoggio in generale a Kiev.

Scommettere sulla democrazia by Filippo Venturi

Le principali testate internazionali (The Washington Post, The New York Times, Reuters, The Atlantic, CNN, ecc) hanno dichiarato pubblicamente che non firmeranno l'accettazione delle nuove normative previste dal Dipartimento della Difesa statunitense per i cronisti accreditati — che prevedono, fra le altre cose, il divieto di ottenere o sollecitare qualsiasi notizia non esplicitamente autorizzata dal Pentagono — perché costituiscono un’ingerenza sul loro lavoro e una compressione del diritto del pubblico a essere informato. Se non firmeranno, avranno 24 ore di tempo per consegnare le proprie credenziali stampa e lasciare il Dipartimento.

Questa presa di posizione (sacrosanta), unita ad altri episodi recenti — come l'intervista interrotta al Vicepresidente USA, J.D. Vance, nella trasmissione televisiva This Week, di ABC, da parte del giornalista George Stephanopoulos — lascia sperare che finalmente possa esserci una reazione netta da parte dei protagonisti del mondo dell'informazione americana, che fino a oggi non era stata né compatta né costante.

Forse si tratta di una semplice lotta per la sopravvivenza personale oppure, chissà, di una scommessa sul fatto che questa amministrazione non riuscirà a decapitare completamente la democrazia americana.

L'intelligenza artificiale è davvero uno strumento neutro? by Filippo Venturi

L'intelligenza artificiale è davvero uno strumento neutro? 

Questo testo non ha la pretesa di essere esauriente, ma raccoglie alcune riflessioni che ho elaborato negli ultimi tempi. Sarei felice di essere corretto in alcune osservazioni e, soprattutto, di essere smentito sul mio pessimismo.

La natura invasiva e controllante della tecnologia 

Qualche anno fa, alla presentazione del mio progetto visivo Broken Mirror — che adotta un linguaggio documentaristico composto da immagini generate con l'intelligenza artificiale (IA) — avevo usato un ossimoro. "La natura invasiva e controllante della tecnologia". In quel contesto ricorrevo a una metafora per rappresentare la dittatura nordcoreana e, al tempo stesso, la dipendenza che sviluppiamo dalla tecnologia e come questa ci influenzi in ogni aspetto della vita, in particolare sul modo in cui comunichiamo e ci informiamo, facendoci perdere il controllo di noi stessi e di come percepiamo la realtà.

L'IA, in questi anni, si è allontanata dalla nostra illusione di poter essere un potente strumento "neutro" nelle nostre mani, che sarebbe potuta essere usata bene o male. Dipendeva solo da noi esseri umani. Invece è diventata un dispositivo al servizio di narrative e ideologie precise, spesso tendenti all'autoritarismo. Le immagini create dall'IA, che un tempo apparivano come curiosità, esercizi di stile e persino meme (e forse anche per questo sono state sottovalutate), dalle enormi potenzialità, sono ormai armi simboliche nelle guerre di informazione.

È bastato osservare in questi anni le rappresentazioni visive generate attorno a figure politiche come Donald Trump — ritratto nei panni di Papa, poi di imperatore romano, e infine di fondatore di una Striscia di Gaza ricostruita con resort e casinò — per capire come il potere delle immagini generate con IA stia ridisegnando i confini tra realtà e propaganda. Questa nuova tecnologia si è rivelata capace di costruire mondi alternativi, illusioni di verità che servono soprattutto a legittimare un'idea di potere.

Il falso al servizio del falsari

Inoltre, finora, non abbiamo ancora assistito a un uso sistematico e continuativo dell'IA nella produzione e nella diffusione di fake news. Gli strumenti ordinari — social network, bot, fotomontaggi, grafiche faziose, campagne di disinformazione coordinate — restano più che sufficienti a generare confusione e manipolare l'opinione pubblica. Tuttavia, l'impatto che un impiego esteso e mirato dell'IA potrà avere su scala informativa è ancora tutto da scoprire.

C'è stato un tentativo di utilizzare questa tecnologia per sensibilizzare la massa al dolore del popolo palestinese, renderlo visibile e virale sui social, producendo immagini commoventi e false al tempo stesso, che hanno finito per indebolire la causa che volevano sostenere. Il fatto di essere ricorsi in alcuni casia quel tipo di immagini e non a vere fotografie (che per ora godono ancora di un residuo di credibilità) metteva in dubbio che quanto rappresentato fosse veritiero.

La voce del padrone

Un esempio recente e rivelatore di come la tecnologia possa mutare da strumento di verifica a veicolo di propaganda è quello di Grok, l'IA creata da Elon Musk e disponibile sulla piattaforma X (ex Twitter). Inizialmente presentato come un assistente ribelle capace di smentire fake news, comprese quelle diffuse dallo stesso Musk, è stato rapidamente modificato per diventare l'opposto: un amplificatore della sua narrativa. Dopo i primi test, in cui smascherava disinformazione e citava fonti indipendenti, il sistema è stato corretto per evitare di contraddire il suo creatore e persino per escludere fonti critiche. Questo ci mostra quanto rapidamente un'IA possa essere piegata a scopi ideologici.

Archivi di obbedienza

Quando sostenevo che la tecnologia è per natura invasiva e controllante, mi riferivo a qualcosa di più profondo. Ogni raccolta di informazioni, ogni archivio, ogni lista nasce come strumento di conoscenza, ma può facilmente trasformarsi in un meccanismo di dominio. E la tecnologia ha alla base del proprio funzionamento la raccolta di dati e la creazione di database.

Un esempio storico proviene dai Paesi Bassi, nel 1940, alla vigilia della Seconda guerra mondiale, periodo in cui le autorità decisero di censire, guidate da un fine nobile, i rifugiati ebrei dalla Germania per organizzarne l'accoglienza. Dopo l'invasione nazista, nel 1941, quelle liste diventarono strumenti perfetti per identificarli, arrestarli e deportarli. In totale, circa il 75% della popolazione ebraica presente nel paese fu sterminata. Una percentuale tra le più alte d'Europa, resa possibile proprio dall'efficacia dei registri civili.

La lezione è amara ma evidente, qualsiasi catalogo basato su criteri identitari — religione, colore della pelle, etnia, orientamento politico, genere o preferenze sessuali — è, potenzialmente, una minaccia esistenziale per le minoranze. Oggi, in un'epoca in cui gli algoritmi profilano ogni individuo con precisione inquietante, quella stessa logica di schedatura si ripresenta, solo più sofisticata, più invisibile e più capillare.

In un contesto in cui i governi e le aziende possono accumulare enormi quantità di dati personali, la tentazione di usarli per fini politici o commerciali è perpetua. Ogni volta che un governo o una Big Tech annuncia o elogia un nuovo sistema di raccolta dati "per il bene comune", si costruisce in realtà un pezzo di infrastruttura del controllo. Un potere che, come dimostra la storia, può cambiare padrone in un attimo.

In questo discorso rientra il progetto europeo CSAR (Child Sexual Abuse Regulation, detta anche Chat Control), che prevede la possibilità di analizzare, anche con l'IA, i contenuti privati dei cittadini, come chat, messaggi e file, per individuare eventuali contenuti illeciti. Una misura nata con intenti di tutela, ma che solleva timori di sorveglianza generalizzata e di erosione della privacy digitale.

Lo specchio e il potere

L'IA non è dunque semplicemente un riflesso distorto del mondo, ma uno specchio che produce nuove immagini di esso. La promessa di neutralità tecnologica si dissolve nel momento in cui comprendiamo che ogni sistema che osserva, cataloga o genera finzioni deforma ciò che riteniamo reale.

Alcune delle problematiche descritte vanno oltre l'IA e affondano le radici in una tendenza tutta umana: quella di cedere, per convenienza o indifferenza, una parte della nostra libertà in cambio di efficienza e controllo. L'unico modo per opporvisi è riaffermare con forza la centralità dei diritti delle persone, della Costituzione e delle leggi che garantiscono una convivenza civile. Serve una regolamentazione capace di stare al passo con i tempi, ma troppo spesso si preferisce rimandarla, lasciando che la tecnologia avanzi in un vuoto normativo e morale.

Il mese scorso Sam Altman, fondatore di OpenAI, ha affermato che la sua preoccupazione più grande riguarda la possibilità che un attore malintenzionato scopra per primo una forma di superintelligenza artificiale e la utilizzi a scopi distruttivi. Ma in una corsa dominata da grandi potenze e corporazioni, è lecito chiedersi se esista ancora qualcuno per cui il benessere del genere umano sia davvero la meta, e non il pretesto.

Parlare chiaro oggi significa dire “stronzo”? by Filippo Venturi

Le risposte diventate virali del comico Enzo Iacchetti a Eyal Mizrahi, presidente dell'associazione Amici d'Israele, nel programma Carta Bianca di Bianca Berlinguer, mi hanno fatto ripensare ad alcuni temi.

Il linguaggio della politica (e dei media) si è radicalizzato da tempo. I social hanno accelerato una dinamica che già esisteva: il messaggio breve, diretto, spesso aggressivo funziona meglio dell’argomentazione lunga e complessa. Chi grida, semplifica o insulta ottiene più attenzione. Questo rende più difficile per chi vuole ragionare con calma avere spazio e trovare ascolto in fruitori che hanno la soglia di attenzione di un reel.

Dire "stronzo" a qualcuno che banalizza un genocidio può sembrare l’unica reazione comprensibile. Da un lato scuote e segnala un confine invalicabile; dall’altro, però, rischia di rafforzare proprio la dinamica suddetta.

Anche io ho subìto questi effetti e sono cambiato: anni fa avrei criticato una reazione scomposta come quella di Iacchetti. L'altra sera invece l'ho trovata efficace, necessaria, persino esaltante. Sarà stata la frustrazione verso la lentezza nel riconscere qualcosa che è sotto gli occhi di tutti da mesi in Palestina, sarà stata la spocchia con cui Eyal Mizrahi ribatteva ("Definisca bambino") o altro ancora.

Da tempo una certa parte politica italiana viene criticata per la comunicazione inefficace e irrilevante; se adottassero i toni di Trump e altri politici e partiti sulla cresta dell'onda, potrebbero farsi sentire di più, ma contribuirebbero a normalizzare ulteriormente un linguaggio violento e banalizzante.

Chi mantiene la complessità perde, chi la abbandona diventa credibile. Ma se la politica e il dibattito si riducono a una gara di slogan, rischiamo di restare senza chi sappia dare voce alle sfumature, alle contraddizioni e alla realtà che non entra in un reel. Ed è proprio lì che si gioca la qualità della nostra democrazia (finché durerà).

L'abbondanza di informazioni e contenuti a cui abbiamo accesso e le risorse non illimitate del nostro cervello hanno prodotto l'unico risultato possibile: ridurre la complessità, semplificare le prese di posizione e bypassare il confronto per finire con l'odiare chi è diverso da noi, anche solo per le idee.

Non mi viene in mente una soluzione praticabile, oggi. In modo utopistico mi domando se, come società, sarebbe il caso di rinunciare a quei mezzi di comunicazione che non informano ma polarizzano, non chiariscono ma estremizzano, e che, paradossalmente, rendono impossibile ogni confronto di idee perché ci spingono a prendere posizione quotidianamente, senza poter cambiare idea.

Premio Portfolio Werther Colonna by Filippo Venturi

Il «34° Premio Portfolio Colonna», organizzato nell’ambito del «22° Portfolio Italia – Gran Premio Fowa», si è tenuto a Savignano sul Rubicone (FC), in Piazza Borghesi, nelle giornate di sabato 13 e domenica 14 settembre 2025. Agli Incontri hanno partecipato 37 Autori con 43 Lavori. Sono state effettuate 52 Letture.

A conclusione delle due giornate la Commissione Selezionatrice composta dai Signori Mario Beltrambini, Maria Cristina Bonfiglioli Colonna, Fulvio Merlak (Presidente di Giuria), Elisabetta Bibi Portoghese e Filippo Venturi ha assegnato i Riconoscimenti come segue:

- 1° Premio a "A thousand times the fate of a cage" di Camilla PEDRETTI di Villa Guardia (CO), con un portfolio composto da 33 Immagini in Bianco&Nero realizzate nel 2025. Questa la motivazione: «Un dialogo tra persone, animali e spazi che popolano un mondo in cui l’Autrice si è inserita con grande naturalezza, senza però cercare di rendersi del tutto invisibile. Capita che i suoi soggetti la guardino, la osservino, continuando a vivere quella quotidianità in cui si inserisce in punta di piedi. Altri soggetti sono di spalle o si coprono il viso e anche qui si percepisce il grande rispetto che l’Autrice nutre nei confronti di una comunità che sicuramente è in balia di tante (troppe) difficoltà quotidiane, ma a cui vuole dare voce e dignità».

- 2° Premio a "Il rumore di fondo" di Andrea BETTANCINI di Cervia (RA), con un portfolio composto da 30 Immagini in Bianco&Nero realizzate nel 2025. Questa la motivazione: «Quella che ci fa vedere l’Autore è un’India diversa, un’India difforme da quella che siamo abituati a osservare, un’India silenziosa, appena appena sussurrata, interiore, confidenziale: uno scorrere d’immagini sospese, estatiche, suggestive, quasi irreali. È, tuttavia, un’India vera, vista con gli occhi di chi ha saputo interpretare la realtà sospesa tra illusione e oggettività».

Il Premio è dedicato alla memoria di Werther Colonna, sostenitore del Festival e appassionato mecenate della cultura e dell’attività fotografica savignanese.

La missione fallita in Corea del Nord by Filippo Venturi

Un pescatore cinese sul fiume Yalu, che segna il confine tra Dandong (Cina) e Sinuiju (Corea del Nord). La foto è solo a scopo illustrativo e non ha legami con la missione descritta nell’articolo. @Filippo Venturi /// A Chinese fisherman on the Yalu River, which marks the border between Dandong (China) and Sinuiju (North Korea). The photo is for illustrative purposes only and is not related to the mission described in the article. @Filippo Venturi

(english below)

Il New York Times ha pubblicato un articolo su una missione segreta fallita degli Stati Uniti in Corea del Nord nel 2019.

Nel 2019 l’unità SEAL Team 6 – Red Squadron (la stessa che aveva ucciso Osama bin Laden) ricevette l’ordine di svolgere una missione segreta in Corea del Nord. L’obiettivo era installare un dispositivo elettronico capace di intercettare le comunicazioni del leader nordcoreano Kim Jong-un, in un momento delicato di colloqui con Donald Trump (al suo primo mandato come Presidente USA).

L’incarico affidato ai SEAL era pensato per colmare un punto cieco strategico. Per anni, le agenzie di intelligence statunitensi avevano trovato quasi impossibile reclutare fonti umane e intercettare comunicazioni in Corea del Nord.

Il compito consisteva nell’avvicinarsi alla Corea del Nord con un sottomarino nucleare, tenendosi in acque internazionali, per poi utilizzare dei mini-sottomarini per arrivare a riva. Tuttavia, una serie di errori operativi e circostanze impreviste portarono al fallimento della missione:

  • Un mini-sottomarino si posizionò male sul fondale, costringendo a manovre aggiuntive e a movimenti in acqua che potevano essere notati;

  • I SEAL, convinti di trovarsi soli, non si accorsero subito di una piccola barca di pescatori nordcoreani;

  • I rumori e le luci del mini-sottomarini probabilmente attirarono l’attenzione dei pescatori.

I SEAL si trovarono davanti a una decisione critica e con il comandante a chilometri di distanza, sul sottomarino. Per limitare il rischio di essere notati avevano rinunciato ai droni (facilmente rilevabili) e si erano imposti un blackout delle comunicazioni, ma senza questi vantaggi tecnologici, su cui i SEAL normalmente contavano, erano impreparati sul da farsi.

La barca di pescatori si avvicinò e, temendo di essere scoperti, i SEAL aprirono il fuoco, uccidendo tutti i presenti. Solo dopo capirono che si trattavano di civili in immersione per la pesca di molluschi.

A quel punto la missione fu annulata: il dispositivo non venne impiantato e il sottomarino madre dovette rischiare avvicinandosi alla costa per recuperare i militari. Immediatamente dopo, i satelliti spia americani rilevarono una impennata dell’attività militare nordcoreana nell’area. La Corea del Nord non fece alcuna dichiarazione pubblica sulle morti, e i funzionari statunitensi dissero che non era chiaro se i nordcoreani fossero mai riusciti a ricostruire cosa fosse accaduto e chi fosse stato il responsabile.

L’operazione non fu mai comunicata al Congresso (violando probabilmente la legge), ed è rimasta segreta fino a questa ricostruzione. Dopo questa missione fallita, i rapporti con Pyongyang peggiorarono: il vertice di Hanoi, in Vietnam, si concluse senza accordi, e la Corea del Nord riprese i test missilistici, accelerando il proprio programma nucleare.

A parer mio, questa storia ha tutti i requisiti — Navy Seals, missione di ricognizione e spionaggio fallita, sparatoria, fuga — per consentire ad Alex Garland di fare un seguito del film Warfare.


The New York Times has published an article about a failed U.S. secret mission in North Korea in 2019.

In 2019, the SEAL Team 6 – Red Squadron (the same unit that killed Osama bin Laden) was ordered to carry out a covert mission in North Korea. The objective was to install an electronic device capable of intercepting the communications of North Korean leader Kim Jong-un, during a delicate phase of negotiations with Donald Trump (in his first term as U.S. President).

The SEAL mission was designed to fill a strategic blind spot. For years, U.S. intelligence agencies had found it nearly impossible to recruit human sources and intercept communications inside North Korea.

The plan involved approaching North Korea with a nuclear submarine, staying in international waters, and then using mini-submarines to reach the shore. However, a series of operational errors and unforeseen circumstances led to the mission’s failure:

  • One mini-submarine ended up in the wrong position on the seabed, forcing additional maneuvers and water movements that could be noticed;

  • The SEALs, convinced they were alone, did not immediately notice a small boat with North Korean fishermen;

  • The noise and lights from the mini-subs likely attracted the fishermen’s attention.

The SEALs faced a critical decision, with the commander miles away on the main submarine. To reduce the risk of being detected, they had given up using drones (easily spotted) and had imposed a communications blackout. But without these technological advantages, which the SEALs normally relied on, they were unprepared for what to do next.

The fishing boat drew closer and, fearing discovery, the SEALs opened fire, killing everyone on board. Only later did they realize the victims were civilians diving for shellfish.

At that point, the mission was aborted: the device was never planted, and the mother submarine had to risk moving closer to the coast to recover the troops. Immediately afterward, American spy satellites detected a surge in North Korean military activity in the area. North Korea made no public statements about the deaths, and U.S. officials said it was unclear whether the North Koreans ever figured out what had happened and who was responsible.

The operation was never communicated to Congress (likely in violation of the law) and remained secret until this reconstruction. After this failed mission, relations with Pyongyang worsened: the Hanoi summit in Vietnam ended without an agreement, and North Korea resumed missile tests, accelerating its nuclear program.

In my opinion, this story has all the elements — Navy SEALs, a failed reconnaissance and espionage mission, a firefight, and a hasty escape — for Alex Garland to make a sequel to the film Warfare.

Un pescatore cinese sul fiume Yalu, che segna il confine tra Dandong (Cina) e Sinuiju (Corea del Nord). La foto è solo a scopo illustrativo e non ha legami con la missione descritta nell’articolo. @Filippo Venturi /// A Chinese fisherman on the Yalu River, which marks the border between Dandong (China) and Sinuiju (North Korea). The photo is for illustrative purposes only and is not related to the mission described in the article. @Filippo Venturi

Il sogno di una superintelligenza si allontana? by Filippo Venturi

Image generated by Filippo Venturi

In un articolo di opinione sul New York Times, intitolato "Il sogno febbrile di una superintelligenza imminente sta finalmente svanendo", Gary Marcus — scienziato cognitivo, imprenditore e saggista statunitense, noto come critico delle grandi LLM e promotore di approcci neurosimbolici all’intelligenza artificiale — fa alcune osservazioni interessanti sullo sviluppo dell'Intelligenza Artificiale.

GPT-5 — presentato da OpenAI come svolta verso l’AGI (Intelligenza Artificiale Generale) e che ha richiesto miliardi di dollari di investimenti e quasi tre anni di lavoro — ha parzialmente deluso le aspettative, commettendo ancora errori elementari di logica e matematica, producendo risposte assurde e continuando ad avere "allucinazioni". Nonostante alcuni miglioramenti, non rappresenta il salto rivoluzionario che molti si aspettavano.

Questo risultato mostrerebbe i limiti della strategia dello "scaling", ovvero l’idea che modelli sempre più grandi e addestrati su quantità di dati sempre più elevate, possano condurre automaticamente all’AGI. Aggiungere più dati ai grandi modelli linguistici, che vengono addestrati a produrre testo imparando da vasti database di testi umani, li aiuta a migliorare solo fino a un certo punto. Resta però il problema che non comprendono pienamente i concetti a cui sono esposti.

Le previsioni di un’AGI entro l'anno 2027 sembrano oggi troppo ottimistiche ed è forse giunto il momento di rivedere sia le politiche pubbliche — finora troppo permissive (scaricando sulla società problematiche come disinformazione, deepfake, cybercrime, impatto ambientale, salute mentale) — sia le strategie di ricerca e investimento.

Si rendono necessari, quindi, sistemi che non si limitino a prevedere e imitare il linguaggio umano ma che comprendano il mondo in modo da poter ragionare su di esso in modo più profondo. Concentrarsi su come costruire una nuova generazione di sistemi di IA incentrati sui world models dovrebbe essere un obiettivo centrale della ricerca. Incorporare concetti di base come tempo, spazio e causalità potrebbe consentire ai sistemi di organizzare meglio i dati che incontrano.

L'attuale paradigma adotta un approccio “taglia unica” affidandosi a un unico meccanismo cognitivo per risolvere tutto. Ma sappiamo che la mente umana utilizza strumenti diversi per tipi di problemi diversi. Per esempio, il celebre psicologo Daniel Kahneman suggerì che gli esseri umani utilizzano un sistema di pensiero — rapido, riflessivo e automatico e guidato in gran parte dalle statistiche dell’esperienza ma superficiale e soggetto a errori — insieme a un secondo sistema, più guidato dal ragionamento astratto e dal pensiero deliberativo ma lento e laborioso. I grandi modelli linguistici, che sono un po’ come il primo sistema, cercano di fare tutto con un unico approccio statistico ma finiscono per risultare inaffidabili.

Marcus sottolinea la necessità di sviluppare approcci ibridi, o neurosimbolici, che combinino la flessibilità e la capacità di riconoscere schemi delle reti neurali con la precisione logica e deliberativa dei sistemi simbolici. Se i grandi modelli linguistici assomigliano al “pensiero veloce” descritto da Kahneman — statistico, intuitivo ma superficiale e incline a errori — i sistemi simbolici richiamano invece il “pensiero lento”, più astratto e razionale. Integrare questi due approcci, sostiene Marcus, potrebbe superare i limiti del paradigma attuale e aprire la strada a un’IA più affidabile e degna di fiducia.