Tecnologia

Il Signore degli Algoritmi by Filippo Venturi

[Una immagine dal mio lavoro “Broken Mirror”, realizzato con Intelligenza Artificiale]

Il Signore degli Algoritmi

Sorvegliare, prevedere, colpire: il futuro plasmato dalle grandi aziende tecnologiche

A maggio, nei giorni in cui lavoravo all’articolo sull’80° anniversario del lancio delle bombe atomiche su Hiroshima e Nagasaki (uscito su FotoIT a novembre), mi è capitato di sentire il confronto avvenuto fra Alex Karp, CEO di Palantir Technologies, e una attivista pro-Palestina che lo aveva interrotto durante un intervento all’Hill and Valley Forum, un evento dedicato alla politica tecnologica.

Palantir Technologies è un’azienda statunitense specializzata nell'analisi dei big data (enormi quantità di dati, strutturati e non, così numerosi, vari e complessi da non poter essere gestiti con strumenti tradizionali) e nello sviluppo di sistemi basati sull’intelligenza artificiale (IA). L’azienda è storicamente legata ai governi americani che si sono susseguiti negli ultimi decenni e all’esercito. Fra gli scopi più controversi attribuiti all’azienda ci sarebbe l’uso dei big data, dell’intelligenza artificiale e delle tecnologie per la sorveglianza per predire i crimini e chi li compirà. Uno scenario che ricorda il film “Minority Report” di Steven Spielberg e, prima ancora, il romanzo “Rapporto di minoranza” di Philip K. Dick.

Il nome dell'azienda deriva dai Palantir, chiamati anche Pietre Veggenti, manufatti dell'universo immaginario fantasy creato dallo scrittore inglese J.R.R. Tolkien. I Palantir, la cui traduzione è "Coloro che sorvegliano da lontano", sono sfere di cristallo che permettono a chi ne osserva una di vedere e comunicare, anche a grande distanza, con chiunque stia a sua volta osservandone un altro Palantir. L’azienda ha adottato questo nome perché intende offrire ai suoi clienti strumenti capaci di osservare e mettere in luce pattern invisibili dentro enormi masse di dati.

Nel report pubblicato il 30 giugno 2025 intitolato “From economy of occupation to economy of genocide”, la relatrice ONU Francesca Albanese accusa una quarantina di aziende — tra cui Palantir Technologies — di avere «fornito tecnologia di polizia predittiva automatizzata, infrastrutture di difesa per la rapida implementazione di software militari e piattaforme di IA per decisioni automatizzate sul campo di battaglia» alle Forze di Difesa Israeliane (IDF).

Tornando al confronto, la parte più interessante è la seguente:
«La vostra tecnologia uccide i palestinesi» ha urlato la manifestante.
«Per lo più terroristi, è vero», ha risposto Karp (non esistono dati univoci, le stime indicano però che tra il 60% e l’80% delle vittime complessive sono civili). 
[…]
«La più ovvia soluzione alla guerra [in Palestina] è che l’Occidente abbia le armi più forti, precise e letali possibili, così da poter ridurre al minimo le morti non necessarie, e il modo migliore per ridurre quelle morti è essere così forti da non essere attaccati. È proprio così che si fa!», ha concluso Karp.

Per il CEO di Palantir Technologies, quindi, l’unica via per preservare la pace passa attraverso il consolidamento di una superiorità tecnologico-militare schiacciante, resa possibile da sistemi d’arma sempre più autonomi, sempre più intelligenti, sempre più veloci nell’individuare un obiettivo e nel colpirlo. Questa idea che “per avere la pace bisogna essere i più forti” non è nuova. È la stessa logica che ha alimentato, oltre ottant’anni fa, la corsa alla bomba atomica.

Durante la Seconda guerra mondiale, gli Stati Uniti investirono nel Progetto Manhattan somme imponenti per anticipare le ricerche della Germania. In questi anni una dinamica simile sembra ripetersi con l’intelligenza artificiale, in una corsa contro la Cina. Le grandi potenze — e con loro le aziende tecnologiche private che operano a stretto contatto con i governi — stanno riversando capitali colossali nello sviluppo di algoritmi capaci di orientare il campo di battaglia.

Il costo totale del Progetto Manhattan, dal 1942 al 1946, fu di circa 2 miliardi di dollari dell’epoca. A seconda del metodo di aggiustamento per l’inflazione, questa cifra viene spesso tradotta in circa 30–50 miliardi di dollari attuali. Il grosso del costo fu assorbito dalle infrastrutture, come gli impianti per l’arricchimento dell’uranio a Oak Ridge, i reattori a Hanford e il centro di ricerca a Los Alamos.

Secondo il Stanford Institute for Human‑Centered AI (HAI), la spesa federale americana per contratti legati all’IA è cresciuta da circa 3,2 miliardi di dollari (2022) a 3,3 miliardi di dollari (2023), ma a questa vanno aggiunti i costi sostenuti dalle Big Tech private, sempre più legate e dipendenti all’Amministrazione di Donald Trump, e che si stima investiranno fra i 300 e i 400 miliardi di dollari solo quest’anno.

Secondo una stima pubblicata dalla società Gartner nel 2025, la spesa globale per l’intelligenza artificiale (infrastruttura, software, servizi, hardware) è stimato che possa raggiungere circa 1,5 trilioni di dollari entro la fine dell’anno.

Allora si correva per costruire l’arma definitiva, quella che avrebbe garantito supremazia e deterrenza. Oggi la competizione riguarda sistemi di intelligenza artificiale capaci di sostenere nuove generazioni di armamenti autonomi, più efficaci e letali. Questa potrebbe essere anche una delle ragioni per cui quantità enormi di investimenti stanno affluendo verso aziende tecnologiche che, in realtà, continuano a registrare perdite significative o utili irrisori. Come nel 1945 il valore non risiede nei profitti immediati, ma nel vantaggio strategico e della promessa di un’egemonia futura.

Nei giorni scorsi Trump ha ribadito, con il lancio della Genesis Mission, definita dalla Casa Bianca come «il più grande motore della scoperta scientifica americana dai tempi del programma Apollo», la centralità dello sviluppo e implementazione dell’intelligenza artificiale nel sistema americano, nelle tecnologie e nelle ricerche future.

Il fatto che Palantir Technologies e altre compagnie tecnologiche siano tra le più vicine alle istituzioni politiche e militari non sembra più un dettaglio tecnico, ma un tratto distintivo di una nuova fase geopolitica. Una fase in cui tecnologia e guerra tornano a sovrapporsi, e in cui l’intelligenza artificiale rischia di diventare ciò che la bomba atomica è stata per il Novecento, cioè l’oggetto di una corsa che nessuno può permettersi di perdere, anche a costo di ignorare del tutto le conseguenze etiche e umanitarie.

E il giorno in cui questo risultato sarà raggiunto, servirà una dimostrazione di forza, che ci ricorderà nuovamente cosa accade quando la scienza e il potere si alleano senza limiti etici.

L’intelligenza artificiale salverà il giornalismo? by Filippo Venturi

L’intelligenza artificiale salverà il giornalismo?

L’intelligenza artificiale sta rivoluzionando il modo in cui cerchiamo, leggiamo e produciamo notizie. Una trasformazione che potrebbe rappresentare un’opportunità, oppure infliggere un nuovo colpo al giornalismo.

Negli ultimi giorni si sta discutendo molto delle nuove funzionalità introdotte dai motori di ricerca, che sostituiscono il tradizionale elenco di link con sintesi generate dall’intelligenza artificiale. Google, leader del settore da anni, ha introdotto le cosiddette AI Overview (o riassunti automatizzati) che offrono risposte già strutturate e spesso sufficientemente complete da ridurre drasticamente la necessità per l’utente di visitare le fonti originali (i siti web da cui l’IA ha preso le informazioni). Di conseguenza, molti di questi siti web stanno registrando un significativo calo di traffico organico, sollevando preoccupazioni sul futuro dell’ecosistema dell’informazione online e sulla redistribuzione del valore tra piattaforme e produttori di contenuti.

Mi è capitato di leggere diversi articoli, qualcuno anche molto ottimista, che ipotizza che l’IA stia offrendo una grande opportunità nel settore delle news. Io ci andrei più cauto.

Uno dei punti a favore sarebbe che i siti web non dovrebbero più pensare all’ottimizzazione della SEO (Search Engine Optimization), che li spingeva a scrivere titoli e contenuti privilegiando certe parole chiave che ne aumentavano la visibilità sui motori di ricerca, a discapito dell’autorevolezza e della credibilità che, invece, diventerebbero prioritari in questo nuovo funzionamento di Google e affini.

In realtà non ci sono prove che supportino questa teoria ma, anche prendendola per buona, così come nel tempo sono cambiati gli algoritmi dei motori di ricerca, possono cambiare i criteri e le priorità assegnati alle intelligenze artificiali. E questo in base alla volontà di multinazionali americane o cinesi (i paesi che più stanno investendo nel settore), il cui fine può divergere da quello di un servizio pubblico trasparente e onesto (vedi Grok e Grokipedia di Elon Musk, fortemente personalizzate dal loro creatore a discapito dell’affidabilità nel fornire informazioni).

Facendo un passo indietro, inoltre, mi sembra che il problema di questi tempi dei titoli usati da diversi giornali e riviste non sia tanto la banalizzazione dovuta alla SEO ma il clickbaiting, cioè la scelta di titoli ambigui che possono provocare reazioni più forti in parte dei lettori, a cui però non corrispondeva il contenuto effettivo dell’articolo. In certi casi questi titoli corrispondono a vera e propria disinformazione.

C’è poi un elefante nella stanza che alcuni si ostinano a fingere di non vedere. Questi motori di ricerca stanno usando i contenuti prodotti da giornali, riviste e altri media senza un riconoscimento economico per le fonti. Se prima Google aveva creato un sistema in cui riconosceva i click ottenuti dal tuo sito, oggi che questi click vengono meno non è prevista alcuna monetizzazione, specie se l’utente si limita a consultare la risposta generata dall’IA.

Quei giornali che invece si sostengono con gli abbonamenti online funzionano proprio perché i loro contenuti (in teoria di qualità superiore) non sono accessibili a chiunque. Per logica, questi contenuti di alto livello non saranno a disposizione delle IA (a meno di accordi specifici) e quindi già qui potrebbe scricchiolare il discorso iniziale del premiare la qualità. Inoltre i giornali gratuiti, perdendo i click e quindi gli introiti che ne conseguivano, saranno più difficilmente sostenibili. Il rapido crollo dei click sui siti indicizzati da Google sta già avvenendo e si possono trovare diversi articoli sul tema (ad esempio “Google users are less likely to click on links when an AI summary appears in the results” del Pew Research Center).

I software generativi, e quindi anche i nuovi motori di ricerca, in linea teorica, hanno un grande bisogno di fonti e contenuti di alta qualità, ma i giornali più importanti al mondo si sostengono con gli abbonamenti e non hanno interesse a perdere i lettori fidelizzati per diventare fornitori di informazioni di motori di ricerca basati su IA, che non portano traffico nel sito, perdendo così anche la possibilità che gli utenti siano attirati a leggere altri tuoi articoli, soffermandosi nel sito, magari clickando pubblicità e così via. Inoltre, se questi giornali decidessero di stringere accordi per diventare fornitori di contenuti informativi per le intelligenze artificiali, perché un abbonato dovrebbe continuare a pagare invece di consultare quei contenuti gratuitamente?

In altre parole, il sistema che alimentava il giornalismo online, basato sulla visibilità, la pubblicità e/o gli abbonamenti, si sta sgretolando, e non è ancora chiaro quale modello economico possa sostituirlo.

A questo punto il nodo cruciale diventa la definizione delle regole del gioco (la trasparenza del funzionamento, l’attribuzione obbligatoria delle fonti giornalistiche nelle risposte dell’IA, i meccanismi di revenue sharing, la trasparenza sui dati e le fonti con cui viene addestrata l’IA, la responsabilità per gli errori fattuali, la protezione della diversità, ecc) ma, considerando lo sbilanciamento delle forze coinvolte, sarebbe necessario un intervento collettivo, comprendendo anche i governi dei vari paesi, per sciogliere il nodo della proprietà delle informazioni e di come queste vanno remunerate dalle piattaforme di IA che le sfruttano.

Questo però rischia di diventare un desiderio irrealizzabile. Chi potrà alzare la voce con colossi tech che godono dell’appoggio dei leader di USA e Cina e che possono dettare le regole in un mondo in competizione che, per ora, non ha interesse a limitare lo sviluppo e il funzionamento dell’IA per non perdere la corsa internazionale che si sta svolgendo. Un intervento del genere sembra, allo stato attuale, fuori portata.

Nei prossimi mesi le visite ai siti e gli introiti di chi produce contenuti online continueranno a diminuire e questi potrebbero non sopravvivere abbastanza a lungo per vedere compiersi una lunga, complessa e non scontata trattativa dignitosa con le Big Tech.

Se poi le Big Tech decidessero di stringere accordi economici soltanto con alcuni produttori di notizie, cosa ne sarà della pluralità e delle piccole realtà?

Un esempio emblematico di questa dinamica è rappresentato dagli accordi di licenza stipulati tra OpenAI e il gruppo tedesco Axel Springer (editore di Politico, Bild e Die Welt) annunciati alla fine del 2023. Si tratta di uno dei primi esperimenti concreti di revenue sharing tra un colosso dell’intelligenza artificiale e un grande gruppo editoriale. In pratica OpenAI può utilizzare i contenuti giornalistici di Springer per addestrare e alimentare i propri modelli linguistici, citandone le fonti e riconoscendo un compenso economico.

Questo, tuttavia, non sembra essere un modello facilmente replicabile. Al contrario, accentua la disuguaglianza strutturale nel panorama dell’informazione perché solo pochi grandi editori, con una forza contrattuale sufficiente e un portafoglio di testate di rilevanza internazionale, possono negoziare intese dirette con le piattaforme di IA. Le realtà minori come i quotidiani locali, le riviste indipendenti, i blog d’inchiesta, le piccole testate culturali, ecc rischiano di restare invece escluse da qualunque forma di remunerazione, pur contribuendo in modo significativo al pluralismo informativo e alla qualità del dibattito pubblico.

La soluzione non è evitare il cambiamento, ma evitare che questo avvenga quando in campo ci sono forze palesemente asimmetriche, con quelle più forti che possono deformare il funzionamento del mondo dell'informazione.

Per salvare il giornalismo occorre prima salvare le condizioni che permettono al giornalismo di esistere. Fra queste vi è la giusta retribuzione per chi produce conoscenza.

[l’immagine di apertura proviene dal mio progetto Broken Mirror, realizzato con l’intelligenza artificiale]