Artificial Intelligence

Intervista su La Stampa sulla foto del poliziotto modificata by Filippo Venturi

Il quotidiano La Stampa mi ha intervistato a proposito dell'immagine generata con intelligenza artificiale raffigurante due poliziotti durante le manifestazioni di Torino, e diffusa dalle istituzioni. Un precedente che apre anche in Italia a scenari preoccupanti, sia quando frutto di disattenzione, sia quando risultato di una scelta consapevole.

L’articolo intero è qui:
Scontri a Torino, l’ombra dell’AI sulla foto diffusa dagli account istituzionali di Polizia e Interno

Il poliziotto aggredito e l'intelligenza artificiale by Filippo Venturi

Il Ministero dell'Interno ha condiviso un post, corredato da una fotografia, relativo all'aggressione subita da un poliziotto e al soccorso ricevuto da un collega, durante il corteo a Torino del 31 Gennaio 2026.

Diversi elementi fanno ritenere che la fotografia diffusa non sia uno scatto originale, ma un’immagine modificata o ricreata tramite intelligenza artificiale (ipotesi confermata anche dall'analisi con SynthID).

Sopra 3 screenshot dal video che è stato diffuso nei giorni scorsi. Sotto l'immagine diffusa.
Confrontandole, emerge che:

1) L'auto bianca non c’è più.
2) Il poliziotto che soccorre il collega aveva una maschera antigas, anch'essa è sparita. Il volto è ora visibile.
3) Lo scudo del soccorritore è scomparso.
4) Ci sono anche altri dettagli anomali: come l’illuminazione dei due poliziotti da parte dei fari di un’auto della polizia, che nel video non risultano.

Il risultato è una immagine semplificata, di lettura più immediata, ma che non rappresenta fedelmente quel frammento di realtà catturato nel video. Per quanto fotografie e video tradizionali possano non restituire la realtà nella sua complessità e interezza, e possano essere realizzate in modo ingannevole, qui ci troviamo davanti ad un intervento per semplificare e ripulire la realtà, forse dimenticando od omettendo i dettagli suddetti.

Per ragioni ormai ampiamente discusse da almeno 3 anni, l’uso di immagini generate o alterate per rappresentare fatti reali solleva criticità profonde, che diventano ancora più gravi quando è un’istituzione governativa a intervenire su un documento originariamente prodotto da un fotografo o da un videomaker. Può sembrare un dettaglio marginale, ma non lo è, seppur qualcuno possa ritenere che non alteri in modo significativo la narrazione dell’evento accaduto.

Arriveranno momenti in cui non avremo gli strumenti e/o le competenze per orientarci e non farci ingannare. Sospettare e verificare ogni contenuto visivo in cui ci imbattiamo non è sostenibile.

In questo dovrebbe aiutarci il giornalismo, ma diversi giornali hanno utilizzato l'immagine in questione, forse non effettuando sufficienti verifiche o forse sopravvalutando l'affidabilità della fonte.

(Questo mio post nasce dalle anomalie notate dal fotografo Michele Lapini)

Chi possiede l'informazione by Filippo Venturi

Un consorzio statunitense guidato dall'azienda Oracle ha acquisito il controllo delle attività di TikTok negli USA. L'accordo, ufficialmente, mira a garantire la sicurezza dei dati americani (dalla censura e influenza cinese), con Oracle che gestisce l'infrastruttura e l'algoritmo.

Dopo pochi giorni, però, è emerso che TikTok USA censura le ricerche della parola "Epstein" (link), l'imprenditore arrestato per abusi sessuali e traffico internazionale di minori, morto nel 2019, con cui Donald Trump aveva rapporti stretti.

Inoltre è in atto una censura di persone che criticano il governo (link), come nel caso di una giornalista con 200.000 follower i cui contenuti negli ultimi giorni non hanno avuto visualizzazioni.

Anche l’engagement dei video sulle proteste di Minneapolis è in calo sulla piattaforma.

Più in generale, il panorama relativo al controllo dei social media e dei media tradizionali è preoccupante:
Larry Ellison, tramite Oracle, influenza TikTok USA.
Elon Musk possiede X, Grok e Grokipedia.
Mark Zuckerberg guida Meta Platforms, controllando quindi Facebook, Instagram, WhatsApp, Messenger e Meta AI.
Sam Altman guida OpenAI e ChatGPT.
Alphabet controlla Google, YouTube e Gemini.
La famiglia Murdoch detiene Fox News, il Wall Street Journal e il New York Post.
Jeff Bezos possiede il Washington Post, Amazon Prime Video e Twitch.

Si tratta di oligarchi del settore tecnologico e dell'informazione che, in misura diversa, gravitano nell’orbita di Trump (o che si sono piegati rapidamente al suo potere) e che oggi controllano i principali canali attraverso cui ci informiamo, delegandogli sempre più spesso il compito di selezionare, riassumere e interpretare ciò che accade nel mondo.

Chi controlla i social media e i sistemi di intelligenza artificiale (IA) ha il potere di stabilire quali narrazioni diventano dominanti e quali, invece, vengono marginalizzate o rese invisibili. In questo contesto, il giornalismo tradizionale rischia di perdere rilevanza e visibilità (come analizzo nel mio articolo “L’intelligenza artificiale salverà il giornalismo?”) perché l’IA e le piattaforme social ne saccheggiano i contenuti, erodendo audience e modelli economici. Una quota crescente di pubblico non cerca più attivamente informazioni ma le assorbe passivamente dai social o affida all’IA il compito di filtrarle, sintetizzarle e interpretarle, eliminando di fatto la necessità di consultare le fonti originali.

Per i regimi autoritari, il controllo delle narrazioni che alimentano il dibattito pubblico è un obiettivo strategico (come abbiamo visto, la recente uccisione di Alex Pretti, un infermiere di Minneapolis di 37 anni, sembra aver colpito in modo pesante la narrazione di ICE, spingendo Trump a fare qualche passo indietro). L’amministrazione americana sta rafforzando il controllo sulle infrastrutture che le veicolano, che è un passaggio decisivo per acquisire la capacità di orientare o persino riscrivere la realtà.

Scorrete lacrime, impose il governo by Filippo Venturi

La Casa Bianca ha diffuso una fotografia modificata con l’intelligenza artificiale di una donna arrestata dopo una protesta contro l’ICE (Immigration and Customs Enforcement).

Un’analisi del Guardian (link) ha rilevato che la fotografia pubblicata mostra Nekima Levy Armstrong in lacrime, in modo drammatico, mentre nello scatto originale appariva calma e composta. Inoltre, il colore della pelle della donna risulta scurito.

La segretaria per la sicurezza interna, Kristi Noem, ha pubblicato una prima immagine dell’arresto che ritraeva un agente delle forze dell’ordine, con il volto oscurato, che accompagna Armstrong. La donna appare composta. Circa trenta minuti dopo, la Casa Bianca ha pubblicato una seconda immagine dello stesso arresto, in cui Armstrong piange.

Interpellata sull’alterazione digitale dello scatto, la Casa Bianca ha risposto inoltrando un post pubblicato su X da Kaelan Dorr, vicedirettore delle comunicazioni: «Ancora una volta, a coloro che sentono il bisogno di difendere in modo istintivo gli autori di crimini efferati nel nostro paese, condivido questo messaggio: l’applicazione della legge continuerà. I meme continueranno», ha scritto.

Questo episodio va letto come l’ennesimo segnale del rapporto sempre più instabile tra potere, immagine e verità. La manipolazione visiva mira a orientare emotivamente lo sguardo del pubblico, trasformando un documento in uno strumento narrativo e punitivo (pare ormai che il bullismo permei ogni aspetto della vita politica e comunicativa statunitense). Il ricorso esplicito ai “meme” rivendicato dalla Casa Bianca rivela una strategia comunicativa che legittima la fusione fra informazione, propaganda e intrattenimento.

Giurato al Kolga Tbilisi Photo by Filippo Venturi

Sono felice e onorato di annunciare che quest’anno farò parte della giuria che assegnerà i premi del Kolga Tbilisi Photo, uno dei festival più importanti dedicati alla fotografia contemporanea.

Da oltre vent’anni Kolga rappresenta un punto di incontro fondamentale tra fotografi, curatori, artisti da tutto il mondo, insieme al pubblico. È stato inoltre il primo festival a premiare il mio lavoro "Broken Mirror", realizzato con l’intelligenza artificiale, in un momento storico in cui confrontarsi con questa nuova tecnologia richiedeva consapevolezza del cambiamento in atto e coraggio.

Per me questo invito ha un significato speciale. Sono legato a Tbilisi e alla Georgia non solo dal punto di vista fotografico, ma anche umano e personale. Poco più di un anno fa ho documentato le proteste contro il governo, nel loro momento più intenso, seguendo da vicino le tensioni, le speranze e il desiderio di un futuro europeo che animava, e anima tuttora, soprattutto le nuove generazioni georgiane. Purtroppo, dopo oltre 300 giorni dall'inizio delle manifestazioni, lo scenario politico georgiano resta invariato, complice il sostanziale disinteresse della comunità internazionale. Eppure, i giovani e non solo non arretrano e continuano a protestare in Viale Rustaveli, di fronte al Parlamento.

Un sentito grazie a Kolga Tbilisi Photo – in particolare a Tina Schelhorn e a Beso Khaindrava (fondatore e direttore) – per la fiducia e per continuare a credere nella fotografia come strumento critico e politico.

Sarà possibile iscriversi al concorso a partire da oggi e fino al 15 marzo 2026.
Maggiori info nel link: www.kolga.ge/awards

Software denudatori, quando l’IA riscrive i corpi by Filippo Venturi

SOFTWARE DENUDATORI
Quando l’IA riscrive i corpi

Grok, l’intelligenza artificiale di Elon Musk, interpellabile sul social network X (ex Twitter), consente da qualche tempo di modificare in pochi secondi le fotografie condivise da altri utenti, pubblicando direttamente il risultato sulla piattaforma.

Così può capitare che una ragazza condivida una propria fotografia e gli utenti, nei commenti, chiedano a Grok di mostrarla in bikini, di farla diventare un uomo, di mostrarne il viso che nella foto originale era celato (il viso generato, presumibilmente, è inventato e non quello reale; ma non sarebbe difficile istruire una IA a cercare altre foto nel profilo di quella ragazza per risalire al viso e inserirlo nell'immagine generata) e così via.

Se è facilmente intuibile quali possano essere le conseguenze negative di questa nuova possibilità, non è ben chiaro quali siano quelle positive. Prima o poi ci scapperà qualche post divertente, e poi? Tutti gli altri deepfake che effetto avranno?

Ufficialmente Grok è stato limitato dai suoi sviluppatori in modo che non possa generare deepfake pornografici; eppure è già capitato che abbia generato immagini pornografiche con ragazze minorenni. Sulla questione è intervenuto anche il governo indiano, che ha chiesto a Musk di porre rimedio (link 1).

Operazioni di denudazioni femminili sono possibili anche con le IA generative di Google e ChatGPT (link 2).

Ovviamente il fenomeno dei deepfake esisteva anche prima, ma richiedeva competenze non comuni. Rendere questa attività alla portata di chiunque sappia scrivere un commento cambia le cose. Forse l'unico pregio (molto relativo, non risolutivo e forse utopistico) è che impareremo a prestare più attenzione a quello che condividiamo online.

Nonostante polemiche e indagini, e le promesse di porvi rimedio, Grok viene usato per produrre in modo sistematico immagini di donne in bikini e in biancheria intima. I ricercatori stimano che Grok sia diventato il più grande creatore di immagini deepfake a sfondo sessuale (link 3).

Come se non bastasse, la domanda per questo tipo di contenuti è così elevata che esistono aziende specializzate nello sviluppo di software "denudatori" (basati su intelligenza artificiale, che prendono online foto di donne, anche minorenni, le denudano e le collocano in contesti pornografici). Due di queste aziende hanno lasciato i loro database aperti e visibili a chiunque con un minimo di conoscenze tecniche (link 4).

Questo tipo di reato è già punibile in diversi casi (in parte dipende dall’eventuale condivisione o pubblicazione, ma non solo), ma l’accessibilità e la scala con cui queste tecnologie operano rendono l’applicazione delle norme esistenti complessa e spesso inefficace. A meno che non si intervenga alla radice, sulla regolamentazione dell’uso delle intelligenze artificiali in contesti delicati come il suddetto.

Best 9 Instagram 2025 by Filippo Venturi

Anche quest’anno, il mio Best 9 di Instagram – ovvero i post che hanno suscitato maggior interesse – rappresenta un piccolo diario visivo degli avvenimenti più significativi che mi hanno toccato nel corso del 2025.

Due immagini provengono dal mio progetto "Broken mirror", realizzato con l'intelligenza artificiale, con cui ho cercato di attivare delle riflessioni sul rapporto fra potere e tecnologia, informazione e manipolazione. Nel 2025 ho potuto portare questo progetto e tenere dei talk in luoghi d'arte e di divulgazione come il MIA Photo Fair, il Napoli Photo Festival, il Festival Fotografica e BergamoScienza, la New York University di Firenze e in tanti altri posti.

Una immagine proviene dal mio progetto "He looks like you", dedicato al mancato incontro fra mio padre e mio figlio. È composto da fotografie originali, d'archivio, elaborate con software e immagini generate con l'intelligenza artificiale. Si tratta di un lavoro a cui tengo molto e che continua a suscitare interesse ed empatia (purtroppo il lutto riguarda tutti noi).

C'è poi una fotografia tratta dal mio lavoro documentario ed evocativo "How long is the night?", sulla Valle Antrona, un territorio con un rapporto conflittuale con il sole. Da secoli esplorata nelle sue profondità, alla ricerca di ricchezze dimenticate, ha visto un ragazzo del posto, appassionato di meridiane, diventare un uomo con il sogno di installare un enorme specchio in cima a una montagna, per riflettere la luce del sole sul proprio paese.

Due fotografie sono state scattate durante il mio primo viaggio in Giappone; una esperienza che sospettavo mi sarebbe piaciuta, ma che mi ha travolto molto più del previsto, al punto da iniziare un nuovo progetto fotografico e scrivere diversi articoli per la rivista FotoIT sulla fotografia giapponese man mano che la studiavo (cosa che continuerò a fare nel 2026).

Vi è una fotografia dell'articolo del Resto del Carlino che annuncia la mia nomina ad Autore dell'anno 2025, un riconoscimento da parte della FIAF a cui tengo molto e che mi ha permesso di fare un bilancio del mio operato fino a oggi (grazie anche alla Monografia che è stata stampata) e ragionare su cosa fare in futuro.

Un'altra fotografia proviene dal mio vecchio lavoro "The art of leaping in the dark", su quella sorta di suggestivo rito di iniziazione che avviene in Puglia, quando i giovani si tuffano nella Grotta della Poesia. 

Infine c'è una immagine generata con intelligenza artificiale, parte di un lavoro ancora in corso intitolato "Handbook of escape".

Nessun algoritmo genera curiosità by Filippo Venturi

Nessun algoritmo genera curiosità

Una riflessione sul rapporto dei giovani con l'intelligenza artificiale

Questa è una fotografia dell'auditorium di un Liceo Scientifico e Artistico di Rimini, dove ho tenuto un intervento su fotografia, informazione e intelligenza artificiale (IA) qualche giorno fa, a sei classi di età compresa fra i 16 e i 18 anni.

Al di là del piacere - e della speranza - di riuscire a fornire stimoli e contenuti utili a orientrarsi in questo panorama sempre più complesso e interdisciplinare, mi ha colpito una cosa che mi è stata riferita in via confidenziale prima dell'inizio del mio talk, e non per la prima volta in contesti scolastici: i giovani dimostrano poco interesse e molta diffidenza nei confronti dell'intelligenza artificiale.

Una buona parte di loro è critica perché lo vede come un modo per barare (nei compiti, ma anche nel produrre contenuti, arte compresa) e questo ha trovato conferma anche nei compiti scritti di alcuni loro compagni di classe che contenevano, a seguito di copia\incolla distratti, i suggerimenti classici di ChatGPT ("Vuoi che lo riscriva con un tono più professionale?", "Vuoi che ti faccia una tabella riassuntiva?", ecc).

Confesso che questa diffidenza non mi dispiace troppo (purché non si trasformi nel tempo in chiusura e rifiuto, ma resti un modo per avvicinarsi con prudenza e spirito critico), specie quando viene da persone che si stanno formando, che stanno costruendo un proprio metodo. È fondamentale attraversare quella fase formativa in cui si impara a consultare le fonti, assorbire informazioni, analizzarle e sintetizzarle in autonomia, mentalmente e per iscritto, senza delegare tutto ad un software basato su IA, limitandosi a imparare a memoria il riassunto generato.

Un concetto che non mi stancherò mai di ripetere è che i lavori visivi che ho svolto con l'intelligenza artificiale non li avrei potuti realizzare con lucidità e consapevolezza se non avessi avuto la mia "cassetta degli attrezzi" composta negli anni (ormai ho una età in cui posso dire nei decenni) da studi informatici, studi fotografici, lavoro sul campo, esperienza e confronto con altri autori. Inoltre i progetti che ho svolto, a parer mio, funzionano proprio perché realizzati con questa nuova tecnologia, criticando o evidenziando alcune caratteristiche (limiti e rischi compresi) di questa stessa tecnologia.

L’intelligenza artificiale può suggerire risposte, ma ai giovani (e non solo) serve soprattutto imparare a farsi le domande giuste e a mettere in discussione il mondo che trovano confezionato dagli adulti. Le risposte sono ovunque, immediate, spesso persino ridondanti; ciò che manca, e che nessuna macchina può generare al nostro posto, è la capacità di interrogarci sul mondo con curiosità e profondità.

Tavola rotonda su IA e Arte by Filippo Venturi

Giovedì 11 dicembre 2025, alle ore 20.30, presso la Fabbrica delle Candele a Forlì, avrò il piacere di partecipare a una tavola rotonda sul tema Intelligenza Artificiale e Arte, nell’ambito della serata intitolata “Oltre l’algoritmo” che chiude il corso di cinema AI Film Factory!

Una serata dedicata a esplorare l’intelligenza artificiale come nuovo mezzo creativo, accessibile e inclusivo, e a riflettere su come le tecniche artistiche tradizionali si trasformano quando incontrano gli strumenti dell’AI.

In programma:

  • Tavola rotonda moderata dalla giornalista Roberta Invidia, con Filippo Venturi (fotoreporter), Serge Gualini (artista AI), Francesca Leoni e Davide Mastrangelo (direttori artistici di Ibrida Festival).

  • Proiezione del cortometraggio di Francesca Fini, interamente realizzato con varie piattaforme di AI.

  • Presentazione dei lavori finali dei partecipanti ad AI Film Factory, il percorso formativo di 50 ore rivolto ai giovani dai 14 ai 35 anni.

L’ingresso è gratuito e aperto a tutte e tutti.

Sarà un’occasione per incontrarsi, condividere visioni e riflettere insieme sui linguaggi che stanno ridefinendo il nostro modo di creare e immaginare.

Il Signore degli Algoritmi by Filippo Venturi

[Una immagine dal mio lavoro “Broken Mirror”, realizzato con Intelligenza Artificiale]

Il Signore degli Algoritmi

Sorvegliare, prevedere, colpire: il futuro plasmato dalle grandi aziende tecnologiche

A maggio, nei giorni in cui lavoravo all’articolo sull’80° anniversario del lancio delle bombe atomiche su Hiroshima e Nagasaki (uscito su FotoIT a novembre), mi è capitato di sentire il confronto avvenuto fra Alex Karp, CEO di Palantir Technologies, e una attivista pro-Palestina che lo aveva interrotto durante un intervento all’Hill and Valley Forum, un evento dedicato alla politica tecnologica.

Palantir Technologies è un’azienda statunitense specializzata nell'analisi dei big data (enormi quantità di dati, strutturati e non, così numerosi, vari e complessi da non poter essere gestiti con strumenti tradizionali) e nello sviluppo di sistemi basati sull’intelligenza artificiale (IA). L’azienda è storicamente legata ai governi americani che si sono susseguiti negli ultimi decenni e all’esercito. Fra gli scopi più controversi attribuiti all’azienda ci sarebbe l’uso dei big data, dell’intelligenza artificiale e delle tecnologie per la sorveglianza per predire i crimini e chi li compirà. Uno scenario che ricorda il film “Minority Report” di Steven Spielberg e, prima ancora, il romanzo “Rapporto di minoranza” di Philip K. Dick.

Il nome dell'azienda deriva dai Palantir, chiamati anche Pietre Veggenti, manufatti dell'universo immaginario fantasy creato dallo scrittore inglese J.R.R. Tolkien. I Palantir, la cui traduzione è "Coloro che sorvegliano da lontano", sono sfere di cristallo che permettono a chi ne osserva una di vedere e comunicare, anche a grande distanza, con chiunque stia a sua volta osservandone un altro Palantir. L’azienda ha adottato questo nome perché intende offrire ai suoi clienti strumenti capaci di osservare e mettere in luce pattern invisibili dentro enormi masse di dati.

Nel report pubblicato il 30 giugno 2025 intitolato “From economy of occupation to economy of genocide”, la relatrice ONU Francesca Albanese accusa una quarantina di aziende — tra cui Palantir Technologies — di avere «fornito tecnologia di polizia predittiva automatizzata, infrastrutture di difesa per la rapida implementazione di software militari e piattaforme di IA per decisioni automatizzate sul campo di battaglia» alle Forze di Difesa Israeliane (IDF).

Tornando al confronto, la parte più interessante è la seguente:
«La vostra tecnologia uccide i palestinesi» ha urlato la manifestante.
«Per lo più terroristi, è vero», ha risposto Karp (non esistono dati univoci, le stime indicano però che tra il 60% e l’80% delle vittime complessive sono civili). 
[…]
«La più ovvia soluzione alla guerra [in Palestina] è che l’Occidente abbia le armi più forti, precise e letali possibili, così da poter ridurre al minimo le morti non necessarie, e il modo migliore per ridurre quelle morti è essere così forti da non essere attaccati. È proprio così che si fa!», ha concluso Karp.

Per il CEO di Palantir Technologies, quindi, l’unica via per preservare la pace passa attraverso il consolidamento di una superiorità tecnologico-militare schiacciante, resa possibile da sistemi d’arma sempre più autonomi, sempre più intelligenti, sempre più veloci nell’individuare un obiettivo e nel colpirlo. Questa idea che “per avere la pace bisogna essere i più forti” non è nuova. È la stessa logica che ha alimentato, oltre ottant’anni fa, la corsa alla bomba atomica.

Durante la Seconda guerra mondiale, gli Stati Uniti investirono nel Progetto Manhattan somme imponenti per anticipare le ricerche della Germania. In questi anni una dinamica simile sembra ripetersi con l’intelligenza artificiale, in una corsa contro la Cina. Le grandi potenze — e con loro le aziende tecnologiche private che operano a stretto contatto con i governi — stanno riversando capitali colossali nello sviluppo di algoritmi capaci di orientare il campo di battaglia.

Il costo totale del Progetto Manhattan, dal 1942 al 1946, fu di circa 2 miliardi di dollari dell’epoca. A seconda del metodo di aggiustamento per l’inflazione, questa cifra viene spesso tradotta in circa 30–50 miliardi di dollari attuali. Il grosso del costo fu assorbito dalle infrastrutture, come gli impianti per l’arricchimento dell’uranio a Oak Ridge, i reattori a Hanford e il centro di ricerca a Los Alamos.

Secondo il Stanford Institute for Human‑Centered AI (HAI), la spesa federale americana per contratti legati all’IA è cresciuta da circa 3,2 miliardi di dollari (2022) a 3,3 miliardi di dollari (2023), ma a questa vanno aggiunti i costi sostenuti dalle Big Tech private, sempre più legate e dipendenti all’Amministrazione di Donald Trump, e che si stima investiranno fra i 300 e i 400 miliardi di dollari solo quest’anno.

Secondo una stima pubblicata dalla società Gartner nel 2025, la spesa globale per l’intelligenza artificiale (infrastruttura, software, servizi, hardware) è stimato che possa raggiungere circa 1,5 trilioni di dollari entro la fine dell’anno.

Allora si correva per costruire l’arma definitiva, quella che avrebbe garantito supremazia e deterrenza. Oggi la competizione riguarda sistemi di intelligenza artificiale capaci di sostenere nuove generazioni di armamenti autonomi, più efficaci e letali. Questa potrebbe essere anche una delle ragioni per cui quantità enormi di investimenti stanno affluendo verso aziende tecnologiche che, in realtà, continuano a registrare perdite significative o utili irrisori. Come nel 1945 il valore non risiede nei profitti immediati, ma nel vantaggio strategico e della promessa di un’egemonia futura.

Nei giorni scorsi Trump ha ribadito, con il lancio della Genesis Mission, definita dalla Casa Bianca come «il più grande motore della scoperta scientifica americana dai tempi del programma Apollo», la centralità dello sviluppo e implementazione dell’intelligenza artificiale nel sistema americano, nelle tecnologie e nelle ricerche future.

Il fatto che Palantir Technologies e altre compagnie tecnologiche siano tra le più vicine alle istituzioni politiche e militari non sembra più un dettaglio tecnico, ma un tratto distintivo di una nuova fase geopolitica. Una fase in cui tecnologia e guerra tornano a sovrapporsi, e in cui l’intelligenza artificiale rischia di diventare ciò che la bomba atomica è stata per il Novecento, cioè l’oggetto di una corsa che nessuno può permettersi di perdere, anche a costo di ignorare del tutto le conseguenze etiche e umanitarie.

E il giorno in cui questo risultato sarà raggiunto, servirà una dimostrazione di forza, che ci ricorderà nuovamente cosa accade quando la scienza e il potere si alleano senza limiti etici.