Guerra

Il Signore degli Algoritmi by Filippo Venturi

[Una immagine dal mio lavoro “Broken Mirror”, realizzato con Intelligenza Artificiale]

Il Signore degli Algoritmi

Sorvegliare, prevedere, colpire: il futuro plasmato dalle grandi aziende tecnologiche

A maggio, nei giorni in cui lavoravo all’articolo sull’80° anniversario del lancio delle bombe atomiche su Hiroshima e Nagasaki (uscito su FotoIT a novembre), mi è capitato di sentire il confronto avvenuto fra Alex Karp, CEO di Palantir Technologies, e una attivista pro-Palestina che lo aveva interrotto durante un intervento all’Hill and Valley Forum, un evento dedicato alla politica tecnologica.

Palantir Technologies è un’azienda statunitense specializzata nell'analisi dei big data (enormi quantità di dati, strutturati e non, così numerosi, vari e complessi da non poter essere gestiti con strumenti tradizionali) e nello sviluppo di sistemi basati sull’intelligenza artificiale (IA). L’azienda è storicamente legata ai governi americani che si sono susseguiti negli ultimi decenni e all’esercito. Fra gli scopi più controversi attribuiti all’azienda ci sarebbe l’uso dei big data, dell’intelligenza artificiale e delle tecnologie per la sorveglianza per predire i crimini e chi li compirà. Uno scenario che ricorda il film “Minority Report” di Steven Spielberg e, prima ancora, il romanzo “Rapporto di minoranza” di Philip K. Dick.

Il nome dell'azienda deriva dai Palantir, chiamati anche Pietre Veggenti, manufatti dell'universo immaginario fantasy creato dallo scrittore inglese J.R.R. Tolkien. I Palantir, la cui traduzione è "Coloro che sorvegliano da lontano", sono sfere di cristallo che permettono a chi ne osserva una di vedere e comunicare, anche a grande distanza, con chiunque stia a sua volta osservandone un altro Palantir. L’azienda ha adottato questo nome perché intende offrire ai suoi clienti strumenti capaci di osservare e mettere in luce pattern invisibili dentro enormi masse di dati.

Nel report pubblicato il 30 giugno 2025 intitolato “From economy of occupation to economy of genocide”, la relatrice ONU Francesca Albanese accusa una quarantina di aziende — tra cui Palantir Technologies — di avere «fornito tecnologia di polizia predittiva automatizzata, infrastrutture di difesa per la rapida implementazione di software militari e piattaforme di IA per decisioni automatizzate sul campo di battaglia» alle Forze di Difesa Israeliane (IDF).

Tornando al confronto, la parte più interessante è la seguente:
«La vostra tecnologia uccide i palestinesi» ha urlato la manifestante.
«Per lo più terroristi, è vero», ha risposto Karp (non esistono dati univoci, le stime indicano però che tra il 60% e l’80% delle vittime complessive sono civili). 
[…]
«La più ovvia soluzione alla guerra [in Palestina] è che l’Occidente abbia le armi più forti, precise e letali possibili, così da poter ridurre al minimo le morti non necessarie, e il modo migliore per ridurre quelle morti è essere così forti da non essere attaccati. È proprio così che si fa!», ha concluso Karp.

Per il CEO di Palantir Technologies, quindi, l’unica via per preservare la pace passa attraverso il consolidamento di una superiorità tecnologico-militare schiacciante, resa possibile da sistemi d’arma sempre più autonomi, sempre più intelligenti, sempre più veloci nell’individuare un obiettivo e nel colpirlo. Questa idea che “per avere la pace bisogna essere i più forti” non è nuova. È la stessa logica che ha alimentato, oltre ottant’anni fa, la corsa alla bomba atomica.

Durante la Seconda guerra mondiale, gli Stati Uniti investirono nel Progetto Manhattan somme imponenti per anticipare le ricerche della Germania. In questi anni una dinamica simile sembra ripetersi con l’intelligenza artificiale, in una corsa contro la Cina. Le grandi potenze — e con loro le aziende tecnologiche private che operano a stretto contatto con i governi — stanno riversando capitali colossali nello sviluppo di algoritmi capaci di orientare il campo di battaglia.

Il costo totale del Progetto Manhattan, dal 1942 al 1946, fu di circa 2 miliardi di dollari dell’epoca. A seconda del metodo di aggiustamento per l’inflazione, questa cifra viene spesso tradotta in circa 30–50 miliardi di dollari attuali. Il grosso del costo fu assorbito dalle infrastrutture, come gli impianti per l’arricchimento dell’uranio a Oak Ridge, i reattori a Hanford e il centro di ricerca a Los Alamos.

Secondo il Stanford Institute for Human‑Centered AI (HAI), la spesa federale americana per contratti legati all’IA è cresciuta da circa 3,2 miliardi di dollari (2022) a 3,3 miliardi di dollari (2023), ma a questa vanno aggiunti i costi sostenuti dalle Big Tech private, sempre più legate e dipendenti all’Amministrazione di Donald Trump, e che si stima investiranno fra i 300 e i 400 miliardi di dollari solo quest’anno.

Secondo una stima pubblicata dalla società Gartner nel 2025, la spesa globale per l’intelligenza artificiale (infrastruttura, software, servizi, hardware) è stimato che possa raggiungere circa 1,5 trilioni di dollari entro la fine dell’anno.

Allora si correva per costruire l’arma definitiva, quella che avrebbe garantito supremazia e deterrenza. Oggi la competizione riguarda sistemi di intelligenza artificiale capaci di sostenere nuove generazioni di armamenti autonomi, più efficaci e letali. Questa potrebbe essere anche una delle ragioni per cui quantità enormi di investimenti stanno affluendo verso aziende tecnologiche che, in realtà, continuano a registrare perdite significative o utili irrisori. Come nel 1945 il valore non risiede nei profitti immediati, ma nel vantaggio strategico e della promessa di un’egemonia futura.

Nei giorni scorsi Trump ha ribadito, con il lancio della Genesis Mission, definita dalla Casa Bianca come «il più grande motore della scoperta scientifica americana dai tempi del programma Apollo», la centralità dello sviluppo e implementazione dell’intelligenza artificiale nel sistema americano, nelle tecnologie e nelle ricerche future.

Il fatto che Palantir Technologies e altre compagnie tecnologiche siano tra le più vicine alle istituzioni politiche e militari non sembra più un dettaglio tecnico, ma un tratto distintivo di una nuova fase geopolitica. Una fase in cui tecnologia e guerra tornano a sovrapporsi, e in cui l’intelligenza artificiale rischia di diventare ciò che la bomba atomica è stata per il Novecento, cioè l’oggetto di una corsa che nessuno può permettersi di perdere, anche a costo di ignorare del tutto le conseguenze etiche e umanitarie.

E il giorno in cui questo risultato sarà raggiunto, servirà una dimostrazione di forza, che ci ricorderà nuovamente cosa accade quando la scienza e il potere si alleano senza limiti etici.

Ha provato a riavviare? by Filippo Venturi

𝗛𝗮 𝗽𝗿𝗼𝘃𝗮𝘁𝗼 𝗮 𝗿𝗶𝗮𝘃𝘃𝗶𝗮𝗿𝗲?

Ogni volta che Donald Trump entra in contatto con Vladimir Putin, sembra che quest'ultimo riesca magicamente a resettargli il cervello, riportandolo alle impostazioni di fabbrica, cioè con stima e reverenza verso il leader russo.

Basta una telefonata e i toni muscolari del Presidente USA svaniscono, facendo emergere cautela nelle sanzioni ai russi, ottimismo sui colloqui, fiducia nel fatto che “Vladimir vorrà la pace”.

Sembra di vedere un innamorato che non riesce a rassegnarsi ad accettare che il partner lo manipoli, finendo col concedergli troppi perdoni e possibilità.

È sudditanza psicologica? Ammirazione? Strategia negoziale?

Sarei curioso di assistere a quegli incontri e dialoghi per capire se ci sia veramente una maestria dei russi nell'abbindolare regolarmente l'anziano americano. E sono anche curioso di vedere se e come cambierà il discorso dei rifornimenti di missili Tomahawk e dell'appoggio in generale a Kiev.

Warfare di Alex Garland by Filippo Venturi

Nei giorni scorsi ho visto Warfare, scritto e diretto da Alex Garland.

“Vuoi vivere 90 minuti di guerra iper-realistica attraverso gli occhi dei Navy Seals in Iraq?” era lo spunto iniziale intrigante. E in effetti il film mantiene la promessa. Per gran parte della durata assistiamo alla ripetitività e alla noia di una missione di ricognizione, fatta di ore passate ad annotare i movimenti del nemico, nascosti in una casa sottratta a due famiglie irachene. Poi, all’improvviso, subiscono un attacco: colpi di fucili e di mitra, il fragore assordante dei colpi, il panico. L’addestramento e la spavalderia dei giovani soldati svaniscono in un attimo, lasciando spazio a perdita di lucidità, traumi e alle urla interminabili dei feriti.

Dal punto di vista del realismo, il film funziona. Non ci sono eroi alla Rambo, solo una missione fallita e una ritirata amara. Ed era esattamente ciò che cercavo.

Ma qui finiscono i meriti. Manca qualsiasi approfondimento del contesto generale e soprattutto una riflessione politica. Finché si vuole proporre un’esperienza sensoriale “dal di dentro”, lo spettatore può accettarlo. Ma quando, dopo la fuga dei soldati, vediamo le famiglie irachene sequestrate all'inizio del film, aggirarsi con sgomento nella loro casa devastata — mura crivellate, sangue sul pavimento, segni tangibili di violenza — sembra arrivato finalmente il momento di dire qualcosa di significativo sulla guerra. Ma non succede.

Negli ultimi minuti vengono mostrati e celebrati i veri soldati di cui abbiamo visto la storia, coinvolti nella produzione, che arrivano sul set, stringendo mani e sorridendo con Garland e Ray Mendoza (sulle cui testimonianze è basato il film). Un epilogo che svuota di senso la sequenza precedente e lascia una sgradevole sensazione di aver visto un film di propaganda (e che la mancanza di approfondimento e contesto sia per convenienza, più che per altro).

Esaurita la curiosità di vedere in modo realistico la quotidianità dei Navy Seals in missione, non è un film che rivedrei.

E, a questo punto, mi viene da pensare che Alex Garland sia un autore sopravvalutato. Già in Civil War partiva da un’idea forte — “E se scoppiasse una guerra civile negli Stati Uniti?” — ma anche lì mancava il coraggio di approfondire davvero, preferendo soluzioni narrative banali e una rappresentazione superficiale del lavoro di fotografi e giornalisti.

Show me the kitten (or the ravenous machine) by Filippo Venturi

[english below]


Show me the kitten / or the ravenous machine (—, 2024)

Di seguito una anteprima di questo mio ultimo lavoro, ancora in corso.

Abstract

Questo progetto indaga la "fame insaziabile" di dati dell'intelligenza artificiale (I.A.), addestrata tramite etichettamenti e descrizioni di questi dati, spesso svolti inconsapevolmente o in maniera apparentemente innocua dagli utenti di Internet.

Attraverso fotografie, frame video e immagini generate con l'I.A., ho esplorato come i sistemi pensati per la sicurezza degli utenti e dei servizi del web (come ad esempio i reCAPTCHA) contribuiscono a migliorare i sistemi di I.A., anche in ambito militare, generando un corto circuito fra ciò che avrebbe una finalità di protezione e sicurezza e ciò che invece sfrutta le abilità umane per allenare questa tecnologia; fra ciò che serve per riconoscere un essere umano da un bot e ciò che invece aiuta i bot a imitare gli esseri umani, in maniera sempre più accurata e allarmante.

Da tutto questo emergono criticità sull'etica, la trasparenza, lo sfruttamento inconsapevole delle persone e il nostro futuro.

Presentazione integrale

Questo progetto indaga l'inesauribile fame di dati da parte dell'intelligenza artificiale (I.A.) e la sua necessità di essere addestrata, tramite etichettamenti e descrizioni di questi dati, ripetute milioni di volte da lavoratori sottopagati oppure dalle attività svolte online dagli utenti di Internet, spesso a loro insaputa.

Questo lavoro – composto da fotografie originali, fotografie d’archivio, frame di videogame, frame di video dal punto di vista dei droni da guerra e immagini generate – esplora il modo in cui l’I.A. si nutre di queste informazioni, anche in modo subdolo, ad esempio attraverso il cosiddetto CAPTCHA (Completely Automated Public Turing-test-to-tell Computers and Humans Apart, ossia test di Turing pubblico e completamente automatico per distinguere computer e umani), che richiede all'utente che si collega online ad un sito o un servizio di scrivere quali siano le lettere o i numeri presenti in una sequenza, spesso distorta o offuscata sullo schermo, che in teoria non sarebbe riconoscibile da un sistema automatizzato (o bot).

Nelle versioni successive e più avanzate, come il reCAPTCHA, si è iniziato a chiedere agli utenti, in modo apparentemente innocuo, di identificare oggetti all’interno di immagini, come automobili, segnali stradali, semafori, persone o animali che, oltre a riconoscere se l’utente è un essere umano, forniscono informazioni utili per addestrare sistemi di intelligenza artificiale (1), migliorandone la capacità di riconoscere e comprendere il contenuto visivo. Va da sé che queste informazioni, ripetute innumerevoli volte ogni giorno in tutto il mondo, possono rappresentare una risorsa importante anche per migliorare tante tecnologie basate sull’I.A., come i sistemi di guida autonoma di alcuni modelli di automobili, ma anche di tecnologie militari impiegate in guerra. I droni - diventati una delle armi principali nella guerra in Ucraina - in particolare i modelli aerei più avanzati, possono imparare a muoversi autonomamente, a riconoscere gli ostacoli da evitare, ma anche i bersagli da colpire.

Negli anni passati è emerso come alcune multinazionali, che hanno investito maggiormente nella ricerca in questo settore, abbiano iniziato a collaborare con il Dipartimento della Difesa Americano (2,3) per ottimizzarne gli strumenti e le tecnologie. Il “Project Maven” di Google provocò molte critiche e preoccupazioni da parte degli stessi dipendenti, fino a spingere l’azienda ad abbandonarlo. Il progetto però non morì, ma si limitò a passare ad altri appaltatori (4).

Le immagini di questo lavoro mirano a dimostrare che l'atto di garantire la sicurezza degli utenti e dei servizi online, fornendo informazioni, è parte di un meccanismo più grande, in cui la privacy e la consapevolezza degli utenti sono spesso trascurate. Questo sistema genera un corto circuito fra ciò che avrebbe una finalità di sicurezza e ciò che invece sfrutta le abilità umane per addestrare una I.A.; fra ciò che serve per riconoscere un essere umano da un bot e ciò che invece aiuta i bot a imitare gli esseri umani in maniera sempre più accurata e allarmante.

Questo progetto si interroga su questioni come la trasparenza, l'etica e il futuro dell'interazione tra umani e macchine, invitando lo spettatore a riflettere sul ruolo inconsapevole che ciascuno di noi gioca nell'alimentare l'intelligenza artificiale.

1 By Typing Captcha, you are Actually Helping AI’s Training (apnews.com)
2 Google Is Helping the Pentagon Build AI for Drones (theintercept.com)
3 Google is quietly providing AI technology for drone strike targeting project (gizmodo.com)
4 In Ukraine, New American Technology Won the Day. Until It Was Overwhelmed (nytimes.com)

Show me the kitten / or the ravenous machine (—, 2024)

Below is a preview of my latest work, still in progress.

Abstract

This project investigates artificial intelligence's (A.I.) 'insatiable hunger' for data, trained by labelling and describing this data, often carried out unknowingly or seemingly innocuously by Internet users.

Through photographs, video frames, and images generated with A.I., I explored how systems designed for the security of web users and services (such as reCAPTCHAs) contribute to improving A.I. systems, even in the military sphere, generating a short circuit between what is supposed to be for protection and security purposes and what instead exploits human skills to train this technology; between what is used to recognise a human being from a bot and what instead helps bots to imitate human beings, in an increasingly accurate and alarming manner.

From all this, critical questions arise about ethics, transparency, the unconscious exploitation of people and our future.

Presentation

This project investigates artificial intelligence's (A.I.) inexhaustible hunger for data and its need to be trained, by labelling and describing this data, repeated millions of times by underpaid workers or by the online activities of Internet users, often without their knowledge.
This work - consisting of original photographs, archive photographs, video game frames, video frames from the perspective of war drones and generated images - explores how the I.A. feeds on this information, even in a devious way, for instance through the so-called CAPTCHA (Completely Automated Public Turing-test-to-tell Computers and Humans Apart), which requires the user connecting online to a site or service to write down what letters or numbers are present in a sequence, often distorted or blurred on the screen, that in theory would not be recognisable by an automated system (or bot).

In later and more advanced versions, such as reCAPTCHA, users began to be asked, in a seemingly innocuous way, to identify objects within images, such as cars, traffic signs, traffic lights, people or animals, which, in addition to recognising whether the user is a human being, provide useful information for training artificial intelligence systems (1), improving their ability to recognise and understand visual content. It goes without saying that this information, which is repeated countless times every day all over the world, can also be an important resource for improving many A.I. based technologies, such as the autonomous driving systems of certain car models, but also military technologies used in warfare. Drones - which have become one of the main weapons in the war in Ukraine - especially the most advanced aerial models, can learn to move autonomously, to recognise obstacles to avoid, but also targets to hit.

In past years, it has emerged how some multinationals, which have invested more in research in this area, have started to collaborate with the US Department of Defence (2,3) in order to optimise its tools and technologies. Google's 'Project Maven' provoked much criticism and concern from the employees themselves, to the point of pushing the company to abandon it. The project did not die, however, but merely passed on to other contractors(4).

The images in this work aim to show that the act of ensuring the security of users and online services by providing information is part of a larger mechanism in which users' privacy and awareness are often overlooked. This system generates a short circuit between what would serve a security purpose and what instead exploits human skills to train an A.I.; between what serves to recognise a human being from a bot and what instead helps bots to imitate humans in an increasingly accurate and alarming manner.

This project questions issues such as transparency, ethics and the future of the interaction between humans and machines, inviting the viewer to reflect on the unconscious role each of us plays in fuelling artificial intelligence.

1 By Typing Captcha, you are Actually Helping AI’s Training (apnews.com)
2 Google Is Helping the Pentagon Build AI for Drones (theintercept.com)
3 Google is quietly providing AI technology for drone strike targeting project (gizmodo.com)
4 In Ukraine, New American Technology Won the Day. Until It Was Overwhelmed (nytimes.com)

20 Days in Mariupol by Filippo Venturi

[english below]

Dopo una scorpacciata di film natalizi e spensierati, con cui ho alleviato nei giorni scorsi una febbre che sembrava non finire mai, ieri notte mi sono fatto coraggio e ho guardato "20 Days in Mariupol", il documentario di Mstyslav Chernov.

La vicenda era in gran parte già nota, dato che Associated Press ha vinto un premio Pulitzer per il giornalismo di servizio pubblico, grazie al lavoro svolto proprio da Mstyslav Chernov e i suoi colleghi Evgeniy Maloletka, Vasilisa Stepanenko e Lori Hinnant. A sua volta, Evgeniy Maloletka è stato premiato col World Press Photo of the Year. Quindi avevo già letto e visto parte della loro documentazione.

Arrivando al punto, il documentario si focalizza sulla città di Mariupol ma racconta situazioni, paure e drammi che hanno toccato tutta l'Ucraina nei mesi seguenti. La lucidità e consapevolezza con cui i giornalisti decidono di recarsi a Mariupol fin dall'inizio e di restarci fino a quando si ritroveranno a essere fra i principali bersagli dei russi, ormai padroni della città, è ammirevole.

Alcune sequenze, come quella dello scantinato dell'ospedale improvvisato, sono dei veri e propri incubi a occhi aperti.

Il documentario quindi mostra la tragedia della guerra che lentamente si insinua nella vita degli ucraini (inizialmente convinti che almeno i civili fossero al sicuro) fino a smontarla pezzo per pezzo, ma mostra anche le difficoltà nel lavorare di chi fa informazione, con l'aggiunta di ricevere non di rado offese e sfoghi da parte della popolazione, alla vista delle loro fotocamere e videocamere. Una delle parti più toccanti, fra le tante, è il momento in cui alcuni ucraini, cittadini semplici ma anche dottori, chiedono ai giornalisti di continuare a documentare perché convinti che il mondo debba vedere cosa stanno subendo.

Il documentario è un capolavoro già di suo e dovrebbe essere visto a prescindere, ma in qualche modo ho avvertito anche il dovere di guardare e ascoltare quelle persone che, davanti alle proprie vite distrutte, hanno pensato a noi spettatori e a metterci in guardia su cosa sia la guerra.

https://20daysinmariupol.com/


After a binge of Christmas and light-hearted films, with which I have been relieving a fever that never seemed to end over the past few days, last night I plucked up courage and watched Mstyslav Chernov's documentary '20 Days in Mariupol'.

The story was largely already known, since Associated Press won a Pulitzer Prize for public service journalism, thanks to the work of Mstyslav Chernov and his colleagues Evgeniy Maloletka, Vasilisa Stepanenko and Lori Hinnant. In turn, Evgeniy Maloletka was awarded the World Press Photo of the Year. So I had already read and seen some of their documentation.

Getting to the point, the documentary focuses on the city of Mariupol but recounts situations, fears and dramas that touched the whole of Ukraine in the following months. The lucidity and awareness with which the journalists decide to go to Mariupol from the very beginning and to stay there until they find themselves among the main targets of the Russians, now masters of the city, is admirable.

Some sequences, such as the one in the basement of the makeshift hospital, are real waking nightmares.

The documentary therefore shows the tragedy of the war slowly creeping into the lives of Ukrainians (initially convinced that at least the civilians were safe) until it is dismantled piece by piece, but it also shows the difficulties in the work of those who report, with the addition of not infrequently receiving insults and outbursts from the population, at the sight of their cameras and video cameras.

One of the most touching parts, among many, is the moment when some Ukrainians, ordinary citizens but also doctors, ask the journalists to continue documenting because they are convinced that the world should see what they are suffering.

The documentary is a masterpiece in itself and should be seen regardless, but somehow I also felt a duty to watch and listen to those people who, in the face of their own shattered lives, thought of us viewers and warned us about what war is.

https://20daysinmariupol.com/

The Longest Day by Filippo Venturi

The longest day, from "Tear-anny" series, by Filippo Venturi.
Series of images generated with the use of artificial intelligence. I imagined Vladimir Putin's day on Saturday, June 24, 2023, as the "Wagner" Group (a private military company) was headed to Moscow to carry out what appeared to be a coup d'état, later aborted by Yevgeny Prigozhin, the group's founder and owner.

Il giorno più lungo, dalla serie "Tear-anny", di Filippo Venturi.
Serie di immagini generate con l'uso di una intelligenza artificiale. Ho immaginato la giornata di Vladimir Putin di sabato 24 giugno 2023, mentre il Gruppo “Wagner” (una compagnia militare privata) era diretto a Mosca per compiere quello che sembrava un colpo di Stato, poi interrotto da Yevgeny Prigozhin, fondatore e proprietario del gruppo stesso.