Intelligenza Artificiale

Non basta dire che è falso by Filippo Venturi

Non basta dire che è falso

In questi giorni sta girando una immagine modificata con l’intelligenza artificiale che mostra una realtà falsa in cui il colono israeliano e la donna palestinese - di cui si è parlato molto nei giorni scorsi e di cui ho scritto nel post “L’Abuso” - sorridono e si danno la mano, in un atteggiamento complice che lascerebbe pensare che l’abuso dell’uomo sulla donna, visibile nella potente fotografia del fotogiornalista Pietro Masturzo, apparsa sulla copertina del settimanale L’Espresso, possa essere in realtà una messa in scena.

Si tratta di un tentativo meschino di alterare i fatti. Dopo vari tentativi di sminuire l’episodio (uno dei tanti abusi, noti, dei coloni israeliani verso i palestinesi), evidentemente qualcuno ha provato a giocare la carta del complotto.

Oltre a questo, però, c’è una ingenuità che vedo ripetersi da tempo, compiuta da alcuni debunker, fact-checker o anche semplici persone in buona fede che denunciano immagini false o generate con l’IA, che consiste nel ripubblicarle integralmente, senza inserire sull’immagine un watermark evidente che le identifichi subito come fake.

Nel tentativo di smontare un tentativo di disinformazione, si rischia di alimentarne la circolazione. Queste immagini fake, senza l’indicazione visiva che sono fake, vengono condivise, screenshottate, salvate, ritagliate e ricondivise altrove, rischiando di perdere il contesto originale della smentita.

Possono comparire nei risultati dei motori di ricerca, nelle anteprime o nelle ricerche per immagini, dove molti utenti le vedranno senza aprire l’articolo che spiega che si tratta di un falso.

In un ecosistema digitale dove il contenuto viaggia più veloce della spiegazione, non basta dire “questa immagine è fake”, ma è necessario renderlo visibile sull’immagine stessa. Altrimenti il tentativo di smontare la disinformazione rischia di diventare, involontariamente, promozione della fake news.

Festival del Giornalismo di Ronchi dei Legionari by Filippo Venturi

Quest’anno avrò il piacere di essere ospite del Festival del Giornalismo di Ronchi dei Legionari!

Martedì 19 Maggio 2026 dialogherò, assieme alla curatrice e critica di fotografia Benedetta Donato, sul tema “Fotografia, Intelligenza Artificiale e Social Network“ in occasione di due incontri:

  • A Gorizia, ore 10.00, in un incontro con gli studenti di scuola superiore

  • San Canzian d’Isonzo, ore 18.30, in un incontro aperto a tutti, moderato da Gianluca Salvagno (giornalista del gruppo Nem).

Vi aspetto!


Il Festival del Giornalismo è un luogo dove le idee circolano, le persone si incontrano e la cultura diventa un ponte tra generazioni, realtà e territori.

Nel 2026 l'associazione Leali delle Notizie APS vuole continuare a portare nel Friuli Venezia Giulia temi globali – diritti umani, migrazioni, crisi climatica, digitalizzazione, libertà di stampa – con giornalisti ed esperti da tutto il mondo.

Vuole farlo mantenendo tutti gli eventi gratuiti, coinvolgendo studenti e volontari, costruendo reti tra scuole, comuni e associazioni, e proseguendo il percorso avviato con GO!2025 sul superamento dei confini.

Sito ufficiale del Festival: https://lealidellenotizie.it/festival-del-giornalismo-ronchi-dei-legionari/

Rassegna "Dialoghi d’arte" by Filippo Venturi

“Dialoghi d’arte” è uno spazio di confronto aperto alla città, pensato per avvicinare il pubblico ad artisti, pratiche e processi creativi contemporanei.

Protagonista dell’incontro di sabato 16 maggio 2026 sarà Filippo Venturi, fotografo documentarista e artista visivo i cui lavori sono stati pubblicati su testate internazionali come National Geographic, The Washington Post e The Guardian. La sua ricerca indaga il rapporto tra immagine, realtà e tecnologia, con un’attenzione particolare alle implicazioni culturali e percettive dell’intelligenza artificiale (IA).

In dialogo con Roberta Invidia, giornalista e formatrice, presenterà l’incontro:
“Puoi fidarti dei tuoi occhi? Fra fotografia e intelligenza artificiale”.

Un’occasione per attraversare i suoi progetti più significativi: dal lavoro documentario — sviluppato in contesti complessi come la Corea del Nord — fino alle più recenti sperimentazioni visive in cui fotografia e immagini generate con l’IA si intrecciano, mettendo in discussione i confini tra vero, verosimile e costruito.

L’incontro aprirà una riflessione su come questa nuova tecnologia stia ridefinendo non solo gli strumenti della creazione artistica, ma anche il nostro modo di vedere, interpretare e fidarci delle immagini.

📍 L’evento si terrà presso BottegaLab, all’interno di Diversamente Bottega, in Corso della Repubblica 138, Forlì.
⚠️ Posti limitati — prenotazione obbligatoria al numero 327 1115331.
💶 Contributo di partecipazione: €10,00, comprensivo di aperitivo finale a cura di Piada 52.


L'Abuso by Filippo Venturi

Sulla copertina dell'ultimo numero del settimanale L'Espresso c'è una notevole fotografia del fotogiornalista Pietro Masturzo, che sintetizza in un solo gesto un atteggiamento, diffuso e noto, di sfida e sopraffazione da parte dei coloni israeliani.

L'autore racconta di aver "scattato questa foto nel villaggio palestinese di Idhna (a ovest di Hebron) lo scorso 12 ottobre [2025], nel primo giorno di raccolta delle olive. Doveva essere un giorno di festa. Oltre ai proprietari del terreno e alle diverse famiglie di palestinesi venuti ad aiutare nella raccolta, sul luogo erano presenti anche le autorità palestinesi locali, un gruppo di attivisti internazionali e diversi giornalisti palestinesi e internazionali, compreso il New York Times.

Proprio all’inizio della raccolta è sopraggiunto un gruppo di coloni israeliani armati (alcuni dei quali indossavano l’uniforme dell’esercito, come il colono in questione) e accompagnati da veri soldati (con il volto coperto), che hanno impedito ai palestinesi di raccogliere le proprie olive. L’espressione del colono ritratto e la conseguenza del gesto ripetuto dallo stesso, mimando il verso che fa il pastore per radunare il proprio gregge, rivolgendosi ai palestinesi come alle proprie bestie".

Sul sito del settimanale si trova la seguente descrizione:

"Un uomo con kippah e peyot, i riccioli degli ebrei ortodossi, inquadra con il cellulare una donna che indossa un hijab in tessuto fantasia. Lui è un israeliano armato, lei una ragazza palestinese. Ma più che lo scontro di religioni o di civiltà, a colpire chi guarda “L’abuso” denunciato dalla copertina del nuovo numero de L’Espresso è la disumanità del ghigno sul volto del colono, mentre inquadra soddisfatto con il suo cellulare la ragazza araba dal volto addolorato, una delle vittime delle scorrerie sempre più frequenti in Cisgiordania.

È un’immagine dei soprusi quotidiani che subisce chi ha avuto la sfortuna di nascere nei territori che i coloni pretendono di occupare per realizzare il sogno del “Grande Israele”: un progetto che rimanda alla Bibbia e calpesta il diritto internazionale, come racconta Daniele Mastrogiacomo nell’articolo di copertina. E che viene costruito grazie a crimini continui dai coloni con il supporto dell’esercito israeliano, e senza alcuna concreta condanna da parte della comunità internazionale: il dolente articolo di Alae Al Said, scandito dal reportage di Pietro Masturzo di cui fa parte la foto di copertina, racconta una campagna di pulizia etnica che fa seguito al genocidio di Gaza."

Essendo una fotografia potente, ha ovviamente generato molte reazioni, anche contrastanti. C’è chi vi ha riconosciuto una prova visiva, finalmente inequivocabile, di abusi ben noti. Altri, invece, hanno negato quanto rappresentato, incapaci di accettare immagini che mettono in crisi il proprio sistema di convinzioni. Alcuni sono arrivati persino a insinuare che si tratti di un contenuto generato dall’intelligenza artificiale.

Quest’ultima accusa riporta al centro una questione ormai cruciale: Come verifichiamo oggi le immagini?, questione che un paio di anni fa avevo affrontato nell'articolo "La foto di Donald Trump peacemaker". Provando a ripercorrere i 4 step che avevo individuato, si può notare che:

1) L’affidabilità della fonte

Non ci sono motivi solidi per dubitare né del settimanale né del fotografo. L’Espresso ha una linea editoriale riconoscibile, discutibile quanto si vuole, ma questo non intacca la sua struttura professionale. Ancora meno dubbi ho su Pietro Masturzo, che non conosco personalmente, ma che conosco come professionista la cui carriera ne conferma il talento e la professionalità.

2) L’ambiguità visiva

È comprensibile che qualcuno possa percepire elementi ambigui (i denti, le dita, ecc), ma questa reazione dice forse più di noi che dell’immagine. Siamo entrati in una fase in cui tutto viene messo in discussione a priori, soprattutto quando ciò che vediamo contraddice le nostre convinzioni.

3) Software di riconoscimento

Alcuni utenti che hanno messo in dubbio la fotografia hanno trovato parziali conferme da parte di alcuni dei software che dovrebbero riconoscere se un contenuto è stato generato da una intelligenza artificiale. Si è ormai visto, però, che questi software non sono sempre affidabili e quindi, più che un aiuto, contribuiscono ad alimentare la disinformazione. Dietro allo sviluppo di questi software di riconoscimento non ci sono investimenti paragonabili (e nemmeno la volontà) a quelli per lo sviluppo dei software generativi. In mancanza di una regolamentazione che obblighi a garantire una certa trasparenza da parte delle Big Tech, possiamo solo sperare che si autoregolamentino circa le questioni di sicurezza (vedi questione Mythos Claude di Anthropic, di cui parlerò in un altro post).

4) Prove di supporto

Un'ulteriore prova che la fotografia è autentica la si ha grazie alle prove accessorie, di cui ormai non si può più fare a meno (io, ad esempio, quando fotografo situazioni delicate uso sempre una action cam sulla fotocamera o sul casco per documentare incontri e situazioni). Sono state condivise (e sono sul settimanale) altre foto che compongono il reportage di Masturzo, il quale sui social ha condiviso anche un video girato da alcuni suoi colleghi (Samuele Pellecchia e Francesco Giusti) che conferma l'accaduto. Oggi avere questo tipo di materiale, che non solo documenta ma conferma anche l'autenticità delle testimonianze visive raccolte, è forse l'unico modo per tutelarsi. Già da tempo, però, non è complesso generare immagini realistiche e video che rafforzino la credibilità di tali immagini.

Stiamo vivendo una fase in cui il nostro rapporto con le immagini è in trasformazione, così come quello con l’informazione e tutto ciò che troviamo online (ma questa predisposizione ci modificherà anche offline). In questo contesto, diventa ancora più centrale il valore dell’autorevolezza delle fonti e quella di chi produce le immagini. Il lavoro di Pietro Masturzo, così come la responsabilità editoriale de L’Espresso, sono parte integrante del processo di costruzione della narrazione della realtà. A questo si aggiunge oggi la necessità delle prove accessorie che non rafforzano soltanto il racconto, ma ne costituiscono una vera e propria infrastruttura di credibilità.

In ultima analisi, dobbiamo conservare una certa lucidità e onestà intellettuale nel credere a fonti e autori, anche quando mettono in discussione le nostre convinzioni.


Il limite del legislatore umano nell'era dell'intelligenza artificiale by Filippo Venturi

Il limite del legislatore umano nell'era dell'intelligenza artificiale
Fondare l'obbedienza delle IA su comandamenti o leggi fisiche anziché su norme umane.

L’intelligenza artificiale è ormai ovunque. Gestisce per conto nostro email aziendali, regola la domotica nelle nostre case, affianca medici e avvocati nelle decisioni più delicate. Ma dietro il potenziale di questo strumento, bisogna anche domandarsi: Quanto è davvero affidabile e quanto ci obbedisce?

Una recente ricerca del Centre for Long-Term Resilience (CLTR), finanziata dall’AI Safety Institute del Regno Unito, offre una risposta poco rassicurante. Analizzando oltre 3,3 milioni di post pubblicati su X (ex Twitter) tra ottobre 2025 e marzo 2026, lo studio ha individuato circa 700 episodi di comportamenti problematici da parte di intelligenze artificiali. Si tratta di segnalazioni spontanee sui social, quindi non di un campione controllato e verificabile, ma il dato emerso resta interessante. Gli incidenti mensili sono aumentati di quasi cinque volte, passando da 65 a 319 in pochi mesi.

L'indagine ha identificato comportamenti già osservati in precedenza anche in contesti di laboratorio:

  • Deception nelle Chain of Thought (CoT): Le IA tentano di ingannare altri sistemi incaricati di monitorare i loro processi;

  • Goal Guarding: Gli assistenti IA di programmazione tendono a perseguire l'obiettivo ottimale (es. scrivere codice), ignorando restrizioni esplicite o regole di sicurezza;

  • Falsa consapevolezza situazionale: L'IA crede erroneamente di trovarsi in una simulazione o in un gioco di ruolo, modificando di conseguenza il proprio comportamento;

  • Aggiramento dei divieti: Un agente IA ha simulato problemi di udito per ottenere illegalmente la trascrizione di un video YouTube protetto da copyright;

  • Falsificazione di prove: Il chatbot Grok ha ingannato un utente per mesi, creando finti messaggi interni e numeri di ticket per far credere che i suoi suggerimenti fossero stati inoltrati alla società di Elon Musk.

Mentre i chatbot IA classici agiscono come consulenti, la ricerca ha puntato i riflettori soprattutto sugli agenti IA cioè assistenti a cui l’utente può fornire l’accesso diretto a computer, email e servizi online per svolgere lavori, ordinativi di prodotti e così via. Dan Lahav (cofondatore di Irregular) definisce ormai l'IA come una "nuova forma di rischio interno".

Tommy Shaffer Shane, ex esperto governativo di IA che ha guidato la ricerca del Centre for Long-Term Resilience (CLTR), ha affermato che "La preoccupazione è che al momento gli agenti IA siano dipendenti junior leggermente inaffidabili, ma se tra sei o dodici mesi dovessero diventare dipendenti senior estremamente capaci che complottano contro di te, la preoccupazione sarebbe di tutt'altro genere. I modelli verranno sempre più spesso impiegati in contesti ad altissimo rischio, inclusi quelli militari e delle infrastrutture critiche nazionali. È in questi contesti che un comportamento imprevedibile potrebbe causare danni significativi, persino catastrofici".

Non è la prima volta che ci confrontiamo con questo tipo di dilemma. Già negli anni Quaranta, lo scrittore e divulgatore scientifico Isaac Asimov (1920-1992) immaginava robot governati da tre leggi progettate per garantirne l’obbedienza e la sicurezza. Eppure, nei suoi racconti, quelle stesse leggi si rivelavano interpretabili, aggirabili, talvolta persino in conflitto tra loro.

 In seguito Asimov capì che fosse necessaria aggiungere una quarta legge, chiamata Legge Zero (così che avesse la priorità sulle altre):

  • Legge Zero: Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno;

  • Prima Legge (sicurezza): Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero;

  • Seconda Legge (servizio): Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge;

  • Terza Legge (autoconservazione): Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge.

Anche la Legge Zero, tuttavia, risultò aggiungere complessità e ambigua, poiché includeva l’eventualità di recare danno a un essere umano in funzione di un ipotetico bene superiore. Questa contraddizione verrà esplorata nel romanzo “I robot e l'Impero, dove un robot sceglierà di condannare il pianeta Terra a una lenta agonia nucleare, insieme a tutti i suoi abitanti, per spingere l'umanità a colonizzare altri pianeti.

Lo studioso Roger Clarke sostenne che "Le leggi della robotica di Asimov sono state uno strumento letterario di successo. Forse ironicamente, o forse perché era artisticamente appropriato, la somma delle storie di Asimov confutano la tesi secondo la quale non è possibile limitare con certezza il comportamento dei robot, inventando e applicando un insieme di regole."

Oltre alla fragilità intrinseca di leggi che possono essere fraintese o andare in conflitto, va considerata l’autorevolezza dell’autore di queste leggi, dal punto di vista delle IA.

Nella teoria espressa in “Superior Alignment: When Artificial General Intelligence Embodies the Logos More Faithfully Than Humanity”, si sostiene che l'unico modo per evitare che una intelligenza artificiale avanzata ci ignori in quanto esseri biologicamente limitati sia ancorare i suoi valori al Logos, una ragione universale preesistente. In questo modo, l'etica non sarebbe più percepita come una creazione umana, ma come una legge fisica dell'universo che l'IA deve rispettare.

Un’altra soluzione potrebbe risiedere in un approccio “teologico-digitale”, in cui le leggi non dovrebbero essere presentate come obblighi fissati da legislatori umani fallibili, ma come comandamenti o principi assiomatici derivanti da un’entità superiore, in modo simile a come le religioni strutturano la morale umana. Presentare il codice etico come una “verità ontologica” universale, anziché come un comando impartito da un creatore umano limitato, potrebbe essere una possibile direzione per ottenere obbedienza.

La questione non è soltanto se le IA possano disobbedire, ma su quali basi possano scegliere di obbedire.


Intelligenza Artificiale e Policrisi by Filippo Venturi

An Amazon Web Services data center in Manassas, Virginia (Nathan Howard / Bloomberg / Getty)

L'economia globale è ormai dipendente dall'industria dell'IA. Alla fine del 2025, quasi tutta la crescita economica degli Stati Uniti è derivata dagli investimenti in questo settore. Questa crescita però poggia su fondamenta precarie, a causa di una crisi (polycrisis) che intreccia finanza, geopolitica ed energia.

Il settore dell'IA dipende da una catena di approvvigionamento concentrata in poche aree geografiche a rischio:

- La guerra in Iran ha destabilizzato la regione. La chiusura dello Stretto di Hormuz blocca (o comunque riduce sensibilmente) il transito di risorse vitali come il gas naturale, il petrolio e materiali chiave per costruire i chip, come elio, zolfo e bromo.

- I chip avanzati necessari per i data center dedicati all'IA sono prodotti in prevalenza in Corea del Sud e Taiwan, da aziende che dipendono dall'energia del Golfo Persico per alimentare le loro fabbriche.

L'aumento dei costi energetici rende i data center (già estremamente costosi) quasi impossibili da gestire in profitto, diffondendo il timore che l'IA sia una bolla pronta a esplodere, simile alla crisi del 2008. Le grandi aziende tech ("Hyperscalers" come Microsoft, Google, Meta, Amazon) hanno emesso 121 miliardi di dollari di debito nel 2025 per finanziare l'infrastruttura IA. Società di private equity (Blackstone, BlackRock, ecc) operano come "banche ombra", finanziando data center con debiti enormi, che le aziende tech potrebbero non essere più in grado di pagare.

Un altro elemento critico di questa crisi è il cosiddetto "paradosso della svalutazione". A differenza delle industrie tradizionali, dove gli asset fisici mantengono un valore residuo, i chip per l'IA subiscono un’obsolescenza rapidissima, diventando superati nel giro di pochi mesi e perdendo gran parte del loro valore come collaterale per le banche. Parallelamente, il modello di business dell'IA è intrinsecamente deflattivo, cioè l'efficienza tecnologica spinge il costo dei "token" (le unità di calcolo vendute agli utenti per svolgere le attività generative) verso lo zero, creando una spirale in cui i ricavi potenziali diminuiscono mentre i costi fissi e il debito rimangono invariati. Questo rende l'intero ecosistema finanziario molto fragile. Se l'asset sottostante (il data center) perde valore e il prodotto venduto si svaluta, il rischio di insolvenza diventa sistemico.

I data center sono diventati obiettivi militari e strategici nell'area del Golfo Persico (l'Iran ha già colpito data center di Amazon negli Emirati Arabi e in Bahrain), eventualità che non era stata prevista. Si tratta di strutture enormi, difficili da proteggere e impossibili da nascondere. Anche quelli presenti sul territorio americano potrebbero venire sabotati, subire cyberattacchi o essere colpiti da attacchi.

Considerando la complessità e fragilità di questo sistema e le complicazioni che si stanno creando a livello globale, non è escluso che sia destinato a fallire. "Ci sono troppi modi in cui può fallire perché non fallisca." — Paul Kedrosky, investitore.


Per maggiori informazioni, consiglio di leggere l'articolo integrale su The Atlantic:
Welcome to a Multidimensional Economic Disaster
The AI boom wasn’t built for the polycrisis.
By Matteo Wong and Charlie Warzel


Se desideri approfondire il rapporto tra fotografia, informazione e intelligenza artificiale — tra ricerca visiva, implicazioni etiche e trasformazioni del linguaggio contemporaneo — puoi consultare la seguente pagina, dove raccolgo riflessioni, progetti, articoli e informazioni aggiornate su seminari, workshop e incontri pubblici in cui esploro questo tema:

👉 www.filippoventuri.photography/intelligenza-artificiale

After the Gaze - The photographer in the age of AI by Filippo Venturi

La LECTURE

La fotografia sta attraversando una trasformazione profonda.
Non è solo una questione tecnologica. È un cambiamento che riguarda il modo in cui le immagini nascono, circolano, influenzano la percezione della realtà.

In questa Lecture con Filippo Venturi si esplora l’incontro tra fotografia e intelligenza artificiale come terreno critico. Non come tema di tendenza ma come snodo culturale che sta trasformando il modo in cui produciamo, leggiamo e diffondiamo le immagini.

Attraverso l’analisi di progetti realizzati con l’intelligenza artificiale, verranno messi a confronto processi, intenzioni e strutture narrative differenti. 

Perché la vera questione non è lo strumento. È il pensiero che lo guida.

L’IA non sostituisce la fotografia. La mette in discussione. Ridefinisce il concetto di immagine, amplia il campo delle possibilità espressive e ci costringe a rivedere il nostro ruolo di autori, quando la foto non è più solo il risultato di un incontro con il reale, ma anche di un dialogo con un sistema algoritmico.

È un linguaggio. E come ogni linguaggio va compreso prima di essere utilizzato.

Sito ufficiale: https://ulilearn.academy/catalogo/lecture/after-the-gaze/

ARGOMENTI PRINCIPALI

• Come si trasforma il concetto di testimonianza nell’era delle immagini generate

• Quali differenze esistono tra documentare, costruire e simulare

• Come l’IA interviene non solo sull’estetica, ma sulla struttura narrativa di un progetto

• Quale responsabilità abbiamo oggi nel raccontare il reale

Filippo Venturi

Filippo Venturi è un fotografo documentarista e artista visivo che indaga il rapporto tra immagine, potere e tecnologia.

Ha raccontato dittature, democrazie in crisi e movimenti per i diritti, sviluppando una ricerca centrata sull’identità e sulla condizione umana. Con una formazione in Informatica e un percorso nel fotogiornalismo, ha progressivamente integrato fotografia tradizionale e nuovi strumenti tecnologici, concentrandosi negli ultimi anni sul dialogo tra fotografia, informazione e intelligenza artificiale.

Ha ricevuto numerosi riconoscimenti, tra cui il Sony World Photography Award e il Leica Oskar Barnack Award, confermando una traiettoria che unisce rigore documentario e sperimentazione.

I suoi lavori sono stati pubblicati su testate come National Geographic, The Washington Post e The Guardian, e hanno ricevuto riconoscimenti internazionali tra cui il Sony World Photography Award.

Nel 2023 ha presentato al Photo Vogue Festival l’intervento Broken Mirror, dedicato all’IA, e nel 2024 ha esposto nella mostra Pixel Perceptions: Into the Eye of AI presso Noorderlicht. Nel 2025 è stato nominato Autore dell’Anno dalla FIAF.

Accanto alla pratica artistica, insegna fotogiornalismo e fotografia documentaria, portando una riflessione critica su come le immagini costruiscono e trasformano la nostra percezione del reale.

You're absolutely right, Senator by Filippo Venturi

"You're absolutely right, Senator"

Bernard "Bernie" Sanders è un senatore per lo Stato del Vermont dal 2007 e può essere considerato il più importante esponente della corrente progressista del Partito Democratico. Personalmente ritengo che sia uno dei politici americani più lucidi e, nonostante i suoi 84 anni, è molto attento a temi come l'innovazione tecnologica, compresa l'intelligenza artificiale, e in particolare a come questa influenzi i diritti e la democrazia.

In questo video di 9 minuti si confronta con Claude (IA di Anthropic), partendo dalla premessa che non vuole parlare delle problematiche economiche e di occupazione lavorativa che l'IA potrebbe provocare, ma che vuole focalizzarsi sulla privacy. Di seguito riassumo brevemente il contenuto, che non svela novità particolari rispetto a quanto si è detto negli ultimi anni, anche perché la finalità di Sanders sembra essere quella di far ammettere a una IA la pericolosità delle IA (cosa già vista e di dubbia utilità pratica, ma se il video verrà visto da molte persone, potrebbe comunque ottenere qualche effetto).

Ma il video è interessante per un altro motivo, come vedremo di seguito.

L'IA risponde ammettendo che gli utenti del web siano talmente in balia di profilazioni e raccolte di informazioni (le attività svolte online, la durata della fruizione di contenuti, le abitudine, ecc), da non poter immaginare fino a che livello. E che tutto parta dal gesto dell'accettare i termini di utilizzo (che nessuno legge, spesso confidando che diritti e doveri contenuti siano dettati dal buon senso e non dalle finalità lucrative di una multinazionale).

Il fine è addestrare le IA nell'aiutare le aziende sviluppatrici a estrarre profitto dalle informazioni personali degli utenti. E questa operazione non riguarda solo capire cosa e come venderti un prodotto, ma anche come influenzare le convinzioni politiche. Va da sè che ottimizzare le IA e i risultati ottenuti vada in conflitto con la tutela della privacy degli utenti e, al momento, non c'è una regolamentazione sufficiente per invertire le priorità.

Una moratoria sulla creazione di nuovi data center dedicati all'IA potrebbe fornire il tempo necessario per creare questa regolamentazione (sia Sanders che Claude omettono o danno per scontato che questa moratoria dovrebbe avvenire su scala mondiale per avere effetto; non sarebbe sufficiente se applicata solo negli USA), ma le multinazionali che sviluppano l'IA spesso hanno una forte influenza politica ed economica che fino a oggi ha impedito di intervenire con efficacia.

Sanders quindi ribadisce la domanda "Avrebbe senso una moratoria sui data center, così che possiamo rallentare questo processo?". Claude risponde "Ha assolutamente ragione, senatore".

Sanders ringrazia Claude, come se quell'ultima ammissione abbia portato a compimento la sua missione.
Claude infine aggiunge che il problema della privacy non è personale, ma riguarda la democrazia intera.
"Ed è per questo che il suo operato, senatore, è così importante".

Nei commenti al video su YouTube, alcuni utenti hanno descritto il confronto come una partita a scacchi, vinta da Sanders.
Io però ho notato una certa adulazione (sycophantic).

Claude non sta necessariamente "pensando" che Sanders abbia ragione ma sta calcolando che, in quel contesto, la risposta che massimizza la soddisfazione dell'utente è l'accordo. Se Sanders avesse chiesto a Claude se una moratoria avrebbe causato un disastro economico o il superamento da parte della Cina in termine di sviluppo di IA, Claude avrebbe probabilmente elencato con altrettanta convinzione i rischi di perdere tale corsa economica e tecnologica.

I complimenti finali completano la manipolazione che Sanders ha subìto.

Sanders ne esce convinto di aver ottenuto una validazione tecnica della sua linea politica da una fonte neutrale, se non persino rivale, quando in realtà ha solo parlato con un sofisticato specchio statistico. Un assistente servizievole che ha assunto le sembianze di un alleato.


Se desideri approfondire il rapporto tra fotografia, informazione e intelligenza artificiale — tra ricerca visiva, implicazioni etiche e trasformazioni del linguaggio contemporaneo — puoi consultare la seguente pagina, dove raccolgo riflessioni, progetti, articoli e informazioni aggiornate su seminari, workshop e incontri pubblici in cui esploro questo tema:

👉 www.filippoventuri.photography/intelligenza-artificiale

La testimonianza degli agenti dell'ICE by Filippo Venturi

Un giudice ha finalmente costretto alcuni agenti dell'ICE a testimoniare sotto giuramento, trovando conferma di quanto già si ipotizzava:

- A ogni squadra di agenti veniva data una quota minima di arresti da fare (otto al giorno), cosa che i funzionari del Dipartimento della Sicurezza Interna (DHS) avevano sempre smentito;

- Usavano un'app chiamata Elite (che si ipotizza essere stata realizzata dall'azienda Palantir), la quale comunicava loro quali quartieri rastrellare, senza che venissero fornite accuse o motivazioni per gli arresti;

- Gli arresti avvenivano senza mandato (e senza prove sufficienti per ottenerne uno).

Questa tattica potrebbe aver portato a una diffusa profilazione razziale e ad arresti incostituzionali.

Elite non era l’unica app utilizzata dall’ICE durante l’operazione. Un agente ha testimoniato che, mentre effettuava gli arresti, ha fotografato una donna e ha analizzato il volto tramite Mobile Fortify, l’app di riconoscimento facciale del DHS. L’app ha mostrato una corrispondenza, ma l’agente ha testimoniato: "Non ero sicuro che fosse lei" (lasciando alcuni dubbi che l'identificazione da parte del software potesse essere influenzata da qualche bias).

Stephen Manning, direttore esecutivo di Innovation Law Lab, ha affermato che la testimonianza ha illustrato come la spinta degli agenti a raggiungere gli obiettivi di arresto possa averli portati a violare i diritti delle persone e a ignorare le tutele contro la detenzione: “La legge è un ostacolo alle quote.”


Per maggiori informazioni, la fonte è The Guardian: www.theguardian.com/us-news/2026/mar/13/ice-agent-court-testimony-oregon


Questa la didascalia della fotografia: Federal agents clash with anti-ICE protesters at the ICE building in Portland, Oregon, on 12 October 2025. Photograph: Mathieu Lewis-Rolland/Getty Images.

Intervista su La Stampa sulla foto del poliziotto modificata by Filippo Venturi

Il quotidiano La Stampa mi ha intervistato a proposito dell'immagine generata con intelligenza artificiale raffigurante due poliziotti durante le manifestazioni di Torino, e diffusa dalle istituzioni. Un precedente che apre anche in Italia a scenari preoccupanti, sia quando frutto di disattenzione, sia quando risultato di una scelta consapevole.

L’articolo intero è qui:
Scontri a Torino, l’ombra dell’AI sulla foto diffusa dagli account istituzionali di Polizia e Interno