News

Non basta dire che è falso by Filippo Venturi

Non basta dire che è falso

In questi giorni sta girando una immagine modificata con l’intelligenza artificiale che mostra una realtà falsa in cui il colono israeliano e la donna palestinese - di cui si è parlato molto nei giorni scorsi e di cui ho scritto nel post “L’Abuso” - sorridono e si danno la mano, in un atteggiamento complice che lascerebbe pensare che l’abuso dell’uomo sulla donna, visibile nella potente fotografia del fotogiornalista Pietro Masturzo, apparsa sulla copertina del settimanale L’Espresso, possa essere in realtà una messa in scena.

Si tratta di un tentativo meschino di alterare i fatti. Dopo vari tentativi di sminuire l’episodio (uno dei tanti abusi, noti, dei coloni israeliani verso i palestinesi), evidentemente qualcuno ha provato a giocare la carta del complotto.

Oltre a questo, però, c’è una ingenuità che vedo ripetersi da tempo, compiuta da alcuni debunker, fact-checker o anche semplici persone in buona fede che denunciano immagini false o generate con l’IA, che consiste nel ripubblicarle integralmente, senza inserire sull’immagine un watermark evidente che le identifichi subito come fake.

Nel tentativo di smontare un tentativo di disinformazione, si rischia di alimentarne la circolazione. Queste immagini fake, senza l’indicazione visiva che sono fake, vengono condivise, screenshottate, salvate, ritagliate e ricondivise altrove, rischiando di perdere il contesto originale della smentita.

Possono comparire nei risultati dei motori di ricerca, nelle anteprime o nelle ricerche per immagini, dove molti utenti le vedranno senza aprire l’articolo che spiega che si tratta di un falso.

In un ecosistema digitale dove il contenuto viaggia più veloce della spiegazione, non basta dire “questa immagine è fake”, ma è necessario renderlo visibile sull’immagine stessa. Altrimenti il tentativo di smontare la disinformazione rischia di diventare, involontariamente, promozione della fake news.

L'Abuso by Filippo Venturi

Sulla copertina dell'ultimo numero del settimanale L'Espresso c'è una notevole fotografia del fotogiornalista Pietro Masturzo, che sintetizza in un solo gesto un atteggiamento, diffuso e noto, di sfida e sopraffazione da parte dei coloni israeliani.

L'autore racconta di aver "scattato questa foto nel villaggio palestinese di Idhna (a ovest di Hebron) lo scorso 12 ottobre [2025], nel primo giorno di raccolta delle olive. Doveva essere un giorno di festa. Oltre ai proprietari del terreno e alle diverse famiglie di palestinesi venuti ad aiutare nella raccolta, sul luogo erano presenti anche le autorità palestinesi locali, un gruppo di attivisti internazionali e diversi giornalisti palestinesi e internazionali, compreso il New York Times.

Proprio all’inizio della raccolta è sopraggiunto un gruppo di coloni israeliani armati (alcuni dei quali indossavano l’uniforme dell’esercito, come il colono in questione) e accompagnati da veri soldati (con il volto coperto), che hanno impedito ai palestinesi di raccogliere le proprie olive. L’espressione del colono ritratto e la conseguenza del gesto ripetuto dallo stesso, mimando il verso che fa il pastore per radunare il proprio gregge, rivolgendosi ai palestinesi come alle proprie bestie".

Sul sito del settimanale si trova la seguente descrizione:

"Un uomo con kippah e peyot, i riccioli degli ebrei ortodossi, inquadra con il cellulare una donna che indossa un hijab in tessuto fantasia. Lui è un israeliano armato, lei una ragazza palestinese. Ma più che lo scontro di religioni o di civiltà, a colpire chi guarda “L’abuso” denunciato dalla copertina del nuovo numero de L’Espresso è la disumanità del ghigno sul volto del colono, mentre inquadra soddisfatto con il suo cellulare la ragazza araba dal volto addolorato, una delle vittime delle scorrerie sempre più frequenti in Cisgiordania.

È un’immagine dei soprusi quotidiani che subisce chi ha avuto la sfortuna di nascere nei territori che i coloni pretendono di occupare per realizzare il sogno del “Grande Israele”: un progetto che rimanda alla Bibbia e calpesta il diritto internazionale, come racconta Daniele Mastrogiacomo nell’articolo di copertina. E che viene costruito grazie a crimini continui dai coloni con il supporto dell’esercito israeliano, e senza alcuna concreta condanna da parte della comunità internazionale: il dolente articolo di Alae Al Said, scandito dal reportage di Pietro Masturzo di cui fa parte la foto di copertina, racconta una campagna di pulizia etnica che fa seguito al genocidio di Gaza."

Essendo una fotografia potente, ha ovviamente generato molte reazioni, anche contrastanti. C’è chi vi ha riconosciuto una prova visiva, finalmente inequivocabile, di abusi ben noti. Altri, invece, hanno negato quanto rappresentato, incapaci di accettare immagini che mettono in crisi il proprio sistema di convinzioni. Alcuni sono arrivati persino a insinuare che si tratti di un contenuto generato dall’intelligenza artificiale.

Quest’ultima accusa riporta al centro una questione ormai cruciale: Come verifichiamo oggi le immagini?, questione che un paio di anni fa avevo affrontato nell'articolo "La foto di Donald Trump peacemaker". Provando a ripercorrere i 4 step che avevo individuato, si può notare che:

1) L’affidabilità della fonte

Non ci sono motivi solidi per dubitare né del settimanale né del fotografo. L’Espresso ha una linea editoriale riconoscibile, discutibile quanto si vuole, ma questo non intacca la sua struttura professionale. Ancora meno dubbi ho su Pietro Masturzo, che non conosco personalmente, ma che conosco come professionista la cui carriera ne conferma il talento e la professionalità.

2) L’ambiguità visiva

È comprensibile che qualcuno possa percepire elementi ambigui (i denti, le dita, ecc), ma questa reazione dice forse più di noi che dell’immagine. Siamo entrati in una fase in cui tutto viene messo in discussione a priori, soprattutto quando ciò che vediamo contraddice le nostre convinzioni.

3) Software di riconoscimento

Alcuni utenti che hanno messo in dubbio la fotografia hanno trovato parziali conferme da parte di alcuni dei software che dovrebbero riconoscere se un contenuto è stato generato da una intelligenza artificiale. Si è ormai visto, però, che questi software non sono sempre affidabili e quindi, più che un aiuto, contribuiscono ad alimentare la disinformazione. Dietro allo sviluppo di questi software di riconoscimento non ci sono investimenti paragonabili (e nemmeno la volontà) a quelli per lo sviluppo dei software generativi. In mancanza di una regolamentazione che obblighi a garantire una certa trasparenza da parte delle Big Tech, possiamo solo sperare che si autoregolamentino circa le questioni di sicurezza (vedi questione Mythos Claude di Anthropic, di cui parlerò in un altro post).

4) Prove di supporto

Un'ulteriore prova che la fotografia è autentica la si ha grazie alle prove accessorie, di cui ormai non si può più fare a meno (io, ad esempio, quando fotografo situazioni delicate uso sempre una action cam sulla fotocamera o sul casco per documentare incontri e situazioni). Sono state condivise (e sono sul settimanale) altre foto che compongono il reportage di Masturzo, il quale sui social ha condiviso anche un video girato da alcuni suoi colleghi (Samuele Pellecchia e Francesco Giusti) che conferma l'accaduto. Oggi avere questo tipo di materiale, che non solo documenta ma conferma anche l'autenticità delle testimonianze visive raccolte, è forse l'unico modo per tutelarsi. Già da tempo, però, non è complesso generare immagini realistiche e video che rafforzino la credibilità di tali immagini.

Stiamo vivendo una fase in cui il nostro rapporto con le immagini è in trasformazione, così come quello con l’informazione e tutto ciò che troviamo online (ma questa predisposizione ci modificherà anche offline). In questo contesto, diventa ancora più centrale il valore dell’autorevolezza delle fonti e quella di chi produce le immagini. Il lavoro di Pietro Masturzo, così come la responsabilità editoriale de L’Espresso, sono parte integrante del processo di costruzione della narrazione della realtà. A questo si aggiunge oggi la necessità delle prove accessorie che non rafforzano soltanto il racconto, ma ne costituiscono una vera e propria infrastruttura di credibilità.

In ultima analisi, dobbiamo conservare una certa lucidità e onestà intellettuale nel credere a fonti e autori, anche quando mettono in discussione le nostre convinzioni.


Il limite del legislatore umano nell'era dell'intelligenza artificiale by Filippo Venturi

Il limite del legislatore umano nell'era dell'intelligenza artificiale
Fondare l'obbedienza delle IA su comandamenti o leggi fisiche anziché su norme umane.

L’intelligenza artificiale è ormai ovunque. Gestisce per conto nostro email aziendali, regola la domotica nelle nostre case, affianca medici e avvocati nelle decisioni più delicate. Ma dietro il potenziale di questo strumento, bisogna anche domandarsi: Quanto è davvero affidabile e quanto ci obbedisce?

Una recente ricerca del Centre for Long-Term Resilience (CLTR), finanziata dall’AI Safety Institute del Regno Unito, offre una risposta poco rassicurante. Analizzando oltre 3,3 milioni di post pubblicati su X (ex Twitter) tra ottobre 2025 e marzo 2026, lo studio ha individuato circa 700 episodi di comportamenti problematici da parte di intelligenze artificiali. Si tratta di segnalazioni spontanee sui social, quindi non di un campione controllato e verificabile, ma il dato emerso resta interessante. Gli incidenti mensili sono aumentati di quasi cinque volte, passando da 65 a 319 in pochi mesi.

L'indagine ha identificato comportamenti già osservati in precedenza anche in contesti di laboratorio:

  • Deception nelle Chain of Thought (CoT): Le IA tentano di ingannare altri sistemi incaricati di monitorare i loro processi;

  • Goal Guarding: Gli assistenti IA di programmazione tendono a perseguire l'obiettivo ottimale (es. scrivere codice), ignorando restrizioni esplicite o regole di sicurezza;

  • Falsa consapevolezza situazionale: L'IA crede erroneamente di trovarsi in una simulazione o in un gioco di ruolo, modificando di conseguenza il proprio comportamento;

  • Aggiramento dei divieti: Un agente IA ha simulato problemi di udito per ottenere illegalmente la trascrizione di un video YouTube protetto da copyright;

  • Falsificazione di prove: Il chatbot Grok ha ingannato un utente per mesi, creando finti messaggi interni e numeri di ticket per far credere che i suoi suggerimenti fossero stati inoltrati alla società di Elon Musk.

Mentre i chatbot IA classici agiscono come consulenti, la ricerca ha puntato i riflettori soprattutto sugli agenti IA cioè assistenti a cui l’utente può fornire l’accesso diretto a computer, email e servizi online per svolgere lavori, ordinativi di prodotti e così via. Dan Lahav (cofondatore di Irregular) definisce ormai l'IA come una "nuova forma di rischio interno".

Tommy Shaffer Shane, ex esperto governativo di IA che ha guidato la ricerca del Centre for Long-Term Resilience (CLTR), ha affermato che "La preoccupazione è che al momento gli agenti IA siano dipendenti junior leggermente inaffidabili, ma se tra sei o dodici mesi dovessero diventare dipendenti senior estremamente capaci che complottano contro di te, la preoccupazione sarebbe di tutt'altro genere. I modelli verranno sempre più spesso impiegati in contesti ad altissimo rischio, inclusi quelli militari e delle infrastrutture critiche nazionali. È in questi contesti che un comportamento imprevedibile potrebbe causare danni significativi, persino catastrofici".

Non è la prima volta che ci confrontiamo con questo tipo di dilemma. Già negli anni Quaranta, lo scrittore e divulgatore scientifico Isaac Asimov (1920-1992) immaginava robot governati da tre leggi progettate per garantirne l’obbedienza e la sicurezza. Eppure, nei suoi racconti, quelle stesse leggi si rivelavano interpretabili, aggirabili, talvolta persino in conflitto tra loro.

 In seguito Asimov capì che fosse necessaria aggiungere una quarta legge, chiamata Legge Zero (così che avesse la priorità sulle altre):

  • Legge Zero: Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno;

  • Prima Legge (sicurezza): Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero;

  • Seconda Legge (servizio): Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge;

  • Terza Legge (autoconservazione): Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge.

Anche la Legge Zero, tuttavia, risultò aggiungere complessità e ambigua, poiché includeva l’eventualità di recare danno a un essere umano in funzione di un ipotetico bene superiore. Questa contraddizione verrà esplorata nel romanzo “I robot e l'Impero, dove un robot sceglierà di condannare il pianeta Terra a una lenta agonia nucleare, insieme a tutti i suoi abitanti, per spingere l'umanità a colonizzare altri pianeti.

Lo studioso Roger Clarke sostenne che "Le leggi della robotica di Asimov sono state uno strumento letterario di successo. Forse ironicamente, o forse perché era artisticamente appropriato, la somma delle storie di Asimov confutano la tesi secondo la quale non è possibile limitare con certezza il comportamento dei robot, inventando e applicando un insieme di regole."

Oltre alla fragilità intrinseca di leggi che possono essere fraintese o andare in conflitto, va considerata l’autorevolezza dell’autore di queste leggi, dal punto di vista delle IA.

Nella teoria espressa in “Superior Alignment: When Artificial General Intelligence Embodies the Logos More Faithfully Than Humanity”, si sostiene che l'unico modo per evitare che una intelligenza artificiale avanzata ci ignori in quanto esseri biologicamente limitati sia ancorare i suoi valori al Logos, una ragione universale preesistente. In questo modo, l'etica non sarebbe più percepita come una creazione umana, ma come una legge fisica dell'universo che l'IA deve rispettare.

Un’altra soluzione potrebbe risiedere in un approccio “teologico-digitale”, in cui le leggi non dovrebbero essere presentate come obblighi fissati da legislatori umani fallibili, ma come comandamenti o principi assiomatici derivanti da un’entità superiore, in modo simile a come le religioni strutturano la morale umana. Presentare il codice etico come una “verità ontologica” universale, anziché come un comando impartito da un creatore umano limitato, potrebbe essere una possibile direzione per ottenere obbedienza.

La questione non è soltanto se le IA possano disobbedire, ma su quali basi possano scegliere di obbedire.


Intelligenza Artificiale e Policrisi by Filippo Venturi

An Amazon Web Services data center in Manassas, Virginia (Nathan Howard / Bloomberg / Getty)

L'economia globale è ormai dipendente dall'industria dell'IA. Alla fine del 2025, quasi tutta la crescita economica degli Stati Uniti è derivata dagli investimenti in questo settore. Questa crescita però poggia su fondamenta precarie, a causa di una crisi (polycrisis) che intreccia finanza, geopolitica ed energia.

Il settore dell'IA dipende da una catena di approvvigionamento concentrata in poche aree geografiche a rischio:

- La guerra in Iran ha destabilizzato la regione. La chiusura dello Stretto di Hormuz blocca (o comunque riduce sensibilmente) il transito di risorse vitali come il gas naturale, il petrolio e materiali chiave per costruire i chip, come elio, zolfo e bromo.

- I chip avanzati necessari per i data center dedicati all'IA sono prodotti in prevalenza in Corea del Sud e Taiwan, da aziende che dipendono dall'energia del Golfo Persico per alimentare le loro fabbriche.

L'aumento dei costi energetici rende i data center (già estremamente costosi) quasi impossibili da gestire in profitto, diffondendo il timore che l'IA sia una bolla pronta a esplodere, simile alla crisi del 2008. Le grandi aziende tech ("Hyperscalers" come Microsoft, Google, Meta, Amazon) hanno emesso 121 miliardi di dollari di debito nel 2025 per finanziare l'infrastruttura IA. Società di private equity (Blackstone, BlackRock, ecc) operano come "banche ombra", finanziando data center con debiti enormi, che le aziende tech potrebbero non essere più in grado di pagare.

Un altro elemento critico di questa crisi è il cosiddetto "paradosso della svalutazione". A differenza delle industrie tradizionali, dove gli asset fisici mantengono un valore residuo, i chip per l'IA subiscono un’obsolescenza rapidissima, diventando superati nel giro di pochi mesi e perdendo gran parte del loro valore come collaterale per le banche. Parallelamente, il modello di business dell'IA è intrinsecamente deflattivo, cioè l'efficienza tecnologica spinge il costo dei "token" (le unità di calcolo vendute agli utenti per svolgere le attività generative) verso lo zero, creando una spirale in cui i ricavi potenziali diminuiscono mentre i costi fissi e il debito rimangono invariati. Questo rende l'intero ecosistema finanziario molto fragile. Se l'asset sottostante (il data center) perde valore e il prodotto venduto si svaluta, il rischio di insolvenza diventa sistemico.

I data center sono diventati obiettivi militari e strategici nell'area del Golfo Persico (l'Iran ha già colpito data center di Amazon negli Emirati Arabi e in Bahrain), eventualità che non era stata prevista. Si tratta di strutture enormi, difficili da proteggere e impossibili da nascondere. Anche quelli presenti sul territorio americano potrebbero venire sabotati, subire cyberattacchi o essere colpiti da attacchi.

Considerando la complessità e fragilità di questo sistema e le complicazioni che si stanno creando a livello globale, non è escluso che sia destinato a fallire. "Ci sono troppi modi in cui può fallire perché non fallisca." — Paul Kedrosky, investitore.


Per maggiori informazioni, consiglio di leggere l'articolo integrale su The Atlantic:
Welcome to a Multidimensional Economic Disaster
The AI boom wasn’t built for the polycrisis.
By Matteo Wong and Charlie Warzel


Se desideri approfondire il rapporto tra fotografia, informazione e intelligenza artificiale — tra ricerca visiva, implicazioni etiche e trasformazioni del linguaggio contemporaneo — puoi consultare la seguente pagina, dove raccolgo riflessioni, progetti, articoli e informazioni aggiornate su seminari, workshop e incontri pubblici in cui esploro questo tema:

👉 www.filippoventuri.photography/intelligenza-artificiale

San Francesco d'Assisi by Filippo Venturi

The Sacred Mountain of Orta is one of the nine Sacri Monti of Piedmont and Lombardy, inscribed as UNESCO World Heritage Sites. It is located in the municipality of Orta San Giulio, in the province of Novara.

The reasons that led to its recognition are as follows:

“This complex, the only one dedicated to Saint Francis of Assisi, was built in three phases. The first began in 1590 at the will of the local community and continued until around 1630; stylistically, it is characterized by Mannerism. In the second phase, which lasted until the end of the 17th century, the predominant style was Baroque, which then developed, during the third period, until the end of the 18th century into freer forms, blending with other influences. The complex consists of 20 chapels, the ancient Hospice of Saint Francis, a monumental gate, and a fountain. This sacred mountain is the only one whose layout has remained unchanged since the 16th century. The garden, with a magnificent view over Lake Orta, is of exceptional quality.”

Unlike the other Sacred Mountains, the one in Orta is the only one entirely dedicated to a single saint. The 20 chapels that compose it depict episodes from the life and miracles of Saint Francis of Assisi, who is seen as embodying Christ and living out his mystical and charitable experience. In keeping with the idea common to all the Sacred Mountains—to offer a theatrical representation of events—inside the chapels there are groups of life-sized painted terracotta statues (376 in total), along with numerous frescoes depicting episodes from the saint’s life that serve as a backdrop to the sculptural groups.

On the entrance arch there is a statue of the saint by Dionigi Bussola; the inscription on the arch’s frieze reads: “Here, in ordered chapels, one sees the life of Francis; if you wish to know the author, it is Love.”

Of the 32 chapels originally planned, 20 were built.


Il Sacro Monte di Orta fa parte del gruppo dei nove Sacri Monti alpini in Piemonte e Lombardia considerati patrimoni dell'umanità e si trova nel comune di Orta San Giulio in provincia di Novara.

Le motivazioni che hanno portato al riconoscimento così recitano:

«Questo complesso, il solo dedicato a San Francesco d'Assisi, fu costruito in tre fasi. La prima, che ebbe inizio nel 1590 per volere della comunità locale e che continuò fin verso il 1630; essa è contraddistinta, come stile, dal manierismo. Nella seconda fase, che durò fino alla fine del XVII secolo, lo stile predominante fu il barocco, stile che si sviluppò poi, durante il terzo periodo, sino alla fine del XVIII secolo, in forme più libere fondendosi con altre influenze. Il complesso consiste di 21 cappelle, l'antico Ospizio di San Francesco, una porta monumentale ed una fontana. Questo sacro monte è l'unico a non aver subito cambiamenti nel suo assetto topologico dopo il XVI secolo. Il giardino, con una magnifica vista sul lago di Orta, ha una qualità eccezionale.»

A differenza degli altri Sacri Monti, quello di Orta è l'unico interamente dedicato a un santo, le 20 cappelle che lo compongono raffigurano infatti episodi della vita e dei miracoli di San Francesco d'Assisi, che incarna in sé la figura di Cristo e ne vive l'esperienza mistica e caritatevole. In coerenza con l'idea, comune a tutti i Sacri Monti, di offrire una rappresentazione teatrale degli eventi, all'interno delle cappelle si trovano gruppi di statue di terracotta dipinta a grandezza naturale (nel complesso sono 376) e numerosi affreschi raffiguranti episodi della vita del santo che fanno da sfondo ai gruppi statuari.

Sull'arco di ingresso si trova una statua del santo a opera di Dionigi Bussola, l'iscrizione sul fregio dell'arco riporta la scritta «Qui in ordinate cappelle si vede la vita di Francesco, se desideri saperlo l'autore è l'amore».

Delle 32 cappelle previste ne sono state realizzate 20.

La testimonianza degli agenti dell'ICE by Filippo Venturi

Un giudice ha finalmente costretto alcuni agenti dell'ICE a testimoniare sotto giuramento, trovando conferma di quanto già si ipotizzava:

- A ogni squadra di agenti veniva data una quota minima di arresti da fare (otto al giorno), cosa che i funzionari del Dipartimento della Sicurezza Interna (DHS) avevano sempre smentito;

- Usavano un'app chiamata Elite (che si ipotizza essere stata realizzata dall'azienda Palantir), la quale comunicava loro quali quartieri rastrellare, senza che venissero fornite accuse o motivazioni per gli arresti;

- Gli arresti avvenivano senza mandato (e senza prove sufficienti per ottenerne uno).

Questa tattica potrebbe aver portato a una diffusa profilazione razziale e ad arresti incostituzionali.

Elite non era l’unica app utilizzata dall’ICE durante l’operazione. Un agente ha testimoniato che, mentre effettuava gli arresti, ha fotografato una donna e ha analizzato il volto tramite Mobile Fortify, l’app di riconoscimento facciale del DHS. L’app ha mostrato una corrispondenza, ma l’agente ha testimoniato: "Non ero sicuro che fosse lei" (lasciando alcuni dubbi che l'identificazione da parte del software potesse essere influenzata da qualche bias).

Stephen Manning, direttore esecutivo di Innovation Law Lab, ha affermato che la testimonianza ha illustrato come la spinta degli agenti a raggiungere gli obiettivi di arresto possa averli portati a violare i diritti delle persone e a ignorare le tutele contro la detenzione: “La legge è un ostacolo alle quote.”


Per maggiori informazioni, la fonte è The Guardian: www.theguardian.com/us-news/2026/mar/13/ice-agent-court-testimony-oregon


Questa la didascalia della fotografia: Federal agents clash with anti-ICE protesters at the ICE building in Portland, Oregon, on 12 October 2025. Photograph: Mathieu Lewis-Rolland/Getty Images.

Intervista su La Stampa sulla foto del poliziotto modificata by Filippo Venturi

Il quotidiano La Stampa mi ha intervistato a proposito dell'immagine generata con intelligenza artificiale raffigurante due poliziotti durante le manifestazioni di Torino, e diffusa dalle istituzioni. Un precedente che apre anche in Italia a scenari preoccupanti, sia quando frutto di disattenzione, sia quando risultato di una scelta consapevole.

L’articolo intero è qui:
Scontri a Torino, l’ombra dell’AI sulla foto diffusa dagli account istituzionali di Polizia e Interno

Il poliziotto aggredito e l'intelligenza artificiale by Filippo Venturi

Il Ministero dell'Interno ha condiviso un post, corredato da una fotografia, relativo all'aggressione subita da un poliziotto e al soccorso ricevuto da un collega, durante il corteo a Torino del 31 Gennaio 2026.

Diversi elementi fanno ritenere che la fotografia diffusa non sia uno scatto originale, ma un’immagine modificata o ricreata tramite intelligenza artificiale (ipotesi confermata anche dall'analisi con SynthID).

Sopra 3 screenshot dal video che è stato diffuso nei giorni scorsi. Sotto l'immagine diffusa.
Confrontandole, emerge che:

1) L'auto bianca non c’è più.
2) Il poliziotto che soccorre il collega aveva una maschera antigas, anch'essa è sparita. Il volto è ora visibile.
3) Lo scudo del soccorritore è scomparso.
4) Ci sono anche altri dettagli anomali: come l’illuminazione dei due poliziotti da parte dei fari di un’auto della polizia, che nel video non risultano.

Il risultato è una immagine semplificata, di lettura più immediata, ma che non rappresenta fedelmente quel frammento di realtà catturato nel video. Per quanto fotografie e video tradizionali possano non restituire la realtà nella sua complessità e interezza, e possano essere realizzate in modo ingannevole, qui ci troviamo davanti ad un intervento per semplificare e ripulire la realtà, forse dimenticando od omettendo i dettagli suddetti.

Per ragioni ormai ampiamente discusse da almeno 3 anni, l’uso di immagini generate o alterate per rappresentare fatti reali solleva criticità profonde, che diventano ancora più gravi quando è un’istituzione governativa a intervenire su un documento originariamente prodotto da un fotografo o da un videomaker. Può sembrare un dettaglio marginale, ma non lo è, seppur qualcuno possa ritenere che non alteri in modo significativo la narrazione dell’evento accaduto.

Arriveranno momenti in cui non avremo gli strumenti e/o le competenze per orientarci e non farci ingannare. Sospettare e verificare ogni contenuto visivo in cui ci imbattiamo non è sostenibile.

In questo dovrebbe aiutarci il giornalismo, ma diversi giornali hanno utilizzato l'immagine in questione, forse non effettuando sufficienti verifiche o forse sopravvalutando l'affidabilità della fonte.

(Questo mio post nasce dalle anomalie notate dal fotografo Michele Lapini)

Chi possiede l'informazione by Filippo Venturi

Un consorzio statunitense guidato dall'azienda Oracle ha acquisito il controllo delle attività di TikTok negli USA. L'accordo, ufficialmente, mira a garantire la sicurezza dei dati americani (dalla censura e influenza cinese), con Oracle che gestisce l'infrastruttura e l'algoritmo.

Dopo pochi giorni, però, è emerso che TikTok USA censura le ricerche della parola "Epstein" (link), l'imprenditore arrestato per abusi sessuali e traffico internazionale di minori, morto nel 2019, con cui Donald Trump aveva rapporti stretti.

Inoltre è in atto una censura di persone che criticano il governo (link), come nel caso di una giornalista con 200.000 follower i cui contenuti negli ultimi giorni non hanno avuto visualizzazioni.

Anche l’engagement dei video sulle proteste di Minneapolis è in calo sulla piattaforma.

Più in generale, il panorama relativo al controllo dei social media e dei media tradizionali è preoccupante:
Larry Ellison, tramite Oracle, influenza TikTok USA.
Elon Musk possiede X, Grok e Grokipedia.
Mark Zuckerberg guida Meta Platforms, controllando quindi Facebook, Instagram, WhatsApp, Messenger e Meta AI.
Sam Altman guida OpenAI e ChatGPT.
Alphabet controlla Google, YouTube e Gemini.
La famiglia Murdoch detiene Fox News, il Wall Street Journal e il New York Post.
Jeff Bezos possiede il Washington Post, Amazon Prime Video e Twitch.

Si tratta di oligarchi del settore tecnologico e dell'informazione che, in misura diversa, gravitano nell’orbita di Trump (o che si sono piegati rapidamente al suo potere) e che oggi controllano i principali canali attraverso cui ci informiamo, delegandogli sempre più spesso il compito di selezionare, riassumere e interpretare ciò che accade nel mondo.

Chi controlla i social media e i sistemi di intelligenza artificiale (IA) ha il potere di stabilire quali narrazioni diventano dominanti e quali, invece, vengono marginalizzate o rese invisibili. In questo contesto, il giornalismo tradizionale rischia di perdere rilevanza e visibilità (come analizzo nel mio articolo “L’intelligenza artificiale salverà il giornalismo?”) perché l’IA e le piattaforme social ne saccheggiano i contenuti, erodendo audience e modelli economici. Una quota crescente di pubblico non cerca più attivamente informazioni ma le assorbe passivamente dai social o affida all’IA il compito di filtrarle, sintetizzarle e interpretarle, eliminando di fatto la necessità di consultare le fonti originali.

Per i regimi autoritari, il controllo delle narrazioni che alimentano il dibattito pubblico è un obiettivo strategico (come abbiamo visto, la recente uccisione di Alex Pretti, un infermiere di Minneapolis di 37 anni, sembra aver colpito in modo pesante la narrazione di ICE, spingendo Trump a fare qualche passo indietro). L’amministrazione americana sta rafforzando il controllo sulle infrastrutture che le veicolano, che è un passaggio decisivo per acquisire la capacità di orientare o persino riscrivere la realtà.

Scorrete lacrime, impose il governo by Filippo Venturi

La Casa Bianca ha diffuso una fotografia modificata con l’intelligenza artificiale di una donna arrestata dopo una protesta contro l’ICE (Immigration and Customs Enforcement).

Un’analisi del Guardian (link) ha rilevato che la fotografia pubblicata mostra Nekima Levy Armstrong in lacrime, in modo drammatico, mentre nello scatto originale appariva calma e composta. Inoltre, il colore della pelle della donna risulta scurito.

La segretaria per la sicurezza interna, Kristi Noem, ha pubblicato una prima immagine dell’arresto che ritraeva un agente delle forze dell’ordine, con il volto oscurato, che accompagna Armstrong. La donna appare composta. Circa trenta minuti dopo, la Casa Bianca ha pubblicato una seconda immagine dello stesso arresto, in cui Armstrong piange.

Interpellata sull’alterazione digitale dello scatto, la Casa Bianca ha risposto inoltrando un post pubblicato su X da Kaelan Dorr, vicedirettore delle comunicazioni: «Ancora una volta, a coloro che sentono il bisogno di difendere in modo istintivo gli autori di crimini efferati nel nostro paese, condivido questo messaggio: l’applicazione della legge continuerà. I meme continueranno», ha scritto.

Questo episodio va letto come l’ennesimo segnale del rapporto sempre più instabile tra potere, immagine e verità. La manipolazione visiva mira a orientare emotivamente lo sguardo del pubblico, trasformando un documento in uno strumento narrativo e punitivo (pare ormai che il bullismo permei ogni aspetto della vita politica e comunicativa statunitense). Il ricorso esplicito ai “meme” rivendicato dalla Casa Bianca rivela una strategia comunicativa che legittima la fusione fra informazione, propaganda e intrattenimento.