News

L'Abuso by Filippo Venturi

Sulla copertina dell'ultimo numero del settimanale L'Espresso c'è una notevole fotografia del fotogiornalista Pietro Masturzo, che sintetizza in un solo gesto un atteggiamento, diffuso e noto, di sfida e sopraffazione da parte dei coloni israeliani.

L'autore racconta di aver "scattato questa foto nel villaggio palestinese di Idhna (a ovest di Hebron) lo scorso 12 ottobre [2025], nel primo giorno di raccolta delle olive. Doveva essere un giorno di festa. Oltre ai proprietari del terreno e alle diverse famiglie di palestinesi venuti ad aiutare nella raccolta, sul luogo erano presenti anche le autorità palestinesi locali, un gruppo di attivisti internazionali e diversi giornalisti palestinesi e internazionali, compreso il New York Times.

Proprio all’inizio della raccolta è sopraggiunto un gruppo di coloni israeliani armati (alcuni dei quali indossavano l’uniforme dell’esercito, come il colono in questione) e accompagnati da veri soldati (con il volto coperto), che hanno impedito ai palestinesi di raccogliere le proprie olive. L’espressione del colono ritratto e la conseguenza del gesto ripetuto dallo stesso, mimando il verso che fa il pastore per radunare il proprio gregge, rivolgendosi ai palestinesi come alle proprie bestie".

Sul sito del settimanale si trova la seguente descrizione:

"Un uomo con kippah e peyot, i riccioli degli ebrei ortodossi, inquadra con il cellulare una donna che indossa un hijab in tessuto fantasia. Lui è un israeliano armato, lei una ragazza palestinese. Ma più che lo scontro di religioni o di civiltà, a colpire chi guarda “L’abuso” denunciato dalla copertina del nuovo numero de L’Espresso è la disumanità del ghigno sul volto del colono, mentre inquadra soddisfatto con il suo cellulare la ragazza araba dal volto addolorato, una delle vittime delle scorrerie sempre più frequenti in Cisgiordania.

È un’immagine dei soprusi quotidiani che subisce chi ha avuto la sfortuna di nascere nei territori che i coloni pretendono di occupare per realizzare il sogno del “Grande Israele”: un progetto che rimanda alla Bibbia e calpesta il diritto internazionale, come racconta Daniele Mastrogiacomo nell’articolo di copertina. E che viene costruito grazie a crimini continui dai coloni con il supporto dell’esercito israeliano, e senza alcuna concreta condanna da parte della comunità internazionale: il dolente articolo di Alae Al Said, scandito dal reportage di Pietro Masturzo di cui fa parte la foto di copertina, racconta una campagna di pulizia etnica che fa seguito al genocidio di Gaza."

Essendo una fotografia potente, ha ovviamente generato molte reazioni, anche contrastanti. C’è chi vi ha riconosciuto una prova visiva, finalmente inequivocabile, di abusi ben noti. Altri, invece, hanno negato quanto rappresentato, incapaci di accettare immagini che mettono in crisi il proprio sistema di convinzioni. Alcuni sono arrivati persino a insinuare che si tratti di un contenuto generato dall’intelligenza artificiale.

Quest’ultima accusa riporta al centro una questione ormai cruciale: Come verifichiamo oggi le immagini?, questione che un paio di anni fa avevo affrontato nell'articolo "La foto di Donald Trump peacemaker". Provando a ripercorrere i 4 step che avevo individuato, si può notare che:

1) L’affidabilità della fonte

Non ci sono motivi solidi per dubitare né del settimanale né del fotografo. L’Espresso ha una linea editoriale riconoscibile, discutibile quanto si vuole, ma questo non intacca la sua struttura professionale. Ancora meno dubbi ho su Pietro Masturzo, che non conosco personalmente, ma che conosco come professionista la cui carriera ne conferma il talento e la professionalità.

2) L’ambiguità visiva

È comprensibile che qualcuno possa percepire elementi ambigui (i denti, le dita, ecc), ma questa reazione dice forse più di noi che dell’immagine. Siamo entrati in una fase in cui tutto viene messo in discussione a priori, soprattutto quando ciò che vediamo contraddice le nostre convinzioni.

3) Software di riconoscimento

Alcuni utenti che hanno messo in dubbio la fotografia hanno trovato parziali conferme da parte di alcuni dei software che dovrebbero riconoscere se un contenuto è stato generato da una intelligenza artificiale. Si è ormai visto, però, che questi software non sono sempre affidabili e quindi, più che un aiuto, contribuiscono ad alimentare la disinformazione. Dietro allo sviluppo di questi software di riconoscimento non ci sono investimenti paragonabili (e nemmeno la volontà) a quelli per lo sviluppo dei software generativi. In mancanza di una regolamentazione che obblighi a garantire una certa trasparenza da parte delle Big Tech, possiamo solo sperare che si autoregolamentino circa le questioni di sicurezza (vedi questione Mythos Claude di Anthropic, di cui parlerò in un altro post).

4) Prove di supporto

Un'ulteriore prova che la fotografia è autentica la si ha grazie alle prove accessorie, di cui ormai non si può più fare a meno (io, ad esempio, quando fotografo situazioni delicate uso sempre una action cam sulla fotocamera o sul casco per documentare incontri e situazioni). Sono state condivise (e sono sul settimanale) altre foto che compongono il reportage di Masturzo, il quale sui social ha condiviso anche un video girato da alcuni suoi colleghi (Samuele Pellecchia e Francesco Giusti) che conferma l'accaduto. Oggi avere questo tipo di materiale, che non solo documenta ma conferma anche l'autenticità delle testimonianze visive raccolte, è forse l'unico modo per tutelarsi. Già da tempo, però, non è complesso generare immagini realistiche e video che rafforzino la credibilità di tali immagini.

Stiamo vivendo una fase in cui il nostro rapporto con le immagini è in trasformazione, così come quello con l’informazione e tutto ciò che troviamo online (ma questa predisposizione ci modificherà anche offline). In questo contesto, diventa ancora più centrale il valore dell’autorevolezza delle fonti e quella di chi produce le immagini. Il lavoro di Pietro Masturzo, così come la responsabilità editoriale de L’Espresso, sono parte integrante del processo di costruzione della narrazione della realtà. A questo si aggiunge oggi la necessità delle prove accessorie che non rafforzano soltanto il racconto, ma ne costituiscono una vera e propria infrastruttura di credibilità.

In ultima analisi, dobbiamo conservare una certa lucidità e onestà intellettuale nel credere a fonti e autori, anche quando mettono in discussione le nostre convinzioni.


Chi possiede l'informazione by Filippo Venturi

Un consorzio statunitense guidato dall'azienda Oracle ha acquisito il controllo delle attività di TikTok negli USA. L'accordo, ufficialmente, mira a garantire la sicurezza dei dati americani (dalla censura e influenza cinese), con Oracle che gestisce l'infrastruttura e l'algoritmo.

Dopo pochi giorni, però, è emerso che TikTok USA censura le ricerche della parola "Epstein" (link), l'imprenditore arrestato per abusi sessuali e traffico internazionale di minori, morto nel 2019, con cui Donald Trump aveva rapporti stretti.

Inoltre è in atto una censura di persone che criticano il governo (link), come nel caso di una giornalista con 200.000 follower i cui contenuti negli ultimi giorni non hanno avuto visualizzazioni.

Anche l’engagement dei video sulle proteste di Minneapolis è in calo sulla piattaforma.

Più in generale, il panorama relativo al controllo dei social media e dei media tradizionali è preoccupante:
Larry Ellison, tramite Oracle, influenza TikTok USA.
Elon Musk possiede X, Grok e Grokipedia.
Mark Zuckerberg guida Meta Platforms, controllando quindi Facebook, Instagram, WhatsApp, Messenger e Meta AI.
Sam Altman guida OpenAI e ChatGPT.
Alphabet controlla Google, YouTube e Gemini.
La famiglia Murdoch detiene Fox News, il Wall Street Journal e il New York Post.
Jeff Bezos possiede il Washington Post, Amazon Prime Video e Twitch.

Si tratta di oligarchi del settore tecnologico e dell'informazione che, in misura diversa, gravitano nell’orbita di Trump (o che si sono piegati rapidamente al suo potere) e che oggi controllano i principali canali attraverso cui ci informiamo, delegandogli sempre più spesso il compito di selezionare, riassumere e interpretare ciò che accade nel mondo.

Chi controlla i social media e i sistemi di intelligenza artificiale (IA) ha il potere di stabilire quali narrazioni diventano dominanti e quali, invece, vengono marginalizzate o rese invisibili. In questo contesto, il giornalismo tradizionale rischia di perdere rilevanza e visibilità (come analizzo nel mio articolo “L’intelligenza artificiale salverà il giornalismo?”) perché l’IA e le piattaforme social ne saccheggiano i contenuti, erodendo audience e modelli economici. Una quota crescente di pubblico non cerca più attivamente informazioni ma le assorbe passivamente dai social o affida all’IA il compito di filtrarle, sintetizzarle e interpretarle, eliminando di fatto la necessità di consultare le fonti originali.

Per i regimi autoritari, il controllo delle narrazioni che alimentano il dibattito pubblico è un obiettivo strategico (come abbiamo visto, la recente uccisione di Alex Pretti, un infermiere di Minneapolis di 37 anni, sembra aver colpito in modo pesante la narrazione di ICE, spingendo Trump a fare qualche passo indietro). L’amministrazione americana sta rafforzando il controllo sulle infrastrutture che le veicolano, che è un passaggio decisivo per acquisire la capacità di orientare o persino riscrivere la realtà.

Tower of Babel by Filippo Venturi

(english below)

Forse non sarà necessario attendere che le immagini e i video generati con l'intelligenza artificiale sommergano le fotografie e i video di documentazione, per alterare in modo irreparabile la narrazione/rappresentazione della realtà.

Già oggi le persone sono estremamente polarizzate e ogni elemento o notizia che ricevono viene digerita, modellata e subito sputata fuori per combaciare con la propria visione delle cose.

Prendiamo l'attentato al Crocus City Hall di Mosca.
Nell'istante in cui è uscita la notizia — quando ancora l'attentato era in corso e non si avevano abbastanza informazioni per comprendere cosa stava succedendo — chi già aveva una certa posizione ha stabilito che dietro c'erano gli USA e/o l'Ucraina.
Quando, poi, è uscita la rivendicazione dell'ISIS, ha stabilito che il mandante erano gli USA e/o l'Ucraina.
Quando i terroristi sono stati arrestati a poca distanza dal confine ucraino e bielorusso, ha deciso che stavano fuggendo in Ucraina.
E quando Lukashenko ha detto che hanno tentato di entrare in Bielorussia, ha pensato che avessero sbagliato strada.

Chi invece aveva la posizione opposta, ha creduto alla rivendicazione dell'ISIS e all'estraneità degli ucraini.
Ha bollato i sospetti russi verso gli ucraini come propaganda finalizzata ad accrescere l'odio dei russi verso gli ucraini.
Ha pensato che i terroristi stessero fuggendo in Bielorussia perché il confine ucraino è pieno di militari russi che lo sorvegliano.
E così via.

E per fare questo non sono serviti fotografie o video generati con l'IA.

A volte diventiamo le cose che sosteniamo pubblicamente, sui social network, e anche se, ad un certo punto, dovesse sfiorarci il dubbio, continuiamo a difenderle perché ormai la strada è stata tracciata.

Il "forse", il "non lo so" e il "mi sono sbagliato" sono diventati sintomi di debolezza.

Questo approccio così ottuso — che esclude il dubbio perché richiederebbe una sospensione sull'interpretazione dei fatti e della realtà e quindi il non poter prendere posizione sui social network, di fatto scomparendo nel silenzio dei prudenti — si ripete ogni giorno per decine di notizie e non può che portare ad una sorta di torre di Babele in cui nessuno capisce più l'altro se non ha una visione del mondo che combacia completamente.


Perhaps it will not be necessary to wait for artificial intelligence-generated images and videos to overwhelm photographs and documentation videos to irreparably alter the narrative/presentation of reality.

Already today, people are extremely polarised and every item or piece of news they receive is digested, shaped and immediately spat out to fit their own view of things.

Take for example the attack on Crocus City Hall in Moscow.
The instant the news came out — when the bombing was still in progress and not enough information was available to understand what was going on — those who already had a certain position established that it was the work of the US and/or Ukraine.
When, then, the ISIS claim came out, they established that the US and/or Ukraine were behind it.
When the terrorists were arrested a short distance from the Ukrainian and Belarusian borders, they decided they were fleeing to Ukraine.
And when Lukashenko said they tried to enter Belarus, they thought the terrorists had taken a wrong turn.

Those who took the opposite position believed the ISIS claim and the extraneousness of the Ukrainians.
They branded Russian suspicions of Ukrainians as propaganda aimed at increasing Russian hatred of Ukrainians.
They thought the terrorists were fleeing to Belarus because the Ukrainian border is full of Russian soldiers guarding it.
And so on.

And to do this we did not need AI-generated photographs and videos.

Sometimes we become the things that we publicly support, on social networks, and even if, at some point, doubt should touch us, we continue to defend them because by now the path has been traced.

The 'maybe', the 'I don't know' and the 'I was wrong' have become symptoms of weakness.

This obtuse approach — which excludes doubt because it would require suspending the interpretation of facts and reality and therefore not being able to take a position on social networks, in fact disappearing into the silence of the doubters — is repeated every day for dozens of news items and can only lead to a sort of tower of Babel in which no one understands the other anymore if they do not have a completely matching worldview.