USA

Interstizi di coscienza by Filippo Venturi

Il fatto che siano uscite le intercettazioni di Witkoff con Yuri Ushakov, dimostra che anche in una Amministrazione come quella americana, composta nei suoi vertici interamente da yes-man, qualcuno che è schifato c’è sempre.

Mi vengono in mente Fini e Alfano, che a loro tempo misero il bastone fra le ruote a Berlusconi, così come John Bolton con lo stesso Trump (al primo mandato) o Geoffrey Howe con Margaret Thatcher.

Pare che qualcuno dell'intelligence americana (vedi articolo del Guardian, “Chi ha leakato la telefonata di Witkoff?”) abbia voluto portare alla luce le porcherie di Trump e dei suoi uomini di fiducia nel portare avanti le trattative sull’Ucraina, concedendo tutto ai russi. Vedremo se queste interferenze si ripeteranno in futuro.

Non di rado, queste figure ribelli vengono emarginate e quindi è improbabile che facciano quel che facciano per un proprio tornaconto economico o politico. Evidentemente c'è un limite anche nel mangiare la m3rda.

Sembra che anche nei sistemi più verticali e asserviti, qualche individuo conservi un frammento di coscienza, al punto di spingersi a compiere un gesto di sabotaggio, che incrina l’ordine prestabilito. È come se, dentro ogni struttura di potere, sopravvivesse un interstizio in cui il senso di giustizia può ancora mettere radici.

L’intelligenza artificiale salverà il giornalismo? by Filippo Venturi

L’intelligenza artificiale salverà il giornalismo?

L’intelligenza artificiale sta rivoluzionando il modo in cui cerchiamo, leggiamo e produciamo notizie. Una trasformazione che potrebbe rappresentare un’opportunità, oppure infliggere un nuovo colpo al giornalismo.

Negli ultimi giorni si sta discutendo molto delle nuove funzionalità introdotte dai motori di ricerca, che sostituiscono il tradizionale elenco di link con sintesi generate dall’intelligenza artificiale. Google, leader del settore da anni, ha introdotto le cosiddette AI Overview (o riassunti automatizzati) che offrono risposte già strutturate e spesso sufficientemente complete da ridurre drasticamente la necessità per l’utente di visitare le fonti originali (i siti web da cui l’IA ha preso le informazioni). Di conseguenza, molti di questi siti web stanno registrando un significativo calo di traffico organico, sollevando preoccupazioni sul futuro dell’ecosistema dell’informazione online e sulla redistribuzione del valore tra piattaforme e produttori di contenuti.

Mi è capitato di leggere diversi articoli, qualcuno anche molto ottimista, che ipotizza che l’IA stia offrendo una grande opportunità nel settore delle news. Io ci andrei più cauto.

Uno dei punti a favore sarebbe che i siti web non dovrebbero più pensare all’ottimizzazione della SEO (Search Engine Optimization), che li spingeva a scrivere titoli e contenuti privilegiando certe parole chiave che ne aumentavano la visibilità sui motori di ricerca, a discapito dell’autorevolezza e della credibilità che, invece, diventerebbero prioritari in questo nuovo funzionamento di Google e affini.

In realtà non ci sono prove che supportino questa teoria ma, anche prendendola per buona, così come nel tempo sono cambiati gli algoritmi dei motori di ricerca, possono cambiare i criteri e le priorità assegnati alle intelligenze artificiali. E questo in base alla volontà di multinazionali americane o cinesi (i paesi che più stanno investendo nel settore), il cui fine può divergere da quello di un servizio pubblico trasparente e onesto (vedi Grok e Grokipedia di Elon Musk, fortemente personalizzate dal loro creatore a discapito dell’affidabilità nel fornire informazioni).

Facendo un passo indietro, inoltre, mi sembra che il problema di questi tempi dei titoli usati da diversi giornali e riviste non sia tanto la banalizzazione dovuta alla SEO ma il clickbaiting, cioè la scelta di titoli ambigui che possono provocare reazioni più forti in parte dei lettori, a cui però non corrispondeva il contenuto effettivo dell’articolo. In certi casi questi titoli corrispondono a vera e propria disinformazione.

C’è poi un elefante nella stanza che alcuni si ostinano a fingere di non vedere. Questi motori di ricerca stanno usando i contenuti prodotti da giornali, riviste e altri media senza un riconoscimento economico per le fonti. Se prima Google aveva creato un sistema in cui riconosceva i click ottenuti dal tuo sito, oggi che questi click vengono meno non è prevista alcuna monetizzazione, specie se l’utente si limita a consultare la risposta generata dall’IA.

Quei giornali che invece si sostengono con gli abbonamenti online funzionano proprio perché i loro contenuti (in teoria di qualità superiore) non sono accessibili a chiunque. Per logica, questi contenuti di alto livello non saranno a disposizione delle IA (a meno di accordi specifici) e quindi già qui potrebbe scricchiolare il discorso iniziale del premiare la qualità. Inoltre i giornali gratuiti, perdendo i click e quindi gli introiti che ne conseguivano, saranno più difficilmente sostenibili. Il rapido crollo dei click sui siti indicizzati da Google sta già avvenendo e si possono trovare diversi articoli sul tema (ad esempio “Google users are less likely to click on links when an AI summary appears in the results” del Pew Research Center).

I software generativi, e quindi anche i nuovi motori di ricerca, in linea teorica, hanno un grande bisogno di fonti e contenuti di alta qualità, ma i giornali più importanti al mondo si sostengono con gli abbonamenti e non hanno interesse a perdere i lettori fidelizzati per diventare fornitori di informazioni di motori di ricerca basati su IA, che non portano traffico nel sito, perdendo così anche la possibilità che gli utenti siano attirati a leggere altri tuoi articoli, soffermandosi nel sito, magari clickando pubblicità e così via. Inoltre, se questi giornali decidessero di stringere accordi per diventare fornitori di contenuti informativi per le intelligenze artificiali, perché un abbonato dovrebbe continuare a pagare invece di consultare quei contenuti gratuitamente?

In altre parole, il sistema che alimentava il giornalismo online, basato sulla visibilità, la pubblicità e/o gli abbonamenti, si sta sgretolando, e non è ancora chiaro quale modello economico possa sostituirlo.

A questo punto il nodo cruciale diventa la definizione delle regole del gioco (la trasparenza del funzionamento, l’attribuzione obbligatoria delle fonti giornalistiche nelle risposte dell’IA, i meccanismi di revenue sharing, la trasparenza sui dati e le fonti con cui viene addestrata l’IA, la responsabilità per gli errori fattuali, la protezione della diversità, ecc) ma, considerando lo sbilanciamento delle forze coinvolte, sarebbe necessario un intervento collettivo, comprendendo anche i governi dei vari paesi, per sciogliere il nodo della proprietà delle informazioni e di come queste vanno remunerate dalle piattaforme di IA che le sfruttano.

Questo però rischia di diventare un desiderio irrealizzabile. Chi potrà alzare la voce con colossi tech che godono dell’appoggio dei leader di USA e Cina e che possono dettare le regole in un mondo in competizione che, per ora, non ha interesse a limitare lo sviluppo e il funzionamento dell’IA per non perdere la corsa internazionale che si sta svolgendo. Un intervento del genere sembra, allo stato attuale, fuori portata.

Nei prossimi mesi le visite ai siti e gli introiti di chi produce contenuti online continueranno a diminuire e questi potrebbero non sopravvivere abbastanza a lungo per vedere compiersi una lunga, complessa e non scontata trattativa dignitosa con le Big Tech.

Se poi le Big Tech decidessero di stringere accordi economici soltanto con alcuni produttori di notizie, cosa ne sarà della pluralità e delle piccole realtà?

Un esempio emblematico di questa dinamica è rappresentato dagli accordi di licenza stipulati tra OpenAI e il gruppo tedesco Axel Springer (editore di Politico, Bild e Die Welt) annunciati alla fine del 2023. Si tratta di uno dei primi esperimenti concreti di revenue sharing tra un colosso dell’intelligenza artificiale e un grande gruppo editoriale. In pratica OpenAI può utilizzare i contenuti giornalistici di Springer per addestrare e alimentare i propri modelli linguistici, citandone le fonti e riconoscendo un compenso economico.

Questo, tuttavia, non sembra essere un modello facilmente replicabile. Al contrario, accentua la disuguaglianza strutturale nel panorama dell’informazione perché solo pochi grandi editori, con una forza contrattuale sufficiente e un portafoglio di testate di rilevanza internazionale, possono negoziare intese dirette con le piattaforme di IA. Le realtà minori come i quotidiani locali, le riviste indipendenti, i blog d’inchiesta, le piccole testate culturali, ecc rischiano di restare invece escluse da qualunque forma di remunerazione, pur contribuendo in modo significativo al pluralismo informativo e alla qualità del dibattito pubblico.

La soluzione non è evitare il cambiamento, ma evitare che questo avvenga quando in campo ci sono forze palesemente asimmetriche, con quelle più forti che possono deformare il funzionamento del mondo dell'informazione.

Per salvare il giornalismo occorre prima salvare le condizioni che permettono al giornalismo di esistere. Fra queste vi è la giusta retribuzione per chi produce conoscenza.

[l’immagine di apertura proviene dal mio progetto Broken Mirror, realizzato con l’intelligenza artificiale]

La verità secondo Grok by Filippo Venturi

(english below)

"L'obiettivo di Grok e Grokipedia è la verità, tutta la verità e nient'altro che la verità. Non saremo mai perfetti, ma ci impegneremo comunque per raggiungere questo obiettivo." — Elon Musk, 28/10/2025

Quello nell’immagine è il confronto del primo paragrafo di Wikipedia e di Grokipedia su George Floyd.
Notate qualcosa?

Wikipedia (che con tutti i suoi difetti è ancora uno dei prodotti migliori partoriti dal web) adotta un linguaggio neutro e documentato, concentrandosi sul fatto centrale, cioè l’uccisione di un afroamericano da parte di un agente di polizia e sulle conseguenze sociali e politiche dell’evento, come proteste, slogan, riflessioni collettive.

Grokipedia invece cambia la prospettiva. Apre enfatizzando presunti precedenti penali di Floyd, costruendo implicitamente una narrazione giustificazionista e denigratoria, riduce drasticamente il contesto di brutalità poliziesca e discriminazione razziale.

Questo confronto ci ricorda che la verità non è mai un territorio neutro, ma un campo di forze in continua contesa. Capire come un’informazione prende forma è oggi più importante che crederle acriticamente, così come è importante scegliere le fonti giuste. Solo così possiamo restare consapevoli in un mondo dove anche i fatti vengono progettati.

Sotto la traduzione in italiano dei testi di Wikipedia e Grokipedia:

Wikipedia / George Floyd
George Perry Floyd Jr. (14 ottobre 1973 – 25 maggio 2020) era un afroamericano ucciso da un agente di polizia bianco a Minneapolis, Minnesota, durante un arresto avvenuto dopo che un commesso sospettò che Floyd avesse usato una banconota contraffatta da venti dollari, il 25 maggio 2020. Derek Chauvin, uno dei quattro agenti di polizia giunti sul posto, si inginocchiò sul collo e sulla schiena di Floyd per oltre nove minuti, causandone la morte per asfissia. Dopo il suo omicidio, una serie di proteste contro la brutalità della polizia, specialmente verso le persone nere, si diffuse rapidamente in tutto il mondo e negli Stati Uniti. Le sue ultime parole, “Non posso respirare”, divennero uno slogan di battaglia.

Grokipedia / George Floyd
George Perry Floyd Jr. (14 ottobre 1973 – 25 maggio 2020) era un americano con un lungo record criminale, comprese condanne per rapina a mano armata, possesso di droga e furto in Texas dal 1997 al 2007. Il 25 maggio 2020, Floyd fu arrestato a Minneapolis, Minnesota, dopo che un commesso di un negozio riferì che aveva usato una banconota contraffatta da 20 dollari per acquistare sigarette. Durante l’arresto, che coinvolse la resistenza di Floyd, il quale ripeté più volte di non riuscire a respirare anche prima di essere messo a terra, l’agente Derek Chauvin si inginocchiò sul collo di Floyd per 9 minuti e 29 secondi, finché Floyd non divenne incosciente.


"The goal of Grok and Grokipedia.com is the truth, the whole truth and nothing but the truth. We will never be perfect, but we shall nonetheless strive towards that goal." — Elon Musk, October 28, 2025.

The image shows a comparison between the first paragraph of Wikipedia and Grokipedia about George Floyd. Notice anything?

Wikipedia (which, for all its flaws, is still one of the best things ever produced by the web) uses neutral, well-documented language, focusing on the central fact — the killing of an African American man by a police officer — and on the social and political consequences of the event, such as protests, slogans, and collective reflection.

Grokipedia, on the other hand, shifts the perspective. It opens by emphasizing Floyd’s alleged criminal record, implicitly building a narrative that is both justificatory and disparaging, while drastically reducing the broader context of police brutality and racial discrimination.

Ha provato a riavviare? by Filippo Venturi

𝗛𝗮 𝗽𝗿𝗼𝘃𝗮𝘁𝗼 𝗮 𝗿𝗶𝗮𝘃𝘃𝗶𝗮𝗿𝗲?

Ogni volta che Donald Trump entra in contatto con Vladimir Putin, sembra che quest'ultimo riesca magicamente a resettargli il cervello, riportandolo alle impostazioni di fabbrica, cioè con stima e reverenza verso il leader russo.

Basta una telefonata e i toni muscolari del Presidente USA svaniscono, facendo emergere cautela nelle sanzioni ai russi, ottimismo sui colloqui, fiducia nel fatto che “Vladimir vorrà la pace”.

Sembra di vedere un innamorato che non riesce a rassegnarsi ad accettare che il partner lo manipoli, finendo col concedergli troppi perdoni e possibilità.

È sudditanza psicologica? Ammirazione? Strategia negoziale?

Sarei curioso di assistere a quegli incontri e dialoghi per capire se ci sia veramente una maestria dei russi nell'abbindolare regolarmente l'anziano americano. E sono anche curioso di vedere se e come cambierà il discorso dei rifornimenti di missili Tomahawk e dell'appoggio in generale a Kiev.

Scommettere sulla democrazia by Filippo Venturi

Le principali testate internazionali (The Washington Post, The New York Times, Reuters, The Atlantic, CNN, ecc) hanno dichiarato pubblicamente che non firmeranno l'accettazione delle nuove normative previste dal Dipartimento della Difesa statunitense per i cronisti accreditati — che prevedono, fra le altre cose, il divieto di ottenere o sollecitare qualsiasi notizia non esplicitamente autorizzata dal Pentagono — perché costituiscono un’ingerenza sul loro lavoro e una compressione del diritto del pubblico a essere informato. Se non firmeranno, avranno 24 ore di tempo per consegnare le proprie credenziali stampa e lasciare il Dipartimento.

Questa presa di posizione (sacrosanta), unita ad altri episodi recenti — come l'intervista interrotta al Vicepresidente USA, J.D. Vance, nella trasmissione televisiva This Week, di ABC, da parte del giornalista George Stephanopoulos — lascia sperare che finalmente possa esserci una reazione netta da parte dei protagonisti del mondo dell'informazione americana, che fino a oggi non era stata né compatta né costante.

Forse si tratta di una semplice lotta per la sopravvivenza personale oppure, chissà, di una scommessa sul fatto che questa amministrazione non riuscirà a decapitare completamente la democrazia americana.

Tutti gli algoritmi del Presidente by Filippo Venturi

[English below]

Il Senato degli Stati Uniti ha approvato l'1 Luglio 2025 il "One Big Beautiful Bill Act" (OBBBA), cioè la riforma di bilancio voluta da Donald Trump, che prevede miliardi di dollari in investimenti federali destinati all’intelligenza artificiale, alla sicurezza informatica e ai droni.

La riforma è stata approvata senza una parte che era molto preoccupante: una moratoria di 10 anni che avrebbe impedito agli Stati americani l'introduzione di leggi per regolamentare l’uso dell’intelligenza artificiale. La Regolamentazione sarebbe stata possibile solo a livello federale (in pratica, solo a discrezione di Trump). Il Senato l'ha bocciata con 99 voti contrari e 1 solo a favore.

Una moratoria di questo tipo avrebbe garantito ampia libertà d'azione alle Big Tech (come Google, Meta, Amazon, ecc), sollevandole da responsabilità legali a livello statale e rendendo inapplicabili per un decennio molte tutele e protezioni oggi garantite ai cittadini. Leggi come quelle sulla discriminazione algoritmica — come quelle che vietano trattamenti differenziali basati su razza, genere o reddito nei sistemi automatici — non sarebbero state applicabili dagli Stati. Normative statali già esistenti o in discussione — come quelle approvate in California e Colorado in materia di privacy dei consumatori — sarebbero state sospese o rese inefficaci. Gli Stati non avrebbero potuto contrastare attraverso proprie leggi fenomeni critici legati all’uso dell’intelligenza artificiale, come la generazione di deepfake, la profilazione razziale, i bias nei sistemi di selezione del personale o di concessione di prestiti.

I pesi e contrappesi del sistema statunitense appaiono deboli di fronte alla svolta autoritaria impressa da Trump. Congresso e Corte Suprema, nella maggior parte dei casi, non rappresentano un ostacolo significativo, limitandosi spesso a un ruolo passivo o addirittura complice. In questo contesto, l’autonomia legislativa degli Stati appare come un contrappeso vitale, forse l’ultimo baluardo contro una deriva autoritaria che rischia di compromettere la democrazia statunitense.

Ci saranno altri tentativi per dare libertà operativa alle Big Tech, a discapito dei cittadini (americani e non solo).

[Immagine tratta al mio progetto "Broken Mirror"]


On 1 July 2025, the US Senate passed the “One Big Beautiful Bill Act” (OBBBA), the budget reform wanted by Donald Trump, which provides for billions of dollars in federal investments in artificial intelligence, cybersecurity and drones.

The reform was passed without one part that was very worrying: a 10-year moratorium that would have prevented US states from introducing laws to regulate the use of artificial intelligence. Regulation would only have been possible at the federal level (in practice, only at Trump's discretion). The Senate rejected it with 99 votes against and only 1 in favour.

Such a moratorium would have granted wide latitude to Big Tech (such as Google, Meta, Amazon, etc.), relieving them of legal responsibilities at the state level and making many of the protections and safeguards guaranteed to citizens today inapplicable for a decade. Algorithmic discrimination laws - such as those prohibiting differential treatment based on race, gender or income in automated systems - would not have been enforceable by states. State regulations already in existence or under discussion - such as those passed in California and Colorado regarding consumer privacy - would have been suspended or rendered ineffective. States would not have been able to counter through their own laws critical phenomena related to the use of artificial intelligence, such as the generation of deepfakes, racial profiling, and bias in personnel selection or lending systems.

The checks and balances of the US system appear weak in the face of Trump's authoritarian turn.
Congress and the Supreme Court, in most cases, do not represent a significant obstacle, often limiting themselves to a passive or even complicit role. In this context, the legislative autonomy of the states appears as a vital counterweight, perhaps the last bastion against an authoritarian drift that threatens to undermine US democracy.

There will be other attempts to give operational freedom to Big Tech, to the detriment of citizens (American and others).

[Image from my “Broken Mirror” project]

Broken Mirror al MIA Photo Fair BNP Paribas by Filippo Venturi

Una immagine inedita di Broken Mirror

Sono felice di annunciare che il mio progetto "Broken Mirror" (realizzato con l'intelligenza artificiale), sarà esposto a Milano, al "MIA Photo Fair BNP Paribas", dal 20 al 23 Marzo 2025!
Sarà rappresentato dalla galleria Fabrik Projects di Los Angeles.

Sarà la 14° edizione della fiera, che si terrà presso Superstudio Più (via Tortona 27 a Milano). L'evento rappresenta un’importante piattaforma di dialogo tra diverse espressioni artistiche e culturali, presenti nel panorama internazionale della fotografia. Il tema scelto per questa edizione è “Dialoghi”, con lo scopo di esplorare le connessioni tra passato e presente, tecniche tradizionali e moderne, culture e linguaggi differenti.

La manifestazione vedrà la partecipazione di 77 gallerie, di cui 21 internazionali, e un totale di 114 espositori tra editori, istituzioni e progetti speciali. Info orari: dalle ore 11:00 alle ore 20:00. I biglietti sono disponibili anche online.

👉 Io sarò presente venerdì 21 marzo alle ore 15.00, per il talk “L’ambiguità del Visuale e l’affidabilità della fonte nella opera d’arte: AI e fotografia a confronto”, in cui dialogherò con Emanuela Mazzonis (curatrice della sezione "Reportage Beyond Reportage") e con Chris Davies (direttore della galleria Fabrik Projects).

Una immagine inedita di Broken Mirror

Una immagine inedita di Broken Mirror

La foto di Donald Trump peacemaker by Filippo Venturi

La fotografia pubblicata dalla Casa Bianca su X (ex Twitter) che ritrae Donald Trump circondato da fedeli (non è chiaro se devoti a Dio o a lui stesso), per me, diventerà una fotografia storica.

Questo il testo che la accompagna:
"Come dice la Bibbia, 'Beati gli operatori di pace'. E in questo senso, spero che la mia più grande eredità, quando tutto sarà finito, sarà conosciuta come un costruttore di pace e unificatore".
— Il Presidente Donald J. Trump


Questa fotografia ha portato al centro della nostra quotidianità tutte le criticità di cui abbiamo parlato negli ultimi due anni, legate alle immagini generate con intelligenza artificiale che imitano la fotografia:

1) L’affidabilità della fonte
In teoria, l’origine dell’immagine era autorevole, ma Trump ha già utilizzato in passato immagini generate con l'intelligenza artificiale al servizio della sua propaganda. Questo ha reso impossibile avere una certezza assoluta sull'autenticità della fotografia.

2) L’ambiguità visiva
L’immagine è surreale e, a prima vista, diversi osservatori hanno messo in dubbio la sua autenticità. Trump però ci ha abituati a trasformare l’assurdo in realtà. Personalmente, per l’idea che mi sono fatto del neo Presidente USA, ritenevo più plausibile che quella scena fosse stata realmente allestita e fotografata piuttosto che generata digitalmente. Questo perché i software generativi TTI (text-to-image) ancora faticano a riprodurre in modo convincente quella moltitudine di dettagli – come le mani – e una successiva post-produzione per correggere tali difetti avrebbe richiesto un lavoro considerevole.

3) L'affidabilità dei software di riconoscimento
Alcuni strumenti di analisi delle immagini, progettati per distinguere tra fotografie reali e immagini generate, hanno classificato la foto come autentica. Ma la loro affidabilità è relativa: man mano che i software generativi migliorano, anche gli strumenti di riconoscimento dovranno evolversi, senza alcuna garanzia che riescano a mantenere il passo.

4) Il valore delle prove di supporto
Il ritrovamento di un video di backstage, in cui si vedono molti dei personaggi ritratti nella foto con gli stessi abiti, ha confermato che l’incontro è avvenuto davvero e che è plausibile che la foto sia stata scattata. Tuttavia, in futuro, prove di supporto di questo tipo potrebbero essere facilmente generate con l’IA per rafforzare la credibilità di altre immagini generate con l'IA, inducendo l’osservatore a credere di aver trovato una conferma reale quando in realtà è vittima di un inganno.

È evidente, però, che un simile processo non è sostenibile per ogni immagine con cui entriamo in contatto. Forse lo applicheremo alle immagini che ci colpiscono di più o che dobbiamo usare nel nostro lavoro, almeno per un po', ma alla lunga diventerà impossibile mantenere questo livello di attenzione, soprattutto nei contenuti di intrattenimento (che però oggi si sovrappongono sempre più all'informazione).

Forse in futuro ci abitueremo a non fidarci di nulla e, probabilmente, finiremo per lasciarci ingannare da tutto.

Il Governo di Donald Trump by Filippo Venturi

Magari tecnicamente non sarà eccelsa, ma questa fotografia racconta in modo simbolico cosa sta accadendo negli Stati Uniti, e non solo.

Siamo nell'Accademia dell'FBI di Quantico, Virginia. La foto risale a mercoledì 29 gennaio 2025. L'autore non è noto; la fotografia è stata fornita al Washington Post.

Stiamo tornando indietro nel tempo a tutta velocità, tirando nel cesso progressi e diritti faticosamente ottenuti. E una buona parte di noi sta applaudendo a questo scempio.

---

It may not be technically excellent, but this photograph is symbolically telling of what is happening in the United States, and beyond.

We are in the FBI Academy in Quantico, Virginia. The photo is dated Wednesday, 29 January 2025. The author is not known; the photograph was provided to the @washingtonpost.

We are speeding back in time, flushing hard-won advances and rights down the toilet. And a good part of us is applauding this debacle.

Il fallito attentato a Donald Trump e la complessità che sfugge al momento decisivo by Filippo Venturi

Nel numero di ottobre di FotoIT è uscito un mio articolo, nella sezione Saggistica, in cui parlo a mente fredda de "Il fallito attentato a Donald Trump e la complessità che sfugge al momento decisivo".

L'attentato fallito a Donald Trump — ex presidente degli Stati Uniti e candidato repubblicano alle prossime elezioni presidenziali — avvenuto il 13 luglio 2024, mentre teneva un comizio elettorale in una fiera agricola a Butler, in Pennsylvania, ha riportato l'attenzione sulla fotografia, la sua importanza, il suo sfruttamento e la sua crisi di credibilità, ma anche sul modo in cui riceviamo le informazioni e le elaboriamo in pochi minuti, per giungere a delle convinzioni granitiche che difficilmente abbandoneremo una volta espresse sui social network, nei tempi brevissimi che ci impongono per esprimere noi stessi. Un mix di processi, consapevoli e non, che forgiano la nostra percezione del mondo e il nostro prendere posizione rispetto alla realtà.