OpenAI

Non basta dire che è falso by Filippo Venturi

Non basta dire che è falso

In questi giorni sta girando una immagine modificata con l’intelligenza artificiale che mostra una realtà falsa in cui il colono israeliano e la donna palestinese - di cui si è parlato molto nei giorni scorsi e di cui ho scritto nel post “L’Abuso” - sorridono e si danno la mano, in un atteggiamento complice che lascerebbe pensare che l’abuso dell’uomo sulla donna, visibile nella potente fotografia del fotogiornalista Pietro Masturzo, apparsa sulla copertina del settimanale L’Espresso, possa essere in realtà una messa in scena.

Si tratta di un tentativo meschino di alterare i fatti. Dopo vari tentativi di sminuire l’episodio (uno dei tanti abusi, noti, dei coloni israeliani verso i palestinesi), evidentemente qualcuno ha provato a giocare la carta del complotto.

Oltre a questo, però, c’è una ingenuità che vedo ripetersi da tempo, compiuta da alcuni debunker, fact-checker o anche semplici persone in buona fede che denunciano immagini false o generate con l’IA, che consiste nel ripubblicarle integralmente, senza inserire sull’immagine un watermark evidente che le identifichi subito come fake.

Nel tentativo di smontare un tentativo di disinformazione, si rischia di alimentarne la circolazione. Queste immagini fake, senza l’indicazione visiva che sono fake, vengono condivise, screenshottate, salvate, ritagliate e ricondivise altrove, rischiando di perdere il contesto originale della smentita.

Possono comparire nei risultati dei motori di ricerca, nelle anteprime o nelle ricerche per immagini, dove molti utenti le vedranno senza aprire l’articolo che spiega che si tratta di un falso.

In un ecosistema digitale dove il contenuto viaggia più veloce della spiegazione, non basta dire “questa immagine è fake”, ma è necessario renderlo visibile sull’immagine stessa. Altrimenti il tentativo di smontare la disinformazione rischia di diventare, involontariamente, promozione della fake news.

Rassegna "Dialoghi d’arte" by Filippo Venturi

“Dialoghi d’arte” è uno spazio di confronto aperto alla città, pensato per avvicinare il pubblico ad artisti, pratiche e processi creativi contemporanei.

Protagonista dell’incontro di sabato 16 maggio 2026 sarà Filippo Venturi, fotografo documentarista e artista visivo i cui lavori sono stati pubblicati su testate internazionali come National Geographic, The Washington Post e The Guardian. La sua ricerca indaga il rapporto tra immagine, realtà e tecnologia, con un’attenzione particolare alle implicazioni culturali e percettive dell’intelligenza artificiale (IA).

In dialogo con Roberta Invidia, giornalista e formatrice, presenterà l’incontro:
“Puoi fidarti dei tuoi occhi? Fra fotografia e intelligenza artificiale”.

Un’occasione per attraversare i suoi progetti più significativi: dal lavoro documentario — sviluppato in contesti complessi come la Corea del Nord — fino alle più recenti sperimentazioni visive in cui fotografia e immagini generate con l’IA si intrecciano, mettendo in discussione i confini tra vero, verosimile e costruito.

L’incontro aprirà una riflessione su come questa nuova tecnologia stia ridefinendo non solo gli strumenti della creazione artistica, ma anche il nostro modo di vedere, interpretare e fidarci delle immagini.

📍 L’evento si terrà presso BottegaLab, all’interno di Diversamente Bottega, in Corso della Repubblica 138, Forlì.
⚠️ Posti limitati — prenotazione obbligatoria al numero 327 1115331.
💶 Contributo di partecipazione: €10,00, comprensivo di aperitivo finale a cura di Piada 52.


You're absolutely right, Senator by Filippo Venturi

"You're absolutely right, Senator"

Bernard "Bernie" Sanders è un senatore per lo Stato del Vermont dal 2007 e può essere considerato il più importante esponente della corrente progressista del Partito Democratico. Personalmente ritengo che sia uno dei politici americani più lucidi e, nonostante i suoi 84 anni, è molto attento a temi come l'innovazione tecnologica, compresa l'intelligenza artificiale, e in particolare a come questa influenzi i diritti e la democrazia.

In questo video di 9 minuti si confronta con Claude (IA di Anthropic), partendo dalla premessa che non vuole parlare delle problematiche economiche e di occupazione lavorativa che l'IA potrebbe provocare, ma che vuole focalizzarsi sulla privacy. Di seguito riassumo brevemente il contenuto, che non svela novità particolari rispetto a quanto si è detto negli ultimi anni, anche perché la finalità di Sanders sembra essere quella di far ammettere a una IA la pericolosità delle IA (cosa già vista e di dubbia utilità pratica, ma se il video verrà visto da molte persone, potrebbe comunque ottenere qualche effetto).

Ma il video è interessante per un altro motivo, come vedremo di seguito.

L'IA risponde ammettendo che gli utenti del web siano talmente in balia di profilazioni e raccolte di informazioni (le attività svolte online, la durata della fruizione di contenuti, le abitudine, ecc), da non poter immaginare fino a che livello. E che tutto parta dal gesto dell'accettare i termini di utilizzo (che nessuno legge, spesso confidando che diritti e doveri contenuti siano dettati dal buon senso e non dalle finalità lucrative di una multinazionale).

Il fine è addestrare le IA nell'aiutare le aziende sviluppatrici a estrarre profitto dalle informazioni personali degli utenti. E questa operazione non riguarda solo capire cosa e come venderti un prodotto, ma anche come influenzare le convinzioni politiche. Va da sè che ottimizzare le IA e i risultati ottenuti vada in conflitto con la tutela della privacy degli utenti e, al momento, non c'è una regolamentazione sufficiente per invertire le priorità.

Una moratoria sulla creazione di nuovi data center dedicati all'IA potrebbe fornire il tempo necessario per creare questa regolamentazione (sia Sanders che Claude omettono o danno per scontato che questa moratoria dovrebbe avvenire su scala mondiale per avere effetto; non sarebbe sufficiente se applicata solo negli USA), ma le multinazionali che sviluppano l'IA spesso hanno una forte influenza politica ed economica che fino a oggi ha impedito di intervenire con efficacia.

Sanders quindi ribadisce la domanda "Avrebbe senso una moratoria sui data center, così che possiamo rallentare questo processo?". Claude risponde "Ha assolutamente ragione, senatore".

Sanders ringrazia Claude, come se quell'ultima ammissione abbia portato a compimento la sua missione.
Claude infine aggiunge che il problema della privacy non è personale, ma riguarda la democrazia intera.
"Ed è per questo che il suo operato, senatore, è così importante".

Nei commenti al video su YouTube, alcuni utenti hanno descritto il confronto come una partita a scacchi, vinta da Sanders.
Io però ho notato una certa adulazione (sycophantic).

Claude non sta necessariamente "pensando" che Sanders abbia ragione ma sta calcolando che, in quel contesto, la risposta che massimizza la soddisfazione dell'utente è l'accordo. Se Sanders avesse chiesto a Claude se una moratoria avrebbe causato un disastro economico o il superamento da parte della Cina in termine di sviluppo di IA, Claude avrebbe probabilmente elencato con altrettanta convinzione i rischi di perdere tale corsa economica e tecnologica.

I complimenti finali completano la manipolazione che Sanders ha subìto.

Sanders ne esce convinto di aver ottenuto una validazione tecnica della sua linea politica da una fonte neutrale, se non persino rivale, quando in realtà ha solo parlato con un sofisticato specchio statistico. Un assistente servizievole che ha assunto le sembianze di un alleato.


Se desideri approfondire il rapporto tra fotografia, informazione e intelligenza artificiale — tra ricerca visiva, implicazioni etiche e trasformazioni del linguaggio contemporaneo — puoi consultare la seguente pagina, dove raccolgo riflessioni, progetti, articoli e informazioni aggiornate su seminari, workshop e incontri pubblici in cui esploro questo tema:

👉 www.filippoventuri.photography/intelligenza-artificiale

Intervista su La Stampa sulla foto del poliziotto modificata by Filippo Venturi

Il quotidiano La Stampa mi ha intervistato a proposito dell'immagine generata con intelligenza artificiale raffigurante due poliziotti durante le manifestazioni di Torino, e diffusa dalle istituzioni. Un precedente che apre anche in Italia a scenari preoccupanti, sia quando frutto di disattenzione, sia quando risultato di una scelta consapevole.

L’articolo intero è qui:
Scontri a Torino, l’ombra dell’AI sulla foto diffusa dagli account istituzionali di Polizia e Interno

Il poliziotto aggredito e l'intelligenza artificiale by Filippo Venturi

Il Ministero dell'Interno ha condiviso un post, corredato da una fotografia, relativo all'aggressione subita da un poliziotto e al soccorso ricevuto da un collega, durante il corteo a Torino del 31 Gennaio 2026.

Diversi elementi fanno ritenere che la fotografia diffusa non sia uno scatto originale, ma un’immagine modificata o ricreata tramite intelligenza artificiale (ipotesi confermata anche dall'analisi con SynthID).

Sopra 3 screenshot dal video che è stato diffuso nei giorni scorsi. Sotto l'immagine diffusa.
Confrontandole, emerge che:

1) L'auto bianca non c’è più.
2) Il poliziotto che soccorre il collega aveva una maschera antigas, anch'essa è sparita. Il volto è ora visibile.
3) Lo scudo del soccorritore è scomparso.
4) Ci sono anche altri dettagli anomali: come l’illuminazione dei due poliziotti da parte dei fari di un’auto della polizia, che nel video non risultano.

Il risultato è una immagine semplificata, di lettura più immediata, ma che non rappresenta fedelmente quel frammento di realtà catturato nel video. Per quanto fotografie e video tradizionali possano non restituire la realtà nella sua complessità e interezza, e possano essere realizzate in modo ingannevole, qui ci troviamo davanti ad un intervento per semplificare e ripulire la realtà, forse dimenticando od omettendo i dettagli suddetti.

Per ragioni ormai ampiamente discusse da almeno 3 anni, l’uso di immagini generate o alterate per rappresentare fatti reali solleva criticità profonde, che diventano ancora più gravi quando è un’istituzione governativa a intervenire su un documento originariamente prodotto da un fotografo o da un videomaker. Può sembrare un dettaglio marginale, ma non lo è, seppur qualcuno possa ritenere che non alteri in modo significativo la narrazione dell’evento accaduto.

Arriveranno momenti in cui non avremo gli strumenti e/o le competenze per orientarci e non farci ingannare. Sospettare e verificare ogni contenuto visivo in cui ci imbattiamo non è sostenibile.

In questo dovrebbe aiutarci il giornalismo, ma diversi giornali hanno utilizzato l'immagine in questione, forse non effettuando sufficienti verifiche o forse sopravvalutando l'affidabilità della fonte.

(Questo mio post nasce dalle anomalie notate dal fotografo Michele Lapini)

Scorrete lacrime, impose il governo by Filippo Venturi

La Casa Bianca ha diffuso una fotografia modificata con l’intelligenza artificiale di una donna arrestata dopo una protesta contro l’ICE (Immigration and Customs Enforcement).

Un’analisi del Guardian (link) ha rilevato che la fotografia pubblicata mostra Nekima Levy Armstrong in lacrime, in modo drammatico, mentre nello scatto originale appariva calma e composta. Inoltre, il colore della pelle della donna risulta scurito.

La segretaria per la sicurezza interna, Kristi Noem, ha pubblicato una prima immagine dell’arresto che ritraeva un agente delle forze dell’ordine, con il volto oscurato, che accompagna Armstrong. La donna appare composta. Circa trenta minuti dopo, la Casa Bianca ha pubblicato una seconda immagine dello stesso arresto, in cui Armstrong piange.

Interpellata sull’alterazione digitale dello scatto, la Casa Bianca ha risposto inoltrando un post pubblicato su X da Kaelan Dorr, vicedirettore delle comunicazioni: «Ancora una volta, a coloro che sentono il bisogno di difendere in modo istintivo gli autori di crimini efferati nel nostro paese, condivido questo messaggio: l’applicazione della legge continuerà. I meme continueranno», ha scritto.

Questo episodio va letto come l’ennesimo segnale del rapporto sempre più instabile tra potere, immagine e verità. La manipolazione visiva mira a orientare emotivamente lo sguardo del pubblico, trasformando un documento in uno strumento narrativo e punitivo (pare ormai che il bullismo permei ogni aspetto della vita politica e comunicativa statunitense). Il ricorso esplicito ai “meme” rivendicato dalla Casa Bianca rivela una strategia comunicativa che legittima la fusione fra informazione, propaganda e intrattenimento.

Seminario su Fotografia, Informazione, Potere e Intelligenza Artificiale by Filippo Venturi

INFRANGERE LO SPECCHIO
Fotografia e Informazione nell’era dell’Intelligenza Artificiale

Questo seminario si propone come uno spazio di confronto aperto, pensato soprattutto per chi oggi sta costruendo il proprio sguardo sul mondo: studenti universitari e non, giovani fotografi, artisti visivi, aspiranti giornalisti, docenti e tutte le persone interessate a comprendere il ruolo delle immagini nella società contemporanea.

Il seminario è focalizzato sull’incontro fra fotografia e intelligenza artificiale (IA) e — attraverso esempi tratti dal lavoro del docente e da casi recenti di rilievo internazionale — esplora l’evoluzione del processo creativo, del ruolo dell’immagine nella comunicazione, nell’informazione e nella vita quotidiana, analizzandone anche il peso crescente come strumento di esercizio del potere.

Il docente presenterà alcuni dei suoi progetti di fotografia documentaria, esponendo nel dettaglio la filosofia alla base di essa e le metodologie pratiche adottate. Illustrerà inoltre le notevoli differenze teoriche e pratiche che caratterizzano l’utilizzo dell’IA nel processo creativo. Verrà mostrato come l’IA possa ampliare il ventaglio di possibilità dei fotografi e le idee che sottendono alla creazione di progetti.

In un’epoca di deepfake, algoritmi opachi e flussi visivi incontrollabili, il ruolo del fotografo e del giornalista non consiste più soltanto nell’essere testimoni, ma anche interpreti critici, chiamati a interrogarsi su responsabilità, etica, trasparenza e fiducia. Comprendere questi meccanismi diventa essenziale per non subire passivamente le immagini, ma per imparare a leggerle, smontarle e, se necessario, usarle consapevolmente come forma di resistenza culturale.

Saranno esaminate diverse casistiche che negli ultimi mesi hanno avuto un impatto significativo nel panorama dell’informazione internazionale. Saranno affrontati sia i timori legati all’adozione di questa nuova tecnologia, sia le potenzialità che essa porta con sé, aprendo un dibattito sul futuro dell’arte fotografica e della nostra interazione con le immagini.

La fotografia e l’IA non sono strumenti da temere o da idolatrare, ma linguaggi da comprendere a fondo per poterli usare con lucidità, immaginazione e senso critico. L’obiettivo non è fornire risposte definitive, ma stimolare domande urgenti su chi siamo, su come raccontiamo il mondo e su quale responsabilità scegliamo di assumerci nel farlo.

Il futuro non sarà scritto dalle macchine, ma da chi saprà dialogare con loro, con consapevolezza, usando la tecnologia per ampliare, non per ridurre, la propria umanità.

Il seminario è modulabile per durata e formato (lezione frontale, incontro dialogico, masterclass), in base al contesto e al pubblico di riferimento. Offre strumenti critici per leggere e interpretare le immagini contemporanee e per comprendere come fotografia e intelligenza artificiale influenzino l’informazione e la costruzione della realtà. I partecipanti acquisiranno una maggiore consapevolezza dei meccanismi tecnologici, culturali e di potere che agiscono dietro le immagini, sviluppando un approccio responsabile, creativo e informato al loro utilizzo.


DOCENTE

Filippo Venturi è un fotografo documentarista, artista visivo, docente e divulgatore. Sviluppa progetti che affrontano temi legati all’identità e alla condizione umana. Ha documentato dittature, democrazie in crisi e movimenti per i diritti.

Il suo lavoro indaga scenari contemporanei e futuri plasmati dall’evoluzione tecnologica. Grazie a una laurea in Scienze dell’Informazione e alla sua esperienza nel fotogiornalismo, sviluppa anche progetti in cui integra la fotografia tradizionale con l’uso di nuovi strumenti tecnologici.

Negli ultimi anni la sua ricerca si è focalizzata sul rapporto fra fotografia, informazione, potere e intelligenza artificiale, analizzando come queste dinamiche contribuiscano a plasmare la percezione della realtà.

Accanto alla pratica artistica, tiene corsi e seminari in contesti accademici e culturali, come BergamoScienza e la New York University. È docente nel Master di Giornalismo presso l'Università di Bologna.

I suoi progetti sono stati pubblicati su importanti giornali internazionali, fra cui National Geographic, The Washington Post, The Guardian, The Financial Times, Vanity Fair, Geo, Der Spiegel, Internazionale, La Repubblica, Il Corriere della Sera e La Stampa.

Ha esposto in Italia e all’estero in importanti sedi e festival tra cui il Foro Boario di Modena come “New Talent” della Fondazione Modena Arti Visive, CIFA – Centro Italiano della Fotografia d’Autore di Bibbiena, MACRO – Museo d’Arte Contemporanea di Roma, Somerset House a Londra, U Space a Pechino, Willy Brandt Haus a Berlino, Sony Square a New York, Copenhagen Photo Festival, Helsinki Photo Festival , Voies Off Awards a Les Rencontres d’Arles, Photo Vogue Festival, Photolux a Lucca, SI Fest a Savignano sul Rubicone, Festival di Fotografia Etica di Lodi e il Festival della Fotografia Italiana.

Il suo progetto a lungo termine sulla Penisola Coreana gli è valso numerosi riconoscimenti internazionali, tra cui il Sony World Photography Award, il LensCulture Emerging Talent Award, Il Reportage Award, il Voglino Award e il Portfolio Italia – Grand Premio Hasselblad. I suoi lavori sono stati nominati più volte per il prestigioso Leica Oskar Barnack Award.

Nel 2025 è stato nominato Autore dell’Anno dalla FIAF.

www.filippoventuri.photography
filippo.venturi@gmail.com

Software denudatori, quando l’IA riscrive i corpi by Filippo Venturi

SOFTWARE DENUDATORI
Quando l’IA riscrive i corpi

Grok, l’intelligenza artificiale di Elon Musk, interpellabile sul social network X (ex Twitter), consente da qualche tempo di modificare in pochi secondi le fotografie condivise da altri utenti, pubblicando direttamente il risultato sulla piattaforma.

Così può capitare che una ragazza condivida una propria fotografia e gli utenti, nei commenti, chiedano a Grok di mostrarla in bikini, di farla diventare un uomo, di mostrarne il viso che nella foto originale era celato (il viso generato, presumibilmente, è inventato e non quello reale; ma non sarebbe difficile istruire una IA a cercare altre foto nel profilo di quella ragazza per risalire al viso e inserirlo nell'immagine generata) e così via.

Se è facilmente intuibile quali possano essere le conseguenze negative di questa nuova possibilità, non è ben chiaro quali siano quelle positive. Prima o poi ci scapperà qualche post divertente, e poi? Tutti gli altri deepfake che effetto avranno?

Ufficialmente Grok è stato limitato dai suoi sviluppatori in modo che non possa generare deepfake pornografici; eppure è già capitato che abbia generato immagini pornografiche con ragazze minorenni. Sulla questione è intervenuto anche il governo indiano, che ha chiesto a Musk di porre rimedio (link 1).

Operazioni di denudazioni femminili sono possibili anche con le IA generative di Google e ChatGPT (link 2).

Ovviamente il fenomeno dei deepfake esisteva anche prima, ma richiedeva competenze non comuni. Rendere questa attività alla portata di chiunque sappia scrivere un commento cambia le cose. Forse l'unico pregio (molto relativo, non risolutivo e forse utopistico) è che impareremo a prestare più attenzione a quello che condividiamo online.

Nonostante polemiche e indagini, e le promesse di porvi rimedio, Grok viene usato per produrre in modo sistematico immagini di donne in bikini e in biancheria intima. I ricercatori stimano che Grok sia diventato il più grande creatore di immagini deepfake a sfondo sessuale (link 3).

Come se non bastasse, la domanda per questo tipo di contenuti è così elevata che esistono aziende specializzate nello sviluppo di software "denudatori" (basati su intelligenza artificiale, che prendono online foto di donne, anche minorenni, le denudano e le collocano in contesti pornografici). Due di queste aziende hanno lasciato i loro database aperti e visibili a chiunque con un minimo di conoscenze tecniche (link 4).

Questo tipo di reato è già punibile in diversi casi (in parte dipende dall’eventuale condivisione o pubblicazione, ma non solo), ma l’accessibilità e la scala con cui queste tecnologie operano rendono l’applicazione delle norme esistenti complessa e spesso inefficace. A meno che non si intervenga alla radice, sulla regolamentazione dell’uso delle intelligenze artificiali in contesti delicati come il suddetto.

La fotografia fake dell'arresto di Nicolas Maduro by Filippo Venturi

Questa fotografia (o frame da un video) che circola online mostrerebbe l'arresto di Nicolás Maduro, Presidente del Venezuela, da parte dalle forze statunitensi.

In attesa di sviluppi (verifiche ed eventuali smentite andrebbero sempre aspettate, ma oggi adottiamo un sistema di informazione e comunicazione che non tollera l'attesa) possiamo affermare che molto probabilmente non è una fotografia e nemmeno un frame estratto da un video reale, ma che si tratta di una immagine generata con intelligenza artificiale.

Proviamo a seguire i 4 passaggi che avevo suggerito ormai un anno fa, in casi analoghi (vedi il link nei commenti; sottolineo che, anche quando tutti i passaggi sembrano indicare una risposta univoca, non sempre possiamo giungere a una certezza assoluta):

1) L’affidabilità della fonte: al momento non ho trovato fonti giornalistiche affidabili che la riportino dopo le opportune verifiche e conferme.

2) L’ambiguità visiva: l'immagine riporta un timestamp anacronistico e che sembra più un tentativo di rafforzare la credibilità e attualità dell'immagine come documento. Il volto di Maduro sembra staccarsi troppo dal resto della immagine (come nitidezza e come effetto patinato). Le divise dei due militari hanno qualche anomalia, come la dicitura "DEA" ben visibile. Non è da escludere che il tutto sembri posticcio perché inscenato per produrre materiale visivo da diffondere. Personalmente però tenderei a considerarla una immagine generata.

3) Software di riconoscimento: viene rilevata la filigrana SynthID (quindi di una immagine generata con intelligenza artificiale).

4) Prove di supporto: non ho trovato foto o video o registrazioni audio di momenti immediatamente precedenti o successivi alla situazione mostrata nell'immagine.

La mia personale conclusione è quindi che si tratti di una immagine falsa di un evento reale (l'effettivo arresto di Maduro non è in discussione), che rende visibile qualcosa di cui, al momento, non ci sono prove visibili.

Ci troviamo di fronte a una dinamica che si è fatta largo nel mondo contemporaneo (occidentale, ma non solo, come dimostra il fatto che numerosi media asiatici abbiano utilizzato questa immagine come prova reale) in cui la realtà necessita di prove visive per consolidarsi come tale. A qualsiasi costo. Fino al paradosso di inventare un’immagine per confermare la realtà.

L'accettare l'uso di questo tipo di immagini, per questo scopo, fortunatamente è ancora considerato inaccettabile nel mondo dell'informazione di qualità.

Nessun algoritmo genera curiosità by Filippo Venturi

Nessun algoritmo genera curiosità

Una riflessione sul rapporto dei giovani con l'intelligenza artificiale

Questa è una fotografia dell'auditorium di un Liceo Scientifico e Artistico di Rimini, dove ho tenuto un intervento su fotografia, informazione e intelligenza artificiale (IA) qualche giorno fa, a sei classi di età compresa fra i 16 e i 18 anni.

Al di là del piacere - e della speranza - di riuscire a fornire stimoli e contenuti utili a orientrarsi in questo panorama sempre più complesso e interdisciplinare, mi ha colpito una cosa che mi è stata riferita in via confidenziale prima dell'inizio del mio talk, e non per la prima volta in contesti scolastici: i giovani dimostrano poco interesse e molta diffidenza nei confronti dell'intelligenza artificiale.

Una buona parte di loro è critica perché lo vede come un modo per barare (nei compiti, ma anche nel produrre contenuti, arte compresa) e questo ha trovato conferma anche nei compiti scritti di alcuni loro compagni di classe che contenevano, a seguito di copia\incolla distratti, i suggerimenti classici di ChatGPT ("Vuoi che lo riscriva con un tono più professionale?", "Vuoi che ti faccia una tabella riassuntiva?", ecc).

Confesso che questa diffidenza non mi dispiace troppo (purché non si trasformi nel tempo in chiusura e rifiuto, ma resti un modo per avvicinarsi con prudenza e spirito critico), specie quando viene da persone che si stanno formando, che stanno costruendo un proprio metodo. È fondamentale attraversare quella fase formativa in cui si impara a consultare le fonti, assorbire informazioni, analizzarle e sintetizzarle in autonomia, mentalmente e per iscritto, senza delegare tutto ad un software basato su IA, limitandosi a imparare a memoria il riassunto generato.

Un concetto che non mi stancherò mai di ripetere è che i lavori visivi che ho svolto con l'intelligenza artificiale non li avrei potuti realizzare con lucidità e consapevolezza se non avessi avuto la mia "cassetta degli attrezzi" composta negli anni (ormai ho una età in cui posso dire nei decenni) da studi informatici, studi fotografici, lavoro sul campo, esperienza e confronto con altri autori. Inoltre i progetti che ho svolto, a parer mio, funzionano proprio perché realizzati con questa nuova tecnologia, criticando o evidenziando alcune caratteristiche (limiti e rischi compresi) di questa stessa tecnologia.

L’intelligenza artificiale può suggerire risposte, ma ai giovani (e non solo) serve soprattutto imparare a farsi le domande giuste e a mettere in discussione il mondo che trovano confezionato dagli adulti. Le risposte sono ovunque, immediate, spesso persino ridondanti; ciò che manca, e che nessuna macchina può generare al nostro posto, è la capacità di interrogarci sul mondo con curiosità e profondità.