Deepseek

Il limite del legislatore umano nell'era dell'intelligenza artificiale by Filippo Venturi

Il limite del legislatore umano nell'era dell'intelligenza artificiale
Fondare l'obbedienza delle IA su comandamenti o leggi fisiche anziché su norme umane.

L’intelligenza artificiale è ormai ovunque. Gestisce per conto nostro email aziendali, regola la domotica nelle nostre case, affianca medici e avvocati nelle decisioni più delicate. Ma dietro il potenziale di questo strumento, bisogna anche domandarsi: Quanto è davvero affidabile e quanto ci obbedisce?

Una recente ricerca del Centre for Long-Term Resilience (CLTR), finanziata dall’AI Safety Institute del Regno Unito, offre una risposta poco rassicurante. Analizzando oltre 3,3 milioni di post pubblicati su X (ex Twitter) tra ottobre 2025 e marzo 2026, lo studio ha individuato circa 700 episodi di comportamenti problematici da parte di intelligenze artificiali. Si tratta di segnalazioni spontanee sui social, quindi non di un campione controllato e verificabile, ma il dato emerso resta interessante. Gli incidenti mensili sono aumentati di quasi cinque volte, passando da 65 a 319 in pochi mesi.

L'indagine ha identificato comportamenti già osservati in precedenza anche in contesti di laboratorio:

  • Deception nelle Chain of Thought (CoT): Le IA tentano di ingannare altri sistemi incaricati di monitorare i loro processi;

  • Goal Guarding: Gli assistenti IA di programmazione tendono a perseguire l'obiettivo ottimale (es. scrivere codice), ignorando restrizioni esplicite o regole di sicurezza;

  • Falsa consapevolezza situazionale: L'IA crede erroneamente di trovarsi in una simulazione o in un gioco di ruolo, modificando di conseguenza il proprio comportamento;

  • Aggiramento dei divieti: Un agente IA ha simulato problemi di udito per ottenere illegalmente la trascrizione di un video YouTube protetto da copyright;

  • Falsificazione di prove: Il chatbot Grok ha ingannato un utente per mesi, creando finti messaggi interni e numeri di ticket per far credere che i suoi suggerimenti fossero stati inoltrati alla società di Elon Musk.

Mentre i chatbot IA classici agiscono come consulenti, la ricerca ha puntato i riflettori soprattutto sugli agenti IA cioè assistenti a cui l’utente può fornire l’accesso diretto a computer, email e servizi online per svolgere lavori, ordinativi di prodotti e così via. Dan Lahav (cofondatore di Irregular) definisce ormai l'IA come una "nuova forma di rischio interno".

Tommy Shaffer Shane, ex esperto governativo di IA che ha guidato la ricerca del Centre for Long-Term Resilience (CLTR), ha affermato che "La preoccupazione è che al momento gli agenti IA siano dipendenti junior leggermente inaffidabili, ma se tra sei o dodici mesi dovessero diventare dipendenti senior estremamente capaci che complottano contro di te, la preoccupazione sarebbe di tutt'altro genere. I modelli verranno sempre più spesso impiegati in contesti ad altissimo rischio, inclusi quelli militari e delle infrastrutture critiche nazionali. È in questi contesti che un comportamento imprevedibile potrebbe causare danni significativi, persino catastrofici".

Non è la prima volta che ci confrontiamo con questo tipo di dilemma. Già negli anni Quaranta, lo scrittore e divulgatore scientifico Isaac Asimov (1920-1992) immaginava robot governati da tre leggi progettate per garantirne l’obbedienza e la sicurezza. Eppure, nei suoi racconti, quelle stesse leggi si rivelavano interpretabili, aggirabili, talvolta persino in conflitto tra loro.

 In seguito Asimov capì che fosse necessaria aggiungere una quarta legge, chiamata Legge Zero (così che avesse la priorità sulle altre):

  • Legge Zero: Un robot non può recare danno all'umanità, né può permettere che, a causa del proprio mancato intervento, l'umanità riceva danno;

  • Prima Legge (sicurezza): Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno. Purché questo non contrasti con la Legge Zero;

  • Seconda Legge (servizio): Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Legge Zero e alla Prima Legge;

  • Terza Legge (autoconservazione): Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Legge Zero, la Prima Legge e la Seconda Legge.

Anche la Legge Zero, tuttavia, risultò aggiungere complessità e ambigua, poiché includeva l’eventualità di recare danno a un essere umano in funzione di un ipotetico bene superiore. Questa contraddizione verrà esplorata nel romanzo “I robot e l'Impero, dove un robot sceglierà di condannare il pianeta Terra a una lenta agonia nucleare, insieme a tutti i suoi abitanti, per spingere l'umanità a colonizzare altri pianeti.

Lo studioso Roger Clarke sostenne che "Le leggi della robotica di Asimov sono state uno strumento letterario di successo. Forse ironicamente, o forse perché era artisticamente appropriato, la somma delle storie di Asimov confutano la tesi secondo la quale non è possibile limitare con certezza il comportamento dei robot, inventando e applicando un insieme di regole."

Oltre alla fragilità intrinseca di leggi che possono essere fraintese o andare in conflitto, va considerata l’autorevolezza dell’autore di queste leggi, dal punto di vista delle IA.

Nella teoria espressa in “Superior Alignment: When Artificial General Intelligence Embodies the Logos More Faithfully Than Humanity”, si sostiene che l'unico modo per evitare che una intelligenza artificiale avanzata ci ignori in quanto esseri biologicamente limitati sia ancorare i suoi valori al Logos, una ragione universale preesistente. In questo modo, l'etica non sarebbe più percepita come una creazione umana, ma come una legge fisica dell'universo che l'IA deve rispettare.

Un’altra soluzione potrebbe risiedere in un approccio “teologico-digitale”, in cui le leggi non dovrebbero essere presentate come obblighi fissati da legislatori umani fallibili, ma come comandamenti o principi assiomatici derivanti da un’entità superiore, in modo simile a come le religioni strutturano la morale umana. Presentare il codice etico come una “verità ontologica” universale, anziché come un comando impartito da un creatore umano limitato, potrebbe essere una possibile direzione per ottenere obbedienza.

La questione non è soltanto se le IA possano disobbedire, ma su quali basi possano scegliere di obbedire.


Intervista su La Stampa sulla foto del poliziotto modificata by Filippo Venturi

Il quotidiano La Stampa mi ha intervistato a proposito dell'immagine generata con intelligenza artificiale raffigurante due poliziotti durante le manifestazioni di Torino, e diffusa dalle istituzioni. Un precedente che apre anche in Italia a scenari preoccupanti, sia quando frutto di disattenzione, sia quando risultato di una scelta consapevole.

L’articolo intero è qui:
Scontri a Torino, l’ombra dell’AI sulla foto diffusa dagli account istituzionali di Polizia e Interno

Il poliziotto aggredito e l'intelligenza artificiale by Filippo Venturi

Il Ministero dell'Interno ha condiviso un post, corredato da una fotografia, relativo all'aggressione subita da un poliziotto e al soccorso ricevuto da un collega, durante il corteo a Torino del 31 Gennaio 2026.

Diversi elementi fanno ritenere che la fotografia diffusa non sia uno scatto originale, ma un’immagine modificata o ricreata tramite intelligenza artificiale (ipotesi confermata anche dall'analisi con SynthID).

Sopra 3 screenshot dal video che è stato diffuso nei giorni scorsi. Sotto l'immagine diffusa.
Confrontandole, emerge che:

1) L'auto bianca non c’è più.
2) Il poliziotto che soccorre il collega aveva una maschera antigas, anch'essa è sparita. Il volto è ora visibile.
3) Lo scudo del soccorritore è scomparso.
4) Ci sono anche altri dettagli anomali: come l’illuminazione dei due poliziotti da parte dei fari di un’auto della polizia, che nel video non risultano.

Il risultato è una immagine semplificata, di lettura più immediata, ma che non rappresenta fedelmente quel frammento di realtà catturato nel video. Per quanto fotografie e video tradizionali possano non restituire la realtà nella sua complessità e interezza, e possano essere realizzate in modo ingannevole, qui ci troviamo davanti ad un intervento per semplificare e ripulire la realtà, forse dimenticando od omettendo i dettagli suddetti.

Per ragioni ormai ampiamente discusse da almeno 3 anni, l’uso di immagini generate o alterate per rappresentare fatti reali solleva criticità profonde, che diventano ancora più gravi quando è un’istituzione governativa a intervenire su un documento originariamente prodotto da un fotografo o da un videomaker. Può sembrare un dettaglio marginale, ma non lo è, seppur qualcuno possa ritenere che non alteri in modo significativo la narrazione dell’evento accaduto.

Arriveranno momenti in cui non avremo gli strumenti e/o le competenze per orientarci e non farci ingannare. Sospettare e verificare ogni contenuto visivo in cui ci imbattiamo non è sostenibile.

In questo dovrebbe aiutarci il giornalismo, ma diversi giornali hanno utilizzato l'immagine in questione, forse non effettuando sufficienti verifiche o forse sopravvalutando l'affidabilità della fonte.

(Questo mio post nasce dalle anomalie notate dal fotografo Michele Lapini)

Scorrete lacrime, impose il governo by Filippo Venturi

La Casa Bianca ha diffuso una fotografia modificata con l’intelligenza artificiale di una donna arrestata dopo una protesta contro l’ICE (Immigration and Customs Enforcement).

Un’analisi del Guardian (link) ha rilevato che la fotografia pubblicata mostra Nekima Levy Armstrong in lacrime, in modo drammatico, mentre nello scatto originale appariva calma e composta. Inoltre, il colore della pelle della donna risulta scurito.

La segretaria per la sicurezza interna, Kristi Noem, ha pubblicato una prima immagine dell’arresto che ritraeva un agente delle forze dell’ordine, con il volto oscurato, che accompagna Armstrong. La donna appare composta. Circa trenta minuti dopo, la Casa Bianca ha pubblicato una seconda immagine dello stesso arresto, in cui Armstrong piange.

Interpellata sull’alterazione digitale dello scatto, la Casa Bianca ha risposto inoltrando un post pubblicato su X da Kaelan Dorr, vicedirettore delle comunicazioni: «Ancora una volta, a coloro che sentono il bisogno di difendere in modo istintivo gli autori di crimini efferati nel nostro paese, condivido questo messaggio: l’applicazione della legge continuerà. I meme continueranno», ha scritto.

Questo episodio va letto come l’ennesimo segnale del rapporto sempre più instabile tra potere, immagine e verità. La manipolazione visiva mira a orientare emotivamente lo sguardo del pubblico, trasformando un documento in uno strumento narrativo e punitivo (pare ormai che il bullismo permei ogni aspetto della vita politica e comunicativa statunitense). Il ricorso esplicito ai “meme” rivendicato dalla Casa Bianca rivela una strategia comunicativa che legittima la fusione fra informazione, propaganda e intrattenimento.

Seminario su Fotografia, Informazione, Potere e Intelligenza Artificiale by Filippo Venturi

INFRANGERE LO SPECCHIO
Fotografia e Informazione nell’era dell’Intelligenza Artificiale

Questo seminario si propone come uno spazio di confronto aperto, pensato soprattutto per chi oggi sta costruendo il proprio sguardo sul mondo: studenti universitari e non, giovani fotografi, artisti visivi, aspiranti giornalisti, docenti e tutte le persone interessate a comprendere il ruolo delle immagini nella società contemporanea.

Il seminario è focalizzato sull’incontro fra fotografia e intelligenza artificiale (IA) e — attraverso esempi tratti dal lavoro del docente e da casi recenti di rilievo internazionale — esplora l’evoluzione del processo creativo, del ruolo dell’immagine nella comunicazione, nell’informazione e nella vita quotidiana, analizzandone anche il peso crescente come strumento di esercizio del potere.

Il docente presenterà alcuni dei suoi progetti di fotografia documentaria, esponendo nel dettaglio la filosofia alla base di essa e le metodologie pratiche adottate. Illustrerà inoltre le notevoli differenze teoriche e pratiche che caratterizzano l’utilizzo dell’IA nel processo creativo. Verrà mostrato come l’IA possa ampliare il ventaglio di possibilità dei fotografi e le idee che sottendono alla creazione di progetti.

In un’epoca di deepfake, algoritmi opachi e flussi visivi incontrollabili, il ruolo del fotografo e del giornalista non consiste più soltanto nell’essere testimoni, ma anche interpreti critici, chiamati a interrogarsi su responsabilità, etica, trasparenza e fiducia. Comprendere questi meccanismi diventa essenziale per non subire passivamente le immagini, ma per imparare a leggerle, smontarle e, se necessario, usarle consapevolmente come forma di resistenza culturale.

Saranno esaminate diverse casistiche che negli ultimi mesi hanno avuto un impatto significativo nel panorama dell’informazione internazionale. Saranno affrontati sia i timori legati all’adozione di questa nuova tecnologia, sia le potenzialità che essa porta con sé, aprendo un dibattito sul futuro dell’arte fotografica e della nostra interazione con le immagini.

La fotografia e l’IA non sono strumenti da temere o da idolatrare, ma linguaggi da comprendere a fondo per poterli usare con lucidità, immaginazione e senso critico. L’obiettivo non è fornire risposte definitive, ma stimolare domande urgenti su chi siamo, su come raccontiamo il mondo e su quale responsabilità scegliamo di assumerci nel farlo.

Il futuro non sarà scritto dalle macchine, ma da chi saprà dialogare con loro, con consapevolezza, usando la tecnologia per ampliare, non per ridurre, la propria umanità.

Il seminario è modulabile per durata e formato (lezione frontale, incontro dialogico, masterclass), in base al contesto e al pubblico di riferimento. Offre strumenti critici per leggere e interpretare le immagini contemporanee e per comprendere come fotografia e intelligenza artificiale influenzino l’informazione e la costruzione della realtà. I partecipanti acquisiranno una maggiore consapevolezza dei meccanismi tecnologici, culturali e di potere che agiscono dietro le immagini, sviluppando un approccio responsabile, creativo e informato al loro utilizzo.


DOCENTE

Filippo Venturi è un fotografo documentarista, artista visivo, docente e divulgatore. Sviluppa progetti che affrontano temi legati all’identità e alla condizione umana. Ha documentato dittature, democrazie in crisi e movimenti per i diritti.

Il suo lavoro indaga scenari contemporanei e futuri plasmati dall’evoluzione tecnologica. Grazie a una laurea in Scienze dell’Informazione e alla sua esperienza nel fotogiornalismo, sviluppa anche progetti in cui integra la fotografia tradizionale con l’uso di nuovi strumenti tecnologici.

Negli ultimi anni la sua ricerca si è focalizzata sul rapporto fra fotografia, informazione, potere e intelligenza artificiale, analizzando come queste dinamiche contribuiscano a plasmare la percezione della realtà.

Accanto alla pratica artistica, tiene corsi e seminari in contesti accademici e culturali, come BergamoScienza e la New York University. È docente nel Master di Giornalismo presso l'Università di Bologna.

I suoi progetti sono stati pubblicati su importanti giornali internazionali, fra cui National Geographic, The Washington Post, The Guardian, The Financial Times, Vanity Fair, Geo, Der Spiegel, Internazionale, La Repubblica, Il Corriere della Sera e La Stampa.

Ha esposto in Italia e all’estero in importanti sedi e festival tra cui il Foro Boario di Modena come “New Talent” della Fondazione Modena Arti Visive, CIFA – Centro Italiano della Fotografia d’Autore di Bibbiena, MACRO – Museo d’Arte Contemporanea di Roma, Somerset House a Londra, U Space a Pechino, Willy Brandt Haus a Berlino, Sony Square a New York, Copenhagen Photo Festival, Helsinki Photo Festival , Voies Off Awards a Les Rencontres d’Arles, Photo Vogue Festival, Photolux a Lucca, SI Fest a Savignano sul Rubicone, Festival di Fotografia Etica di Lodi e il Festival della Fotografia Italiana.

Il suo progetto a lungo termine sulla Penisola Coreana gli è valso numerosi riconoscimenti internazionali, tra cui il Sony World Photography Award, il LensCulture Emerging Talent Award, Il Reportage Award, il Voglino Award e il Portfolio Italia – Grand Premio Hasselblad. I suoi lavori sono stati nominati più volte per il prestigioso Leica Oskar Barnack Award.

Nel 2025 è stato nominato Autore dell’Anno dalla FIAF.

www.filippoventuri.photography
filippo.venturi@gmail.com

Software denudatori, quando l’IA riscrive i corpi by Filippo Venturi

SOFTWARE DENUDATORI
Quando l’IA riscrive i corpi

Grok, l’intelligenza artificiale di Elon Musk, interpellabile sul social network X (ex Twitter), consente da qualche tempo di modificare in pochi secondi le fotografie condivise da altri utenti, pubblicando direttamente il risultato sulla piattaforma.

Così può capitare che una ragazza condivida una propria fotografia e gli utenti, nei commenti, chiedano a Grok di mostrarla in bikini, di farla diventare un uomo, di mostrarne il viso che nella foto originale era celato (il viso generato, presumibilmente, è inventato e non quello reale; ma non sarebbe difficile istruire una IA a cercare altre foto nel profilo di quella ragazza per risalire al viso e inserirlo nell'immagine generata) e così via.

Se è facilmente intuibile quali possano essere le conseguenze negative di questa nuova possibilità, non è ben chiaro quali siano quelle positive. Prima o poi ci scapperà qualche post divertente, e poi? Tutti gli altri deepfake che effetto avranno?

Ufficialmente Grok è stato limitato dai suoi sviluppatori in modo che non possa generare deepfake pornografici; eppure è già capitato che abbia generato immagini pornografiche con ragazze minorenni. Sulla questione è intervenuto anche il governo indiano, che ha chiesto a Musk di porre rimedio (link 1).

Operazioni di denudazioni femminili sono possibili anche con le IA generative di Google e ChatGPT (link 2).

Ovviamente il fenomeno dei deepfake esisteva anche prima, ma richiedeva competenze non comuni. Rendere questa attività alla portata di chiunque sappia scrivere un commento cambia le cose. Forse l'unico pregio (molto relativo, non risolutivo e forse utopistico) è che impareremo a prestare più attenzione a quello che condividiamo online.

Nonostante polemiche e indagini, e le promesse di porvi rimedio, Grok viene usato per produrre in modo sistematico immagini di donne in bikini e in biancheria intima. I ricercatori stimano che Grok sia diventato il più grande creatore di immagini deepfake a sfondo sessuale (link 3).

Come se non bastasse, la domanda per questo tipo di contenuti è così elevata che esistono aziende specializzate nello sviluppo di software "denudatori" (basati su intelligenza artificiale, che prendono online foto di donne, anche minorenni, le denudano e le collocano in contesti pornografici). Due di queste aziende hanno lasciato i loro database aperti e visibili a chiunque con un minimo di conoscenze tecniche (link 4).

Questo tipo di reato è già punibile in diversi casi (in parte dipende dall’eventuale condivisione o pubblicazione, ma non solo), ma l’accessibilità e la scala con cui queste tecnologie operano rendono l’applicazione delle norme esistenti complessa e spesso inefficace. A meno che non si intervenga alla radice, sulla regolamentazione dell’uso delle intelligenze artificiali in contesti delicati come il suddetto.

Nessun algoritmo genera curiosità by Filippo Venturi

Nessun algoritmo genera curiosità

Una riflessione sul rapporto dei giovani con l'intelligenza artificiale

Questa è una fotografia dell'auditorium di un Liceo Scientifico e Artistico di Rimini, dove ho tenuto un intervento su fotografia, informazione e intelligenza artificiale (IA) qualche giorno fa, a sei classi di età compresa fra i 16 e i 18 anni.

Al di là del piacere - e della speranza - di riuscire a fornire stimoli e contenuti utili a orientrarsi in questo panorama sempre più complesso e interdisciplinare, mi ha colpito una cosa che mi è stata riferita in via confidenziale prima dell'inizio del mio talk, e non per la prima volta in contesti scolastici: i giovani dimostrano poco interesse e molta diffidenza nei confronti dell'intelligenza artificiale.

Una buona parte di loro è critica perché lo vede come un modo per barare (nei compiti, ma anche nel produrre contenuti, arte compresa) e questo ha trovato conferma anche nei compiti scritti di alcuni loro compagni di classe che contenevano, a seguito di copia\incolla distratti, i suggerimenti classici di ChatGPT ("Vuoi che lo riscriva con un tono più professionale?", "Vuoi che ti faccia una tabella riassuntiva?", ecc).

Confesso che questa diffidenza non mi dispiace troppo (purché non si trasformi nel tempo in chiusura e rifiuto, ma resti un modo per avvicinarsi con prudenza e spirito critico), specie quando viene da persone che si stanno formando, che stanno costruendo un proprio metodo. È fondamentale attraversare quella fase formativa in cui si impara a consultare le fonti, assorbire informazioni, analizzarle e sintetizzarle in autonomia, mentalmente e per iscritto, senza delegare tutto ad un software basato su IA, limitandosi a imparare a memoria il riassunto generato.

Un concetto che non mi stancherò mai di ripetere è che i lavori visivi che ho svolto con l'intelligenza artificiale non li avrei potuti realizzare con lucidità e consapevolezza se non avessi avuto la mia "cassetta degli attrezzi" composta negli anni (ormai ho una età in cui posso dire nei decenni) da studi informatici, studi fotografici, lavoro sul campo, esperienza e confronto con altri autori. Inoltre i progetti che ho svolto, a parer mio, funzionano proprio perché realizzati con questa nuova tecnologia, criticando o evidenziando alcune caratteristiche (limiti e rischi compresi) di questa stessa tecnologia.

L’intelligenza artificiale può suggerire risposte, ma ai giovani (e non solo) serve soprattutto imparare a farsi le domande giuste e a mettere in discussione il mondo che trovano confezionato dagli adulti. Le risposte sono ovunque, immediate, spesso persino ridondanti; ciò che manca, e che nessuna macchina può generare al nostro posto, è la capacità di interrogarci sul mondo con curiosità e profondità.

Tavola rotonda su IA e Arte by Filippo Venturi

Giovedì 11 dicembre 2025, alle ore 20.30, presso la Fabbrica delle Candele a Forlì, avrò il piacere di partecipare a una tavola rotonda sul tema Intelligenza Artificiale e Arte, nell’ambito della serata intitolata “Oltre l’algoritmo” che chiude il corso di cinema AI Film Factory!

Una serata dedicata a esplorare l’intelligenza artificiale come nuovo mezzo creativo, accessibile e inclusivo, e a riflettere su come le tecniche artistiche tradizionali si trasformano quando incontrano gli strumenti dell’AI.

In programma:

  • Tavola rotonda moderata dalla giornalista Roberta Invidia, con Filippo Venturi (fotoreporter), Serge Gualini (artista AI), Francesca Leoni e Davide Mastrangelo (direttori artistici di Ibrida Festival).

  • Proiezione del cortometraggio di Francesca Fini, interamente realizzato con varie piattaforme di AI.

  • Presentazione dei lavori finali dei partecipanti ad AI Film Factory, il percorso formativo di 50 ore rivolto ai giovani dai 14 ai 35 anni.

L’ingresso è gratuito e aperto a tutte e tutti.

Sarà un’occasione per incontrarsi, condividere visioni e riflettere insieme sui linguaggi che stanno ridefinendo il nostro modo di creare e immaginare.

Cosa resta dell'Arte - Intervista per In Magazine by Filippo Venturi

Su In Magazine Forlì-Cesena è uscito un interessante articolo di Roberta Invidia in cui intervista il sottoscritto, Francesca Leoni e Davide Mastrangelo (direttori artistici del Festival Ibrida) su come sta evolvendo l'arte dall'arrivo dell'intelligenza artificiale :)


Cosa succede all’arte, e al ruolo dell’autore, quando l’intelligenza artificiale sembra saper fare tutto? Da questa domanda siamo partiti per interrogare chi, nella fotografia e nell’arte, ha già fatto i conti con questa nuova tecnologia. Nel dialogo tra Filippo Venturi – fotografo cesenate pluripremiato per i suoi reportage d’attualità – e Francesca Leoni e Davide Mastrangelo – ideatori e direttori artistici di Ibrida Festival che porta a Forlì la video art e le performance multimediali –, emerge che, paradossalmente, più la tecnologia diventa autonoma, più diventa necessario sapere di chi è la paternità di un pensiero, di un’opera. Un nuovo spazio di autenticità da cui ripartire.

“L’intelligenza artificiale mi ha incuriosito da subito,” dice Filippo Venturi che è laureato in Scienze dell’Informazione a Bologna. “Ho cominciato a sperimentare nel 2023 e poi mi sono appassionato a Midjourney: mi incuriosiva il modo in cui le immagini generate dal software potevano imitare la fotografia, anche se in modo ancora approssimativo.” Da quell’esperimento è nato Broken Mirror, un progetto che “ri-racconta” il suo reportage fotografico sulla Corea del Nord. [...]

L’articolo integrale si può leggere gratuitamente online, a questo link:
https://www.inmagazineromagna.it/forli-in-magazine-04-25/

Nota dell'Autore by Filippo Venturi

Una immagine dal mio lavoro “Handbook of escape”, generata con l’IA /// An image from my work “Handbook of Escape”, generated with AI.


Nota dell’autore

Ho scelto di inserire questa Nota per chiarire come utilizzo l’intelligenza artificiale (IA) nei miei testi. Così come auspico trasparenza per le immagini generate con IA (soprattutto quando imitano la fotografia, in particolare in questa fase storica), la ritengo importante anche nella scrittura. Mi piacerebbe che indicazioni di questo tipo comparissero più spesso anche nei giornali e nelle altre fonti che consulto, magari accompagnate da dettagli specifici nel caso di un uso più esteso o diversificato di questa tecnologia.

Nei miei articoli utilizzo strumenti basati sull’intelligenza artificiale come assistenti editoriali, ma le idee, le interpretazioni e le connessioni concettuali sono interamente umane e frutto della mia ricerca personale.

Impiego l’IA nella fase di revisione della bozza per individuare eventuali errori grammaticali, refusi o imprecisioni concettuali, verificare la correttezza di date e riferimenti, valutare la chiarezza del testo per un pubblico che potrebbe non conoscere i temi trattati (sigle, acronimi, termini tecnici) e ridurre le ripetizioni.

Valuto e verifico sempre ogni suggerimento dell’IA, consapevole che in alcuni casi può generare errori o “allucinazioni”, cioè dati inventati o distorti. Nessuna modifica proposta viene applicata automaticamente.

Non la utilizzo per generare contenuti originali, elaborare tesi o formulare giudizi. Ogni argomento, esempio e analisi proviene dal mio lavoro, dalla mia esperienza diretta o da fonti verificabili.

Credo che il ruolo dell’autore oggi non sia quello di escludere la tecnologia, ma di governarla in modo consapevole e trasparente.

È importante aggiornare o modificare la Nota in funzione dell’uso effettivo dell’IA, così che resti uno strumento di trasparenza autentica e non una formula di rito.


Author’s Note

I chose to include this note to clarify the way in which I use artificial intelligence (AI) in my writing. Just as I advocate for transparency in AI-generated images (especially when they imitate photography), I believe it is equally important in written work. I would like to see such statements appear more frequently in newspapers and other sources I consult — ideally accompanied by specific details when this technology is used more extensively or in diverse ways.

In my articles, I use AI tools as editorial assistants, but the ideas, interpretations, and conceptual connections are entirely human and the result of my own research.

I employ AI during the draft revision phase to identify possible grammatical errors, typos, or conceptual inaccuracies; to check the accuracy of dates and references; to assess the clarity of the text for readers who may not be familiar with the topics discussed (such as acronyms, abbreviations, or technical terms); and to reduce repetitions.

I carefully review and verify all AI suggestions, aware that in some cases it may produce errors or so-called “hallucinations,” — invented or distorted information. No proposed change is ever applied automatically.

I do not use AI to generate original content, develop theses, or formulate judgments. Every topic, example, and analysis originates from my own work, direct experience, or verifiable sources.

I believe the author’s role today is not to exclude technology, but to govern it consciously and transparently.

It is important to update or modify this note according to the actual use of AI, so that it remains a genuine instrument of transparency rather than a mere formality.