Non basta dire che è falso / by Filippo Venturi

Non basta dire che è falso

In questi giorni sta girando una immagine modificata con l’intelligenza artificiale che mostra una realtà falsa in cui il colono israeliano e la donna palestinese - di cui si è parlato molto nei giorni scorsi e di cui ho scritto nel post “L’Abuso” - sorridono e si danno la mano, in un atteggiamento complice che lascerebbe pensare che l’abuso dell’uomo sulla donna, visibile nella potente fotografia del fotogiornalista Pietro Masturzo, apparsa sulla copertina del settimanale L’Espresso, possa essere in realtà una messa in scena.

Si tratta di un tentativo meschino di alterare i fatti. Dopo vari tentativi di sminuire l’episodio (uno dei tanti abusi, noti, dei coloni israeliani verso i palestinesi), evidentemente qualcuno ha provato a giocare la carta del complotto.

Oltre a questo, però, c’è una ingenuità che vedo ripetersi da tempo, compiuta da alcuni debunker, fact-checker o anche semplici persone in buona fede che denunciano immagini false o generate con l’IA, che consiste nel ripubblicarle integralmente, senza inserire sull’immagine un watermark evidente che le identifichi subito come fake.

Nel tentativo di smontare un tentativo di disinformazione, si rischia di alimentarne la circolazione. Queste immagini fake, senza l’indicazione visiva che sono fake, vengono condivise, screenshottate, salvate, ritagliate e ricondivise altrove, rischiando di perdere il contesto originale della smentita.

Possono comparire nei risultati dei motori di ricerca, nelle anteprime o nelle ricerche per immagini, dove molti utenti le vedranno senza aprire l’articolo che spiega che si tratta di un falso.

In un ecosistema digitale dove il contenuto viaggia più veloce della spiegazione, non basta dire “questa immagine è fake”, ma è necessario renderlo visibile sull’immagine stessa. Altrimenti il tentativo di smontare la disinformazione rischia di diventare, involontariamente, promozione della fake news.