Slider news

Un’immagine mente più di mille parole

di Antonio Calamo

La disinformazione su internet corre veloce. Le cifre segnalate da Facebook nell’ultimo Community Standards Enforcement Report del 2020 sono impressionanti: 2 miliardi di profili falsi, 50 milioni di contenuti inattendibili solo sull’emergenza COVID-19. E le fake news sui media non viaggiano da sole: per avere maggior credito, sono spesso accompagnate da fotografie. Il vecchio adagio “vedere per credere” in piena epoca digitale non ha molto senso. L'ampia disponibilità di semplici strumenti di modifica e manipolazione delle immagini per computer e smartphone e sistemi come l’Intelligenza Artificiale e il Machine Learning, che si sostituiscono alle abilità personali, permettono a chiunque di alterare le foto.

Pensate alle app per l’invecchiamento del volto, che in maniera totalmente automatica alterano i tratti somatici di un ritratto simulando le modifiche apportate dal tempo. I risultati sono credibili perché il programma fa capo a un enorme database di volti di età differenti, per fare esperienza e trarne un modello convincente dell’invecchiamento, e tutto questo su qualcosa che viene visto come un giochino innocuo. Il gioco, però, smette di essere tale quando lo scopo è malevolo.

Nel 2017 la rivista Cognitive Research: Principles and Implications ha pubblicato uno studio dal titolo “Can people identify original and manipulated photos of realworld scenes?” che si poneva una semplice domanda: le persone sono in grado di determinare se una foto è stata falsificata? I risultati non sono stati dei migliori: nella prima parte del test, dove si chiedeva di determinare se una foto fosse stata modificata oppure no, solo il 60% delle immagini è stata valutata correttamente. Una performance che supera di poco l'esito ottenibile con una scelta casuale, ma non è soddisfacente. Esistono comunque delle contromisure per smascherare i falsi.

La prima verifica che si può fare è controllare la congruenza della scena: luci ed ombre devono rispondere ai normali principi fisici e anche la prospettiva deve essere realistica. Il secondo passo, come per la notizia riportata, è cercare le fonti: Google, ad esempio, ha un enorme database del web. Questo lo rende uno dei migliori detective di immagini. Per controllare da dove proviene l’originale si esegue una ricerca inversa: basta fare ricerca per immagini trascinando e rilasciando l’illustrazione sulla barra di ricerca, e verrà fornito un elenco di siti che ospitano la stessa immagine. Altre alternative per queste operazioni sono siti come TinEye o Yandex.

FotoForensics, invece, è un programma che permette di rilevare l’alterazione di un’elaborazione fatta tramite programmi di foto editing, utilizzando l'Error Level Analysis (ELA) per identificare le aree all'interno di un'immagine che si trovano a diversi livelli di compressione. Con le immagini JPEG, l'intera immagine dovrebbe avere quasi lo stesso livello di errore, causato dalla riduzione di dimensione del file. Se una sezione dell'immagine presenta un livello di errore notevolmente diverso, probabilmente indica una modifica digitale. Altri programmi che funzionano in maniera analoga sonoJPEGsnoop e Ghiro.

Anche i video non sfuggono alla manipolazione: uno dei fenomeni più inquietanti degli ultimi tempi è il Deepfake, un sistema che tramite la AI e una tecnologia di apprendimento automatico, conosciuta come rete antagonista generativa (GAN) permette di sovrapporre parti di immagini e video falsi a quelli originali in una fusione perfetta. È una tecnica con cui si ottengono risultati simili a quelli degli effetti speciali nel cinema, come il ritorno di un giovane Luke Skywalker nella serie The Mandalorian, e viene usata per alterare video di personaggi famosi o politici, ma anche per realizzare video porno sostituendo il volto della pornostar con quello di attrici famose o nel caso di revenge porn con il volto della persona che si vuole colpire. I rilevatori di falsificazione di immagini convenzionali non riescono a riconoscere le immagini false generate dal generatore basato su GAN.

Un recente studio “Deep Fake Image Detection Based on Pairwise Learning” pubblicato su Applied Sciences nel gennaio 2020 propone un approccio basato sul deep learning per rilevare le immagini false. In attesa, comunque, di sistemi di analisi e di algoritmi di fact checking sempre migliori, uno spirito critico e un controllo incrociato delle fonti sono la via maestra per approcciarsi alle informazioni che ogni giorno ci vengono date.

CLICCA QUI PER CONSULTARE I VARI NOTIZIARI