INTELLIGENZA ARTIFICIALE: UNO STUDIO ITALIANO ILLUSTRA COME DIFENDERSI DAGLI “ATTACCHI” ALL’IMAGING RADIOLOGICO

INTELLIGENZA ARTIFICIALE: UNO STUDIO ITALIANO ILLUSTRA COME DIFENDERSI DAGLI “ATTACCHI” ALL’IMAGING RADIOLOGICO

ROMA\ nflash\ - Uno studio, frutto della collaborazione tra l’Istituto di fisica applicata “Nello Carrara” del Cnr e l’Università di Pisa, ha evidenziato come il “machine learning”, che utilizza gli algoritmi per l’analisi delle immagini cliniche, può essere utilizzato anche per modificarle, creando i cosiddetti “attacchi avversi”, in grado di ingannare gli stessi sistemi di analisi. La ricerca è stata pubblicata sulla rivista European Journal of Nuclear Medicine and Molecular Imaging del gruppo Springer Nature.
L'articolo, a firma di Andrea Barucci per il Cnr-Ifac e dal radiologo Emanuele Neri dell’Università di Pisa, analizza attraverso lo strumento del machine learning la possibilità di modificare le immagini radiologiche, pilotando l’esito di una diagnosi. Un rischio che solo lo studio dell’Intelligenza Artificiale (AI) può consentire di fronteggiare, sventando errori o azioni compiute in malafede.
“Nel mondo digitale, la sanità 4.0 si muove veloce verso una nuova visione, fondata su dati e integrazione di informazioni. Le analisi basate sull’AI”, spiega Barucci, “costituiscono uno strumento sempre più diffuso in tutti gli ambiti clinici, suscitando grandi aspettative. Un esempio è la Radiomica, ossia l’estrazione di parametri quantitativi dalle immagini radiologiche, con cui creare modelli diagnostici e predittivi: uno strumento ormai ampiamente utilizzato e, negli ultimi anni, rafforzato dall’introduzione delle reti neurali, dando origine alla deep-radiomics. Il machine learning, su cui principalmente si fonda la potenza di queste analisi informatiche delle immagini, può tuttavia essere usato anche in modo negativo, per creare attacchi avversi ai sistemi di analisi delle immagini, cioè modifiche ad hoc delle immagini, impercettibili anche all’occhio umano esperto, studiate per ingannare gli stessi algoritmi e pilotare l’esito di una diagnosi”.
Lo studio dei due ricercatori definisce questo fenomeno in ambito di imaging radiologico come “Adversarial Radiomics”. “Un’analogia con il più ampio campo di ricerca dell’adversarial machine learning, in cui il fenomeno è studiato da anni, per esempio, nella cyber-security e nella guida autonoma”, aggiunge Neri.
“Gli esempi avversi sono un problema relativamente recente nello studio del machine learning, ma la loro applicazione all’imaging clinico è un ambito ancor più nuovo e con risvolti sociali importanti”, prosegue Barucci, “ad esempio nelle frodi assicurative. D’altronde proprio lo studio di questi esempi avversi è estremamente utile per approfondire la comprensione di algoritmi complessi come le reti neurali e migliorare lo sfruttamento degli strumenti informatici a disposizione”.
“L’intuizione del radiologo è ancora essenziale nel controllo e nell’integrazione delle complesse analisi fornite dagli algoritmi di intelligenza artificiale e il futuro impone una sempre maggiore armonizzazione fra l’analisi informatica e quella umana”, conclude Neri. “Lo studio vuole mettere in luce come i nuovi strumenti di analisi digitale basati sull’Ai dovranno essere sempre più volti proprio a migliorare quest’interazione (human in the loop)”. (aise)


Newsletter
Rassegna Stampa
 Visualizza tutti gli articoli
Notiziario Flash
 Visualizza tutti gli articoli