AI e analisi medica

L’applicazione dell’intelligenza artificiale nel campo dell’analisi di dati d’imaging medico viene spesso presentata come una svolta tecnologica per la diagnosi e la gestione del cancro.

Sebbene i risultati iniziali mostrino che algoritmi di deep learning possono individuare e quantificare con una certa precisione le masse tumorali, è importante tenere conto delle limitazioni tuttora esistenti, come la necessità di dati di qualità, di un’adeguata validazione clinica e della trasparenza negli algoritmi.

Un recente esempio è il concorso internazionale AutoPET, dove il Karlsruhe Institute of Technology (KIT) si è posizionato al quinto posto. Stando a quanto riportato su Nature Machine Intelligence, i migliori sette gruppi di ricerca hanno messo in luce il potenziale degli algoritmi nel riconoscimento delle lesioni maligne su tomografie a emissione di positroni (PET) e tomografie computerizzate (TC).

Tuttavia, non mancano questioni aperte: l’affidabilità dei risultati in contesti reali, la mancanza di standard di valutazione condivisi e la tutela dei dati sensibili rimangono sfide ancora tutte da affrontare

L’importanza dell’imaging e le attuali criticità

Nella diagnosi oncologica, individuare in modo accurato sede, estensione e tipologia del tumore è cruciale per scegliere una strategia terapeutica adeguata.

Le tecniche di imaging principali — PET e TC — forniscono informazioni vitali sia sui processi metabolici sia sulla struttura anatomica del paziente.

Nonostante queste tecniche siano ampiamente collaudate, la loro interpretazione, in particolare per i casi più complessi, dipende ancora molto dall’esperienza del radiologo e può risultare laboriosa.

Se da un lato gli algoritmi di intelligenza artificiale promettono di accelerare e standardizzare l’analisi, dall’altro c’è il rischio di sottovalutare l’importanza del fattore umano, soprattutto in situazioni cliniche atipiche o poco rappresentate nei dataset di addestramento.

Possibili vantaggi dell’automazione, ma anche zone d’ombra

Quando un paziente oncologico presenta numerose lesioni, una segmentazione esaustiva del tumore richiede un impegno di tempo notevole per il medico, che attualmente si basa su un’analisi manuale.

Automatizzare almeno in parte questo processo consentirebbe di guadagnare ore preziose e garantire potenzialmente una maggiore uniformità nella valutazione.

Eppure, l’affidarsi a un algoritmo non è esente da rischi: errori di segmentazione o diagnosi errate dovute a dati di scarsa qualità o modelli poco generalizzabili intrinseci potrebbero comportare conseguenze negative per i pazienti, specialmente se i risultati venissero accettati acriticamente senza un controllo umano.

L’esperienza di AutoPET e la natura sperimentale degli algoritmi

Nel concorso AutoPET del 2022, i ricercatori del KIT, in collaborazione con gli esperti dell’IKIM – Istituto per l’Intelligenza Artificiale in Medicina di Essen, hanno ottenuto un ottimo piazzamento, classificandosi quinti su 27 team internazionali (per un totale di 359 partecipanti).

La sfida richiedeva la segmentazione automatizzata delle lesioni tumorali in PET/TC, facendo leva su un ampio dataset di immagini.

L’uso di algoritmi basati su reti neurali profonde (deep learning) ha mostrato risultati promettenti, come la capacità di riconoscere pattern complessi e di trarre correlazioni dai dati.

Tuttavia, il successo in una competizione non garantisce che la stessa tecnologia sia matura per un uso diffuso nella pratica clinica quotidiana: l’eterogeneità dei pazienti, la variabilità delle apparecchiature e le differenze tra ospedali possono costituire ostacoli importanti alla reale implementazione.

Il ruolo di una “squadra” di algoritmi e perché serve più ricerca
Nell’articolo di Nature Machine Intelligence si spiega che, unendo i migliori algoritmi (in una sorta di “squadra”, chiamata ensemble), si ottengono risultati migliori rispetto all’uso di un singolo algoritmo.

È come avere diversi esperti che, confrontandosi, possono correggere l’uno gli errori dell’altro.

Questo però rende il sistema più complicato e richiede test approfonditi per verificare che funzioni bene con vari tipi di dati.

Il professor Stiefelhagen sottolinea quanto sia importante la qualità dei dati di partenza e il modo in cui si progettano i programmi.

Non parla però di altri problemi, come il fatto che spesso le reti neurali sono “scatole nere” (cioè non si capisce bene come prendano certe decisioni), di come verificare più volte gli stessi risultati e di chi sia responsabile in caso di errore.

Il ruolo di una “squadra” di algoritmi e perché serve più ricerca
Nell’articolo di Nature Machine Intelligence si spiega che, unendo i migliori algoritmi (in una sorta di “squadra”, chiamata ensemble), si ottengono risultati migliori rispetto all’uso di un singolo algoritmo.

È come avere diversi esperti che, confrontandosi, possono correggere l’uno gli errori dell’altro.

Questo però rende il sistema più complicato e richiede test approfonditi per verificare che funzioni bene con vari tipi di dati.

Il professor Stiefelhagen sottolinea quanto sia importante la qualità dei dati di partenza e il modo in cui si progettano i programmi.

Non parla però di altri problemi, come il fatto che spesso le reti neurali sono “scatole nere” (cioè non si capisce bene come prendano certe decisioni), di come verificare più volte gli stessi risultati e di chi sia responsabile in caso di errore.

Prospettive future e cautela necessaria

L’obiettivo finale, secondo gli autori, è arrivare a una completa automatizzazione dell’interpretazione dei dati PET e TC.

Se da un lato questo scenario potrebbe alleggerire il carico di lavoro degli specialisti, dall’altro non si possono ignorare il rischio di sovradiagnosi e l’eventuale incapacità degli algoritmi di cogliere situazioni cliniche rare o impreviste.

Prima che tali metodi diventino uno standard, saranno indispensabili studi di validazione clinica indipendenti e controlli di qualità rigorosi.

Inoltre, la protezione dei dati sensibili dei pazienti e la gestione del consenso informato dovranno restare al centro del dibattito, per evitare che una tecnologia concepita per il bene comune metta in ombra questioni etiche fondamentali.

Facebook
Twitter
LinkedIn
WhatsApp

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *