L'intelligenza artificiale trasparente migliora la valutazione dell'aggressività del cancro alla prostata

L'intelligenza artificiale parla la lingua dei patologi

14.10.2025
AI-generated image

Immagine simbolica

Fino ad oggi, l'aggressività del cancro alla prostata è stata valutata principalmente con il sistema di classificazione Gleason, un'analisi del tessuto tumorale in un laboratorio di patologia che è altamente soggettiva. Un team di ricerca internazionale guidato dal Centro tedesco di ricerca sul cancro (DKFZ) ha ora sviluppato un nuovo modello di intelligenza artificiale spiegabile che mira a rendere la diagnosi del cancro alla prostata più trasparente e meno soggetta a errori.

"I precedenti modelli di intelligenza artificiale sono in grado di fare previsioni sui punteggi Gleason, ma spesso non forniscono una spiegazione comprensibile, il che ne limita l'accettazione clinica", spiega Titus Brinker del DKFZ. Il sistema di nuova concezione rinuncia a spiegazioni retrospettive e si basa direttamente sulle descrizioni della patologia. A tal fine, 1.015 campioni di tessuto sono stati annotati con spiegazioni dettagliate da esperti internazionali.

Lo studio, che ha coinvolto 54 patologi di dieci Paesi, presenta una delle raccolte più complete di annotazioni di tessuti basate su spiegazioni. Di conseguenza, il team di Heidelberg presenta "GleasonXAI", un'intelligenza artificiale che offre decisioni interpretabili, simili a quelle che fornirebbe un patologo.

Utilizzando le cosiddette "etichette morbide", che riflettono le incertezze tra le valutazioni dei singoli patologi, l'IA è riuscita a ottenere risultati riproducibili nonostante l'elevata variabilità. In un confronto diretto con i modelli convenzionali, GleasonXAI ha ottenuto un'accuratezza equivalente o migliore, offrendo al contempo una maggiore trasparenza.

L'IA parla la lingua dei patologi

Allo studio hanno partecipato patologi provenienti da Germania, Stati Uniti, Canada, Svizzera e altri Paesi. Gli esperti hanno contribuito al progetto con una media di 15 anni di esperienza clinica. Oltre a sviluppare il modello, il team sta anche pubblicando il più grande set di dati liberamente disponibile ad oggi con annotazioni esplicative per i modelli Gleason, al fine di far progredire ulteriormente la ricerca sull'IA spiegabile.

"Per la prima volta abbiamo sviluppato un sistema di intelligenza artificiale che riconosce le caratteristiche tissutali degli schemi di Gleason e le spiega in modo simile a un patologo", afferma Gesa Mittmann, coautrice dello studio. "Questo dovrebbe aumentare la fiducia e l'accettazione dell'IA nella pratica clinica quotidiana".

Potenziale per la pratica clinica

I risultati dimostrano che l'IA spiegabile può essere implementata in modo pratico senza compromettere le prestazioni. Ciò potrebbe accelerarne l'utilizzo nella patologia di routine, un aspetto molto importante soprattutto in tempi di aumento dei tassi di cancro e di riduzione delle capacità specialistiche.

Inoltre, il modello supporta anche la formazione: "Le segmentazioni spiegabili possono aiutare in particolare i giovani patologi a comprendere i modelli tipici e a formulare più rapidamente diagnosi affidabili", sottolinea Brinker.

Nota: questo articolo è stato tradotto utilizzando un sistema informatico senza intervento umano. LUMITOS offre queste traduzioni automatiche per presentare una gamma più ampia di notizie attuali. Poiché questo articolo è stato tradotto con traduzione automatica, è possibile che contenga errori di vocabolario, sintassi o grammatica. L'articolo originale in Inglese può essere trovato qui.

Pubblicazione originale

Altre notizie dal dipartimento scienza

Le notizie più lette

Altre notizie dagli altri portali