L'intelligence artificielle transparente améliore l'évaluation de l'agressivité du cancer de la prostate
L'IA parle le langage des pathologistes
Jusqu'à présent, l'agressivité du cancer de la prostate était évaluée principalement à l'aide du système de classification de Gleason - une analyse du tissu cancéreux dans un laboratoire de pathologie qui est très subjective. Une équipe de recherche internationale dirigée par le Centre allemand de recherche sur le cancer (DKFZ) a mis au point un nouveau modèle d'IA explicable qui vise à rendre le diagnostic du cancer de la prostate plus transparent et moins sujet à l'erreur.
"Les modèles d'IA précédents peuvent faire des prédictions sur les scores de Gleason, mais ne fournissent souvent pas d'explication compréhensible, ce qui limite leur acceptation clinique", explique Titus Brinker du DKFZ. Le nouveau système mis au point se passe d'explications rétrospectives et se base directement sur les descriptions de la pathologie. À cette fin, 1 015 échantillons de tissus ont été annotés avec des explications détaillées par des experts internationaux.
L'étude, à laquelle ont participé 54 pathologistes de dix pays, présente l'une des collections les plus complètes d'annotations de tissus basées sur des explications. En conséquence, l'équipe de Heidelberg présente "GleasonXAI", une IA qui propose des décisions interprétables, semblables à celles que fournirait un pathologiste.
En utilisant ce que l'on appelle des "étiquettes douces", qui reflètent les incertitudes entre les évaluations individuelles des pathologistes, l'IA a été en mesure d'obtenir des résultats reproductibles malgré une grande variabilité. En comparaison directe avec les modèles conventionnels, GleasonXAI a atteint une précision équivalente ou supérieure, tout en offrant une plus grande transparence.
L'IA parle le langage des pathologistes
Des pathologistes d'Allemagne, des États-Unis, du Canada, de Suisse et d'autres pays ont participé à l'étude. Les experts ont contribué au projet avec une moyenne de 15 ans d'expérience clinique. Outre le développement du modèle, l'équipe publie également le plus grand ensemble de données librement accessibles à ce jour, avec des annotations explicatives pour les schémas de Gleason, afin de faire progresser la recherche sur l'IA explicable.
"Pour la première fois, nous avons développé un système d'IA qui reconnaît les caractéristiques tissulaires des modèles de Gleason et les explique de la même manière qu'un pathologiste", explique Gesa Mittmann, co-auteur de l'étude. "Cela devrait renforcer la confiance et l'acceptation de l'IA dans la pratique clinique quotidienne."
Potentiel pour la pratique clinique
Les résultats montrent que l'IA explicable peut être mise en œuvre de manière pratique sans compromettre les performances. Cela pourrait accélérer son utilisation dans la pathologie de routine, ce qui est très pertinent, en particulier à une époque où les taux de cancer augmentent et où les capacités des spécialistes diminuent.
En outre, le modèle facilite la formation : "Les segmentations explicables peuvent notamment aider les jeunes pathologistes à comprendre les schémas typiques et à poser plus rapidement des diagnostics fiables", souligne M. Brinker.
Note: Cet article a été traduit à l'aide d'un système informatique sans intervention humaine. LUMITOS propose ces traductions automatiques pour présenter un plus large éventail d'actualités. Comme cet article a été traduit avec traduction automatique, il est possible qu'il contienne des erreurs de vocabulaire, de syntaxe ou de grammaire. L'article original dans Anglais peut être trouvé ici.
Publication originale
Gesa Mittmann, Sara Laiouar-Pedari, Hendrik A. Mehrtens, Sarah Haggenmüller, Tabea-Clara Bucher, Tirtha Chanda, Nadine T. Gaisa, Mathias Wagner, ... Siamak Sakhaie, Michelle R. Downes, Hiroshi Miyamoto, Sean R. Williamson, Tim Holland-Letz, Christoph Wies, Carolin V. Schneider, Jakob Nikolas Kather, Yuri Tolkach, Titus J. Brinker; "Pathologist-like explainable AI for interpretable Gleason grading in prostate cancer"; Nature Communications, Volume 16, 2025-10-8