Pourquoi l'IA détectant le cancer doit être manipulée avec soin

De nos jours, il peut sembler que les algorithmes diagnostiquent à chaque tour les médecins, identifiant les lésions dangereuses et les taupes douteuses avec la cohérence infaillible que seule une machine peut rassembler. Ce mois-ci, Google a généré une vague de manchettes avec une étude montrant que ses systèmes d'IA peuvent détecter le cancer du sein dans les mammographies plus précisément que les médecins.

Mais pour beaucoup dans les soins de santé, ce que des études comme celles-ci démontrent n'est pas seulement la promesse de l'IA, mais aussi sa menace potentielle. Ils disent que pour toutes les capacités évidentes des algorithmes à analyser les données, les compétences subtiles et fondées sur le jugement des infirmières et des médecins ne sont pas si facilement numérisées. Et dans certains domaines où les entreprises technologiques poussent l'IA médicale, cette technologie pourrait exacerber les problèmes existants.

Les inconvénients de trouver plus de cancer

Pour la mammographie de Google, la principale critique est que la société tente d'automatiser un processus déjà quelque peu controversé. Comme l'a souligné Christie Aschwanden dans Filaire Plus tôt ce mois-ci, les médecins ont fait valoir pendant des années que les analyses précoces du cancer du sein pouvaient nuire autant qu'elles aidaient, et l'introduction de l'IA pourrait faire pencher la balance.

"Il y a cette idée dans la société que trouver plus de cancers est toujours mieux, mais ce n'est pas toujours vrai", a déclaré Adewole Adamson, dermatologue et professeur adjoint à la Dell Medical School. Le bord. "Le but est de trouver plus de cancers qui vont en fait tuer des gens." Mais le problème est "qu'il n'y a pas d'étalon-or pour ce qui constitue le cancer."

Comme l'ont montré des études, vous pouvez montrer les mêmes lésions à un stade précoce à un groupe de médecins et obtenir des réponses complètement différentes sur la question de savoir s'il s'agit d'un cancer. Et même s'ils conviennent que c'est ce que montre une lésion – et leurs diagnostics sont droite il n'y a aucun moyen de savoir si ce cancer est une menace pour la vie de quelqu'un. Cela conduit à un surdiagnostic, dit Adamson: "Appeler des choses cancer qui, si vous ne les recherchiez pas, ne nuirait pas aux gens au cours de leur vie."

Dès que vous appelez quelque chose un cancer, cela déclenche une chaîne d'intervention médicale qui peut être douloureuse, coûteuse et changer la vie. Dans le cas du cancer du sein, cela pourrait signifier des traitements de radiothérapie, une chimiothérapie, l'ablation des tissus du sein (une tumorectomie), ou l'ablation d'un ou des deux seins entièrement (une mastectomie). Ce ne sont pas des décisions à précipiter.

L'algorithme de Google peut détecter les lésions dans les mammographies de manière plus fiable que certains médecins, mais comment cela devrait-il être appliqué?
Image: Google

Mais la complexité d'un tel diagnostic n'est pas suffisamment prise en compte dans l'étude de Google, explique Adamson. Premièrement, les chercheurs de l’entreprise ont formé leur algorithme sur des images qui avaient déjà été identifiées comme cancéreuses ou non. Mais comme il n'y a pas d'étalon-or pour le diagnostic du cancer, en particulier le cancer précoce, on peut se demander si ces données de formation fournissent une bonne base de référence. Deuxièmement, l'algorithme de Google ne produit que des résultats binaires: oui, c'est un cancer, ou non, ce n'est pas le cas. Comme Adamson le fait valoir dans un article récent, il doit y avoir de la place pour l'incertitude, une troisième option qui représente la zone grise du diagnostic et qui prolonge le débat plutôt que de le fermer.

Interrogée sur ces problèmes, l'équipe de Google a déclaré Le bord que la réduction par leurs algorithmes des taux de faux positifs (incidents lorsque quelque chose est identifié à tort comme un cancer) réduirait la menace de surdiagnostic. Ils ont également souligné que le document était une «recherche à un stade précoce» et qu'ils étudieraient à l'avenir le type d'analyse non binaire que préconise Adamson.

"C'est exactement le genre de recherche que nous entreprendrons avec nos partenaires dans une prochaine étape", a déclaré un porte-parole de Google Health. «Nous espérons explorer des considérations de flux de travail, des considérations d'interface utilisateur, parmi de nombreux autres domaines.»

Pour Adamson, cependant, ces défis sont plus importants qu'un seul article. Le surdiagnostic, dit-il, «est un problème pour de nombreux cancers différents; pour la prostate, le mélanome, le cancer du sein, la thyroïde. Et si les systèmes d'IA deviennent de mieux en mieux pour trouver des lésions de plus en plus petites, vous allez fabriquer beaucoup de pseudo-patients qui ont une «maladie» qui ne les tuera pas réellement. »

Le surdiagnostic est un défi lors de l'intégration de l'IA dans la médecine, mais pour certains médecins, les racines du problème sont plus profondes. On ne les trouve pas dans des articles ou des algorithmes spécifiques, mais dans la confiance du monde de l'IA qu'il peut supplanter toute une catégorie de travaux médicaux: la radiologie.

En 2016, le pionnier de l'IA Geoffrey Hinton (l'un des trois «parrains de l'IA» qui a remporté le prix Turing 2018) a déclaré: «Les gens devraient cesser de former des radiologues maintenant. Il est tout à fait évident qu'en cinq ans, l'apprentissage en profondeur fera mieux que les radiologues. "En 2017, le cofondateur de Google Brain, Andrew Ng, répété le point tout en commentant un algorithme qui détecte la pneumonie des rayons X: "Les radiologues devraient-ils s'inquiéter de leur travail?"

La rhétorique s'est calmée ces dernières années, mais pour les vrais radiologues, ces extraits sonores ont toujours semblé peu judicieux et un peu insultants. (Comme Hinton l'a noté en 2016 quand il se souvenait d'avoir prophétisé sur le destin des radiologistes dans un hôpital: «Cela ne s'est pas trop bien passé.») Bien que les algorithmes soient certainement capables de repérer des caractéristiques spécifiques de l'imagerie médicale ainsi que des médecins, c'est loin pleurer de pouvoir enfiler une robe et commencer à marcher dans les salles.

Le cœur du problème est que les radiologues ne se contentent pas de regarder des images, explique Hugh Harvey, radiologue et consultant en technologies de la santé. «C'est une incompréhension totale de ce que font les radiologistes.» Le travail, dit-il, «ressemble plus à la lecture d'un roman et à la rédaction d'un résumé de ce dont il s'agit.»

FRANCE-SANTÉ-CANCER-IRM-ROBOT

Certains experts ont affirmé que l'IA remplacera les radiologues, mais les radiologues disent qu'ils ne comprennent pas de quoi il s'agit.
Photo de Stéphane De Sakutin / AFP via Getty Images

Comme Harvey l'a noté dans un article de blog en 2018, cela implique de planifier et de préparer les patients, de collecter les données de diverses manières (fluoroscopies, échographies, biopsies, etc.), de les mettre en corrélation avec d'autres parties du diagnostic et de s'engager dans toutes sortes des tâches auxiliaires, comme l'enseignement, la formation et l'audit du travail des autres. «L'IA ne peut vraiment pas remplacer ce que font les radiologistes dans un sens», explique Harvey. «Il peut trouver des choses difficiles à trouver et les montrer aux radiologues pour obtenir un avis», mais pas beaucoup plus.

Les origines de la confiance excessive du monde de l'IA ne résident pas dans une vendetta particulière contre les radiologistes, mais dans les affinités structurelles de l'intelligence artificielle elle-même. La vision industrielle s'est avérée être, de loin, la plus grande force de l'apprentissage en profondeur, la saveur dominante de l'IA. C'était un test de reconnaissance d'image qui a lancé le boom actuel de l'IA en 2012, et ce sont des algorithmes de vision d'apprentissage en profondeur qui sous-tendent ses applications les plus puissantes, des voitures autonomes à la reconnaissance faciale.

Pour cette raison, les chercheurs en intelligence artificielle ont beaucoup à gagner en appliquant des algorithmes de vision relativement standard aux ensembles de données médicales. Cela génère beaucoup de «premières», car l'IA apprend à repérer la caractéristique X dans les données Y et crée l'impression d'une vague de progrès technologique en évolution rapide. Les médecins disent que les applications les plus similaires à celles de l'outil – celles qui signalent simplement les caractéristiques des données pour que les médecins les vérifient – sont les plus utiles. Mais les plus complexes qui essaient de faire leurs propres diagnostics ne traitent pas nécessairement des défis médicaux sous-jacents. Cela est particulièrement vrai lorsque de nombreux algorithmes créant des titres doivent encore être intégrés dans un environnement clinique.

Comme le dit Harvey: "L'apprentissage profond est utilisé comme un marteau, et les entreprises technologiques recherchent des clous, mais certains des clous – ils ne sont pas tout à fait raison."

Recadrer le récit de l'IA et des soins de santé

S'il y a un thème cohérent dans les régions frontalières de l'IA et de la médecine, c'est que les problèmes ne sont tout simplement pas aussi simples qu'ils le semblent à première vue.

Mary Chris Jaklevic, journaliste spécialisée dans les soins de santé, a souligné dans un article récent qu'une grande partie de la désinformation provient du récit «machine contre médecin» trouvé dans de nombreuses études sur l'IA et les rapports ultérieurs. Un tel récit est à la fois cliquable et collant, attirant l’intérêt des lecteurs pour le moment et façonnant leur compréhension du débat futur. Mais il est également unidimensionnel et réduit la complexité du diagnostic médical à quelques chiffres. Cela ne tient pas compte des parties du travail de santé qui sont moins faciles à quantifier.

Malgré cela, la plupart des experts impliqués dans ce travail – qu'ils soient programmeurs ou médecins – restent prudemment optimistes quant au potentiel de l'IA dans les soins de santé. Comme le note Adamson, c'est la capacité de l'IA à échelle cela le rend si puissant et lui donne tellement de promesses et exige une grande prudence.

Une fois qu'un algorithme a été minutieusement vérifié, note-t-il, et que les subtilités de son intégration dans le processus de diagnostic sont déterminées, il peut être déployé rapidement et facilement presque partout dans le monde. Mais si ces tests sont précipités, les mauvais effets secondaires comme le surdiagnostic se multiplieront tout aussi rapidement.

«Je ne pense pas que l'IA devrait être jetée à la poubelle, bien au contraire», explique Adamson. «Il a le potentiel de faire de bonnes choses, s'il est conçu de manière appropriée. Ma préoccupation n'est pas avec l'IA en tant que technologie, mais comment nous l'appliquerons. "



Traduit de la source : https://www.theverge.com/2020/1/27/21080253/ai-cancer-diagnosis-dangers-mammography-google-paper-accuracy

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.