Construisons ensemble la médecine du XXIème siècle
C'est une réflexion médicale sur l'usage de l'IA en télémédecine et en santé connectée en 2018, nouveaux moyens offerts aux médecins du XXIème siècle pour exercer leur art. Bien évidemment, cette réflexion n'est qu'un survol sur un sujet qui suscite de plus en plus d'intérêt et de recherche. Elle sera forcément incomplète et limitée, car il est difficile de faire aujourd'hui la part de ce qui relève d'un progrès démontré, de ce qui relève de la recherche fondamentale ou clinique à partir de bases données massives (big data) qui ont été constituées depuis plusieurs décennies (Sniiram, PMSI, etc.) ou qui sont en cours de constitution (plan France Génomique 2025, données des objets connectés et des applications mobiles en santé, et les nombreux témoignages de chercheurs en IA dans le livre blanc du CNOM), de ce qui pourrait relever de projets plutôt fantasmatiques.
Cette réflexion s'inspire de la lecture de plusieurs documents publiés en 2018 : un article du juriste anglais Chris Reeves commenté dans un précédent billet ("Intel.Artificielle (4)" dans la rubrique "Revue publications"), le livre blanc publié par le CNOM en janvier 2018 "Médecins et Patients dans le monde des Datas, des Algorithmes et de l'Intelligence Artificielle" (voir le lien dans la rubrique "Livres, Santé Connectée") et le récent rapport du député Cédric Villani " Donner un sens à l'Intelligence Artificielle, pour une stratégie nationale et européenne" remis au Premier ministre en mars 2018. (http://www.ladocumentationfrancaise.fr/rapports-publics/184000159/index.shtml)
La méthode de réflexion n'est pas originale. Elle est celle de tout médecin confronté à des innovations qui peuvent avoir un impact sur l'exercice professionnel et les soins administrés aux patients : quels sont en 2018 les bénéfices réels apportés par l'IA ? Quels en sont les risques ?
Pour simplifier le propos, nous utiliserons le terme IA à finalité médicale pour caractériser les systèmes d'IA appliqués à la médecine, et pour tout ce qui relève du traitement algorithmique de données de santé (Big Data en santé), sachant, comme le souligne le CNOM, que le sujet de l'IA est tellement galvaudé qu'il devient fantasmatique. Nous rejoignons ainsi ceux qui appellent à cesser ce phénomène de l'"IA washing" qui consiste à valoriser n'importe quelle annonce en la faisant passer pour une innovation de l'IA. Cette ambiance, souvent entretenue par les médias, risque de créer une réelle fracture entre les attentes de la société et la réalité.
Ce qui semble nouveau dans cette réflexion, qui s'inspire de l'Evidence-based Medicine, est que celle-ci ne porte pas uniquement sur la recherche du service médical rendu aux patients, certainement le facteur le plus important, mais aussi sur le service rendu au médecin dans la mesure où l'IA peut être une aide à l'exercice professionnel, voire, selon certains, pourrait se substituer à lui dans certaines indications de dépistage d'anomalies ou de maladies, comme par exemple la rétinopathie diabétique et autres anomalies de la rétine, le dépistage d'un mélanome, etc.
QUELS SONT LES BENEFICES D'UNE IA A FINALITE MEDICALE
Le sujet est vaste et seulement à son début. Il y a des bénéfices déjà avérés et des bénéfices supposés à venir, tant pour les patients que pour les médecins.
Pour les médecins.
Si les médecins deviennent plus compétents et plus performants grâce à l'IA, les patients ne pourront qu'en bénéficier. Il n'y a pas de compétition entre l'IA et l'Intelligence Humaine (IH) du médecin, puisque l'IA ne peut se construire qu'avec l'IH et non ex nihilo, même si l'algorithme autoapprenant (machine learning) apparaîtra, à un moment donné, plus performant que la performance moyenne de l'ensemble des médecins auxquels il est comparé.
Prenons l'exemple de l'imagerie médicale (radiologie, dermatologie, ophtalmologie, cardiologie, etc.) où l'IA excelle aujourd'hui et fait régulièrement la "une" des médias. Lorsque ces derniers titrent que "l'IA est meilleure que les médecins dans tel ou tel domaine de l'imagerie", cela n'a pas beaucoup de sens. Les promoteurs d'une IA en imagerie médicale comparent les résultats obtenus avec leur algorithme à un groupe de médecins spécialistes représentatifs de la spécialité, dans lequel existe des professionnels moins bons, bons et très bons. Il serait plus intéressant de comparer l'IA aux meilleurs spécialistes de l'imagerie analysée par l'IA, comme vient de le faire DeepMind de Google.
Il faudrait au préalable définir de manière objective ce qu'est un "très bon" spécialiste de l'imagerie médicale qui serait aussi performant que l'IA. Est-ce celui qui a la plus grosse activité médicale et donc la plus grosse expérience de lecture ? Est-ce le responsable universitaire qui enseigne la spécialité aux étudiants, généralement choisi pour ses compétences supérieures ? Est-ce celui dont les aptitudes naturelles sont particulièrement développées, comme le sont, par exemple, celles des chirurgiens dont la "patte chirurgicale" naturelle leur permet de réussir des interventions sans complications secondaires, là où d'autres chirurgiens ont des complications ? etc. En chirurgie, le robot permet de ramener l'acte opératoire à un niveau de résultat qu'obtient un excellent chirurgien. Il efface l'aléas humain de la chirurgie et il faut s'en réjouir.
En clair, le bénéfice avéré de l'IA en imagerie médicale est probablement d'amener le plus grand nombre de spécialistes du domaine au niveau de performance des meilleurs de la spécialité. C'est d'ailleurs ce que démontrent les algorithmes de DeepMind qui ont analysé les images oculaires de 15 000 yeux (7500 patients) à l'hôpital Moorfields, au Royaume-Uni. L'IA est parvenue à reconnaître environ 50 maladies oculaires avec la même fiabilité que 8 éminents médecins ophtalmologistes (spécificité de 94% pour l'IA et les médecins). DeepMind limite le risque d'erreur (sensibilité faible) pour les ophtalmologistes qui ne sont pas considérés comme "éminents" dans leur spécialité. Cette IA permettra, lorsqu'elle sera commercialisée, à tous les ophtalmologistes qui l'utiliseront d'être aussi performants dans le diagnostic oculaire que leurs collègues les plus éminents de la profession.
Comme le dit très bien C. Rees (voir le billet Int.Artificielle (4) dans la rubrique "Revues Publications"), nos sociétés ne sont pas prêtes à donner à une IA à finalité médicale une mission autonome de soins, c'est à dire celle de se substituer à un médecin. Comment faudrait-il alors définir la relation contractuelle qui lierait un patient et un robot médical ? Un tel sujet est totalement vierge sur le plan juridique et n'est probablement pas prêt d'être accepté par nos sociétés...Même lorsque les avions auront un pilotage automatique grâce à l'IA, quel passager accepterait aujourd'hui de prendre un avion sans pilote (humain) à bord ?
Pour l'instant et encore pendant longtemps pour beaucoup de commentateurs du sujet, l'IA à finalité médicale sera simplement une aide à l'exercice d'une médecine qui sera de plus en plus performante grâce, entre autres, à l'usage de l'IA, comme l'IA le sera dans le pilotage d'un avion par l'humain...
Lorsqu'il y aura un dommage causé à un patient, en lien avec un avis donné par l'IA, ce sera toujours le médecin (ou l'établissement de soin) qui verra sa responsabilité civile engagée pour dédommager la victime, car lui-seul porte le contrat de soins avec le patient. Si le dommage causé par l'IA est jugé comme une erreur inexcusable par rapport à ce qu'aurait obtenu un médecin avec son IH, il faudra bien parvenir à connaitre le défaut de l'algorithme qui en est responsable. Il sera donc difficile d'échapper à court ou moyen terme à une obligation de transparence d'un algorithme à finalité médicale pour prévenir ce niveau du risque d'erreur inexcusable. Nous aborderons cette question plus loin.
Pour les patients
Les bénéfices de l'IA à finalité médicale seront réels pour les patients, si l'IA rend l'ensemble des médecins plus performants dans l'exercice de leur art et permet des organisations de soins innovantes.
Le dépistage d'une anomalie d'imagerie médicale sera facilité par l'IA. Par exemple, la surveillance des complications rétiniennes du diabète pourra être plus fréquente et répondre ainsi à la progression épidémiologique de la maladie à travers le monde. Le dépistage ne nécessitera plus de consultations spécialisées. Seules les anomalies rétiniennes seront vues par le médecin ophtalmologiste et les délais de rendez-vous seront raccourcis. Au cours des dix dernières années, l'organisation du dépistage par télémédecine en France (exemple OPHDIAT) avait déjà amélioré la charge de travail des ophtalmologistes en confiant la réalisation des rétinographies à l'orthoptiste et la lecture à une permanence de soins ophtalmologique. Cette lecture pourra être faite désormais par l'IA et déchargera l'ophtalmologiste de cette charge.
Il y a de nombreux autres exemples de dépistage d'une anomalie d'imagerie médicale : en cardiologie (ECG, echocardiographie), en dermatologie (les tumeurs cutanées) en endoscopie digestive de dépistage, et bien évidemment en radiologie, etc. Dans tous ces domaines la charge actuelle de travail du médecin spécialiste pourra être allégée. Il consacrera son temps médical à approfondir le diagnostic de l'anomalie dépistée par l'IA. Dans les pays où les spécialités médicales sont rares, on peut envisager une collaboration nord-sud en téléexpertise s'appuyant sur des outils de l'IA.
Une IA de plus en plus performante ira jusqu'à faire une proposition diagnostique devant certaines anomalies d'imagerie, mais il relèvera de la responsabilité du médecin de la confirmer ou de l'infirmer puisque c'est lui, et non l'IA, qui est porteur du contrat de soins avec le patient.
Dans d'autres domaines, l'IA pourra être une aide au diagnostic et à la décision thérapeutique (particulièrement en oncologie grâce à la détection précoce des récidives), mais il reviendra toujours au médecin de confirmer ou non la proposition ou la décision de l'IA, toujours pour la même raison : l'IA à finalité médicale, pour l'instant, n'a pas de contrat de soins avec un patient et ce sera toujours, et probablement pendant encore longtemps, le médecin qui assumera la responsabilité des propositions faites par l'IA. Même pour le robot chirurgical, le chirurgien qui "pilote" le robot porte la responsabilité du résultat de l'acte chirurgical. Le slogan qui affirme que l''IA remplacera prochainement le médecin relève aujourd'hui de l'IA washing.
C'est dans les nouvelles organisations des soins à domicile que l'IA et la télémédecine sont les plus attendues et que les patients tireront le plus de bénéfices pour la qualité de leur vie sociale. Surveiller au domicile les patients atteints de maladies chroniques liées au vieillissement pour leur éviter les hospitalisations est le grand challenge de la médecine au XXIème siècle. Nous avons plusieurs fois aborder cette question sur ce site (voir notamment le billet intitulé "Telemedecine (26) dans la rubrique "Revues et Publications").
Nous ne sommes qu'au début de cette transformation radicale de notre système de soins. Permettre aux patients d'être mieux suivis à domicile, grâce à des dispositifs médicaux construits avec les algorithmes de l'IA et à une organisation pluriprofessionnelle innovante utilisant les moyens de la télémédecine est un objectif accessible dans les toutes prochaines années. De nombreux congrès à travers le monde sont aujourd'hui consacrés au thème du "Homespital".
En France, le programme expérimental ETAPES est le passage obligé vers cette transformation de nos organisations de soins. La télésurveillance à domicile des patients atteints de maladies chroniques devrait permettre de maintenir un état stable dans l'évolution de leur maladie, en prévenant la survenue de complications évitables, à l'origine d'hospitalisations. Espérons que l'évaluation qui aura lieu en 2021 confirmera cette vision.
QUELS SONT LES RISQUES D'UNE IA A FINALITE MEDICALE
Le sujet est complexe. D'une part, parce qu'il faut distinguer les risques déjà connus des risques inconnus, d'autre part, comme le dit excellemment le rapport Villani, la loi ne peut pas tout, entre autres car le temps du droit est bien plus long que celui du code.
Il est donc essentiel, dans le cadre d'un droit qui devrait évoluer vers une protection "collective", et pas seulement "individuelle", que les « architectes » de la société numérique – chercheurs, ingénieurs et développeurs (et les médecins) – qui conçoivent et commercialisent ces technologies prennent leur juste part dans cette mission (de prévention) en agissant de manière responsable. Cela implique qu’ils soient pleinement conscients des possibles effets négatifs de leurs technologies sur la société et qu’ils oeuvrent activement à les limiter.
Pour les patients
Les principaux risques de l'IA sont de nature éthique, c'est à dire de porter atteinte aux droits fondamentaux de la personne humaine. Comme le dit le rapport Villani, une grande partie des considérations éthiques soulevées par l’IA tiennent à l’opacité de ces technologies. Ces considérations éthiques ont investi l’espace disponible entre ce qui est rendu possible par l’IA et ce qui est permis par la loi pour discuter de ce qui est souhaitable. La société vit déjà dans un univers où l'IA a de nombreuses applications (par exemple, sur le plan du commerce par internet ou sur l'usage des applications mobiles pour la pratique sportive).
Le vol de millions de données personnelles sur Facebook aura probablement créé un sursaut salutaire dans la population mondiale sur la nécessité de protéger la vie privée sur les réseaux sociaux.
En matière de médecine, le sujet est encore plus sensible. Les données de santé à caractère personnel font partie du secret professionnel que tout acteur de la santé se doit de protéger sous peine de poursuites pénales. La plupart des pays développés ont adopté des lois qui protègent les données personnelles et les droits fondamentaux de la personne humaine, par exemple, le droit au respect de la vie privée et au secret des informations la concernant (art. L.1110-4, alinéa I, du Code de la santé publique). Les potentialités offertes par l'IA doivent respecter les valeurs et les normes sociales, qui peuvent être différentes selon les pays.
Les risques de violation de la vie privée existent avec les technologies numériques. Par exemple, la télésurveillance médicale à domicile d'un patient atteint de maladies chroniques comporte des indicateurs qui peuvent relever de la vie privée des patients. Lorsqu'ils sont traités par des algorithmes de l'IA, le professionnel de santé est confronté à l'obligation légale de délivrer à la personne malade une information claire, loyale et appropriée sur les solutions technologiques mises en place à son domicile pour assurer le suivi de sa maladie.
Il peut être nécessaire d'avoir des indicateurs sur le comportement privé de la personne parce qu'ils ont un impact sur l'évolution de la maladie chronique. Par exemple, le comportement alimentaire chez un patient atteint d'un diabète, d'une hypertension artérielle, d'une insuffisance cardiaque, d'une insuffisance rénale, etc., a un impact sur l'évolution de la maladie et la survenue des complications.
Le dispositif médical de surveillance à distance prendra en compte ces indicateurs de la vie privée et la personne malade devra donner son consentement, du moins tant que la législation en place donne la primauté à la protection des droits individuels. Un algorithme autoapprenant améliorera la qualité de suivi de la maladie. Le professionnel de santé devra connaitre la manière dont l'algorithme traite les indicateurs de la vie privée et l'expliquer au patient. Comme nous l'avons dit précédemment, c'est le médecin qui porte la responsabilité du contrat de soins avec le patient et non l'algorithme de l'IA.
Une totale transparence dans la construction de l'algorithme s'avère nécessaire pour que le professionnel de santé puisse recueillir le consentement de la personne à cette télésurveillance médicale à domicile. Nous préconisons ainsi la co-construction de ces algorithmes avec l'ingénieur et le médecin.
En cas de survenue d'un préjudice causé par une défaillance de l'algorithme de l'IA dans la télésurveillance à domicile (il y en aura), le juge cherchera à savoir si la personne a été correctement informée des risques de cette défaillance de l'IA.
Pour les médecins
Le premier risque serait de ne pas connaître les droits de la personne et de considérer que les technologies numériques servent en premier lieu l'exercice professionnel. Aujourd'hui, un médecin ne peut plus ignorer les recommandations de la HAS et celles du CNOM sur la pertinence des actes de télémédecine. Il faut reconnaître que ces deux institutions publient régulièrement des analyses et des recommandations sur l'usage de la santé connectée, de l'IA à finalité médicale et de la télémédecine. Un médecin, au XXIème siècle, ne peut exercer sans connaître ces recommandations.
En face de dispositifs médicaux construits avec des algorithmes de l'IA, le médecin doit être très attentif au service médical rendu aux patients par le dispositif, c'est à dire qu'il doit vérifier que les bénéfices pour le patient sont plus importants que les risques connus. Il doit connaître les risques de l'usage afin de donner une information claire et loyale au patient.
Peu de systèmes d'IA à finalité médicale peuvent prétendre aujourd'hui avoir une spécificité et une sensibilité de 100%, c'est à dire l'absence de faux positifs et de faux négatifs. C'est la raison pour laquelle l'IA à finalité médicale pourra faire des erreurs sur le plan du diagnostic et de la thérapeutique s'il ne possède pas ce niveau de performance. La FDA aux USA exige, pour autoriser la mise sur le marché d'un dispositif médical avec IA, que des preuves scientifiques soient apportées par le promoteur en faveur de l'absence de faux positifs et de faux négatifs dans les décisions proposées par le dispositif médical autonome.
Par exemple, un lecteur autonome d'ECG, de construction française, a obtenu le feu vert de la FDA parce que ce produit ne donnait aucun faux négatif vis à vis de la présence d'une fibrillation auriculaire, facteur de risque de survenue d'un AVC. Ce type de dispositif médical est utile pour faire le tri entre les patients porteurs de l'anomalie ECG et à risque d'AVC, et ceux qui ne sont pas porteurs de ce risque. Le médecin généraliste peut ainsi être aidé par un tel outil de l'IA et il n'adressera au cardiologue que les patients porteurs de l'anomalie ECG.
Comme le rappelle C. Rees (voir le billet "télémédecine (29)" dans la rubrique "Revues et Publications"), en cas de survenue d'un préjudice causé à un patient par l'usage d'un dispositif avec IA, le juge cherchera le niveau de responsabilité du médecin ou de l'établissement titulaire du contrat de soins avec le patient. Avec la législation actuelle sur la protection individuelle, la victime pourra être indemnisée sur le fondement d'une faute de nature éthique, c'est à dire, le plus souvent (au regard de la jurisprudence) sur une information absente ou insuffisante sur les risques encourus par le dispositif utilisé.
Le promoteur de l'IA, pour l'instant, ne pourrait être poursuivi par la victime d'un accident médical lié à l'usage de l'IA, puisqu'il ne fait pas partie du contrat de soins entre le médecin et son patient, ce qui est une des conditions nécessaires pour que la victime puisse se prévaloir du régime juridique de la responsabilité contractuelle.
La législation sur les produits de santé défectueux ne pourrait s'appliquer que si le défaut de l'algorithme, au moment de l'accident médical, était clairement identifié. Du fait du caractère autoapprenant de l'algorithme, la loi actuelle pourrait écarter la responsabilité du producteur de l'IA s'il prouve que le défaut n'existait pas lorsque le produit a été mis en circulation. Le défaut serait alors apparu durant la phase "autoapprenante".
En résumé, on voit bien que l'absence de transparence de l'IA à finalité médicale pose aujourd'hui des questions non encore résolues au regard de la législation sur la protection individuelle des personnes malades. Il nous semble que le principal bénéfice de l'IA en 2018 et dans les prochaines années, est de rendre les médecins qui utilisent l'IA plus performants dans l'exercice de leur art, ce qui ne peut que profiter aux patients. Pour identifier les risques de l'IA dans le domaine éthique et les défauts qui peuvent apparaître avec le temps d'usage, la "blackbox" qu'est aujourd'hui l'algorithme autoapprenant, devra devenir transparente.
19 août 2018
KOC AVOCAT
21.08.2018 11:00
Bonjour,
les dérives de l'I et de ses algorithmes peuvent être évitées via la mise en place d'un audit juridique et éthique des algorithmes et sa compliance.
Pierre Simon
21.08.2018 11:28
Merci de ce rappel. Avez-vous produit un document qui pourrait être consulté sur la méthodologie suivie et les références éthiques et juridiques utilisées ?
Bruno Boutteau
19.08.2018 19:23
comme pour tout automate arbitrant en fonction des donnees, il faut s assurer de sa pertinence via une recette approfondie et avoir une procedure de controle regulier.
KOC AVOCAT
21.08.2018 11:33
Absolument, nous avons établi une charte mondiale éthique et juridique des algorithmes et de l'IA qui s'adapte à chaque pays. la compliance des algorithmes est également envisagée.
Pierre Simon
20.08.2018 07:15
Merci du commentaire. Je pense que l'IA hors médecine est vérifiée régulièrement de cette manière. Le sujet sensible concerne les risques connus ou inconnus de l'IA en médecine. Comment les prévenir ?