Construisons ensemble la médecine du XXIème siècle
Les applications de l'Intelligence artificielle sont à nos portes et commencent à entrer dans nos vies. Les organisations de nos sociétés vont en être bouleversées. Il est important qu'une réflexion démocratique soit engagée par les citoyens et les élus sur l'impact d'une telle évolution sur les grands équilibres socio-économique et éthiques de nos sociétés.
Certains pays développés comme les Etats-Unis, le Royaume-Uni et la Communauté européenne se sont emparés de ce sujet majeur à la fin de l'année 2016. Trois rapports ont été publiés émanant de chacune des instances politiques. Ce billet retrace les principales leçons d'une étude comparative de ces trois rapports. Cet article remarquable vient d'être publié le 19 mars 2017 dans la revue internationale "Science Engenering and Ethics".
Corinne Cath, Sandra Wachter, Brent Mittelstadt,, Mariarosaria Taddeo, Luciano Floridi. Artificial Intelligence and the ‘Good Society’: the US, EU, and UK approach. Sci Eng Ethics. DOI 10.1007/s11948-017-9901-7.
CONTEXTE ACTUEL SUR L'INTELLIGENCE ARTIFICIELLE
L'intelligence artificielle (IA) n'est plus de la science-fiction. Des voitures qui roulent sans chauffeur aux applications pour améliorer le système de santé ou le système financier, l'IA va entrer progressivement dans nos pratiques quotidiennes. L'IA pose des questions fondamentales de nature éthique, sociale et économique, qui auront un impact sur les nouvelles organisations de nos sociétés. C'est dans ce contexte que le Bureau politique des Sciences et des Technologies de la Maison Blanche, la Commission des Sciences et Technologies de la Chambre des communes au Parlement britannique et la Commission des affaires juridiques du Parlement européen ont chacun rédigé de façon non concertée, en cours et fin d'année 2016, un rapport faisant état de leurs réflexions respectives dans le contexte socio-économique qui leur est propre.
Le travail présenté dans cet article est une évaluation comparative des trois rapports en ciblant particulièrement trois thèmes essentiels : a) le développement d'une société idéale de l'IA, b) le rôle de la puissance publique, du secteur privé, de la recherche (incluant celle académique) dans la poursuite de ce développement, c) les recommandations qu'il y aurait lieu de faire pour accompagner ce développement.
REFLEXION GENERALE SUR LES TROIS RAPPORTS
Chaque rapport se concentre sur des défis spécifiques et urgents. Il existe une compréhension implicite du rôle de l’IA dans l'évolution de la société et une vision sur la manière dont on peut l'appréhender. Cependant, aucun des trois rapports ne propose véritablement une vision globale explicite du rôle que l'IA devrait jouer dans une '' société de l'information mature". Ce n’était peut-être pas l'objectif de ces trois rapports. Toutefois, comme nous l’indiquerons dans la conclusion, l'approche éthique de l’IA et sa contribution potentielle au bien social devraient être davantage approfondis afin de créer des liens avec l'aspect socio-politique et la responsabilité engagée par les différents acteurs du développement de l'IA, ainsi que la coopération qu'ils devraient développer entre eux et les valeurs qu'ils devraient partager pour atteindre une "société idéale de l'IA".
Une telle approche relève de la recherche en sciences sociales. Elle doit être capable de répondre aux problèmes du moment tout en étant capable de s’adapter aux nouveaux enjeux des prochaines décennies, portés par des « sociétés de l’information matures ''. En bref, nous avons besoin d’une stratégie sociale et éthique pour l'IA, et pas simplement d'une stratégie tactique à visée commerciale.
La notion de maturité des sociétés de l’information souligne l’importance d’aborder de façon approfondie les défis d’ordre éthique que l'IA pose. Comme les sociétés vont devenir de plus en plus des "sociétés d'information matures'', leur recours aux techniques de l’IA augmentera. Les technologies de l'IA auront alors un impact sur nos valeurs sociales communes.
La rapidité de développement des technologies de l'IA doit conduire le pouvoir "socio-politique" à préciser où nous voulons aller avec l'IA, plutôt que de mesurer à quelle vitesse nous pouvons atteindre tel ou tel objectif commercial. Le manque de vision politique laisse un vide dans lequel s'engouffre le secteur privé marchand, voire le milieu de la recherche, académique ou non, pour nous convaincre qu'ils portent la vision de la "société idéale" , alors que les puissances publiques ne sont pas encore prêtes ou sont dans l'impossibilité de définir une vision qui serait partagée par la société toute entière.
La situation actuelle est à la fois compréhensible et inacceptable. Elle est comprésensible parce que les entreprises de R & D dans le domaine de l'IA sont à la pointe de l'innovation et que les chercheurs et les sociétés privées marchandes clament qu'ils font en sorte que l'IA contribue au bonheur de la société. Elle est aussi inacceptable parce qu'elle laisse le secteur privé et la recherche développer l'IA sans que le pouvoir socio-politique, la puissance publique, intervienne pour planifier les objectifs à atteindre, qui prennent en compte les bénéfices et les risques de l'IA pour la société. Il existe un réel déficit de responsabilité de la part des pouvoirs publics. L'IA ne doit pas être régulée seulement lorsque les systèmes d'information auront atteint leur niveau de maturité, elle doit l'être également dès maintenant dans la période de son développement, car c'est une force puissante qui transforme nos vies, nos relations et nos comportements.
LE RAPPORT AMERICAIN
Le 12 octobre 2016, le White House Office of Science and Technology Policy (OSTP) a publié le rapport américain sur l’IA, intitulé "Préparer l’avenir de l’Intelligence artificielle". Le rapport est le résultat de cinq ateliers publics. Toutefois il y a une nette influence des acteurs de la Silicon Valley. Le rapport définit l'IA comme une technologie qui, lorsqu’elle est utilisée de façon réfléchie, peut contribuer à augmenter les capacités humaines, au lieu de les remplacer. Le fil conducteur de l'OSTP est de tout faire pour favoriser l'innovation économique. Comme l'IA est un moteur de cette innovation et de la croissance économique, l'OSTP pense que l'IA ne peut être que bonne pour la société. Ce n'est pas une surprise si le gouvernement américain estime que son rôle de régulateur doit être faible dans le domaine de l'innovation scientifique et économique.
Si le gouvernement américain reste attaché au libéralisme de l'économie de marché, il entend cependant veiller à ce que les innovations en matière d'IA soient responsables et transparentes, et demeurent conformes aux valeurs et aspirations humaines. L'OSTP décline trois réponses politiques à l'impact de l'IA sur l'économie américaine : investir et développer l'IA pour ses nombreux avantages, éduquer et former les américains aux métiers d'avenir, accompagner les travailleurs actuels dans la transition technologique vers l'autonomisation du travail pour maintenir la croissance économique.
Le rapport de l’OSTP suggère que de nombreuses questions éthiques liées à l'IA, telles que l'équité, la responsabilité et la justice sociale, nécessitent une progression de la transparence. Alors qu’il s’agit d’une excellente proposition, le rapport ne donne pas de recommandations pour la mise en place de méthodes spécifiques qui pourraient justement garantir la transparence et la compréhension des programmes d'IA par les futurs usagers.
C’est particulièrement le cas pour certains domaines sensibles comme les soins de santé, où les médecins ont besoin de comprendre ce qui justifie tel diagnostic particulier ou tel type de traitement donné par l'IA. Le médecin doit conserver son esprit critique et ne pas faire une confiance absolue à l'IA. L'IA peut aussi fournir aux médecins un arbre de décision qui intégre des explications aux propositions faites au plan diagnostic ou thérapeutique. Ainsi, les chercheurs doivent développer des systèmes transparents et intrinsèquement capables d’expliquer les raisons des résultats donnés par l'IA aux utilisateurs.
En résumé, le rapport OSTP est un examen approfondi des différentes façons dont l'IA affectera l’économie et la structure sociale de la société américaine. Il fournit une bonne analyse des différentes interrogations tant éthiques que sociales ou organisationnelles. Pourtant, le rapport américain aurait pu reconnaitre plus clairement sa dépendance économique et sa préférence pour un capitalisme du marché et du libre commerce. Cette critique peut être faite à des degrés variables aux trois rapports. Le développement de l'IA est adapté à la vision économique et sociale propre des Etats-Unis, au lieu de s'intégrer dans une vision plus internationale.
LE RAPPORT ANGLAIS
Ce rapport publié le 13 octobre 2016 par the House of Commons’ Science and Technology Committee avait pour objectif d'identifier les potentialités de l'IA et de la robotique. Le rapport soutient que le Royaume Uni est à la pointe de la recherche en matière d'IA et que le principal sujet est le financement public de cette recherche. Les auteurs du rapport ont consulté de nombreux experts. Il donne au gouvernement anglais des recommandations pour évoluer vers une "société idéale de l'IA". Le niveau de régulation proposé est légèrement supérieur à celui des USA. Il y a néanmoins dans ces recommandations un chevauchement entre l'impact social, politique et commercial de l'IA. L'impact éthique est peu abordé. Sur de nombreux points, le rapport anglais se rapproche du rapport américain.
LE RAPPORT DE LA COMMISSION EUROPEENNE
Ce rapport a été présenté le 31 mai 2016 devant la Commission européenne par the European Parliament’s Committee on Legal Affairs (JURI). La Commission européenne a demandé de travailler ce rapport avec tous les organismes concernés par l'IA et la robotisation, notamment les organismes européens de normalisation et la Standardisation internationale Organisation pour l'harmonisation des normes techniques de l'IA afin de faciliter le marché européen, cette démarche de normalisation étant un moyen de proteger les consommateurs.
La Commission européenne a également invité les acteurs à clarifier la responsabilité des industries de l'IA, notamment celles qui fabriquent des robots autonomes si des dommages liés à l'IA et/ou aux robots se produisaient. Et de recommander de prendre en compte les solutions apportées par l'IA lors de l'élaboration de futures directives. Elle propose aux industriels de l'IA un financement pour que les bénéfices et les risques de certains développements de l'IA soient étudiés avant la mise sur le marché. Elle souhaite que les Sciences Sociales et Ethiques explorent les défis lancés par l'IA et la robotique sur '' la sécurité humaine, la confidentialité, l'intégrité, la dignité, l'autonomie et la propriété des données personnelles". On reconnait là la priorité donnée à l'éthique par les sociétés européennes, par rapport à l'approche utilitariste des sociétés anglosaxonnes. C'est le point essentiel qui différencie le rapport européen des deux autres rapports.
CONCLUSIONS
Les trois rapports partagent des valeurs communes pour considérer que l'IA va contribuer à un nouveau développement économique et à une réorganisation de nos sociétés. Soulignons néanmoins les points saillants de chaque rapport. Le rapport américain est le seul à avoir une stratégie industrielle R & D à l'appui de ses recommandations. Le rapport européen est le seul à recommander la création d'une Agence européenne dédiée à l'IA et à la robotique pour conseiller les acteurs publics sur les développement futurs de l'IA et de la robotique. Comme nous l'avons déjà souligné, ce rapport est le seul à avoir introduit des notions juridiques (comme la responsabilité civile des robots) et éthiques. Le rapport du Royaume Uni prône la création d'une Commission indépendante qui aurait pour mission de définir un cadre réglementaire et de lancer des débats publics sur les défis de l'IA.
Chaque rapport précise le rôle et la responsabilité de la puissance publique, du secteur privé et du secteur de la recherche, incluant la recherche académique. Les trois rapports identifient les acteurs qui doivent être les "fers de lance" du développement de l'IA. Pour les Etats-Unis, c'est le gouvernement avec le secteur privé, notamment de la Silicon valley. Pour l’UE, c’est la Commission européenne avec le nouvel organisme consultatif qu'est l'Agence européenne de l'Intelligence Artificielle et de la Robotique. Pour le Royaume-Uni, c’est plutôt une '' approche coordonnée '' entre le gouvernement et une Commission indépendante et permanente.
Ce qui manque dans ces trois rapports est une vision prospective globale sur la manière dont la responsabilité des acteurs, leur coopération et les valeurs éthiques et humanistes peuvent s'imbriquer pour concevoir et diriger les acteurs vers l’élaboration d’une "société idéale de l'IA et de la robotique". Cela vaut non seulement pour nos sociétés d'aujourd'hui, mais aussi et surtout, pour la « société d’information mature » dans laquelle les générations futures vivront.
COMMENTAIRES
Il est évidemment difficile de résumer dans un seul billet un article aussi riche qui a cherché à faire la synthèse de trois rapports essentiels sur l'Intelligence Artificielle et la Robotique venant des trois régions les plus riches et les plus développées de la planète. L'auteur ne peut qu'encourager le lecteur intéressé par ce sujet essentiel à lire cet excellent article. Les bonnes questions sont posées. On retrouve le débat classique qui oppose la société anglo-saxonne, qui a une vision plutôt "utilitariste" dans le domaine de l'innovation numérique, à la société européenne qui porte d'emblée une réflexion éthique lorsque qu'elle aborde l'innovation numérique.
La France n'échappe pas à ce débat et il faut s'en réjouir. Elle demande une réflexion humaniste et éthique devant l'innovation numérique (cf le livre récent de Guy Vallancien "l'Homo Artificialis", plaidoyer pour un humanisme numérique). Lors de la première séance du CSNS, une majorité de ses membres a réclamé que ce nouveau conseil stratégique du numérique en santé s'empare des questions éthiques et juridiques de la santé numérique. Le CNOM annonce pour septembre 2017 un livre blanc sur l'usage déontologique de l'Intelligence Artificielle en médecine. La Société Française de Télémédecine a mis en place un domaine spécifique consacré à l'éthique et aux sciences sociales dans le champ de la télémédecine et de la santé connectée.