Construisons ensemble la médecine du XXIème siècle
Acte 1 : 19 janvier 2018, le point presse de la nouvelle start-up Ethik-IA
Dans la foulée du rapport Villani, remis au Premier Ministre le 8 mars 2018 (https://fichiers.acteurspublics.com/redac/pdf/2018/2018-03-28_Rapport-Villani.pdf), la jeune start-up Ethik-IA, co-fondée par David Gruson et Judith Mehl en janvier 2018 dans le but de "proposer une série d'outils et de notes de cadrage pour garantir un regard humain sur les algorithmes en santé", fait son premier point presse le 19 janvier 2018 :
L’initiative Ethik-IA : réguler positivement le déploiement de l’intelligence artificielle en santé
Arrivée en tête du volet « cadre éthique et de confiance » de la consultation publique organisée par Cédric VILLANI dans le cadre de sa mission sur l’intelligence artificielle, l’initiative Ethik-IA vise à fédérer les acteurs de la recherche et du management dans le domaine de la régulation éthique, juridique et RH du déploiement de la robotisation et de l’intelligence artificielle dans le domaine sanitaire et médico-social.
L’objectif opérationnel est de faire en sorte que la France, qui a été pionnière dans la construction des cadres juridiques et sociétaux en matière de protection des données ou de télémédecine, et l’Union européenne se positionnent également au premier rang mondial dans l’élaboration d’un dispositif d’acclimatation de l’intelligence artificielle en santé conforme aux exigences d’une société démocratique avancée.
Acte 2 : avis 129 du Comité Consultatif National d'Ethique (CCNE) du 8 septembre 2019
Cet avis contient 6 propositions (file:///C:/Users/pierr/Downloads/ad1084142%20(2).pdf) :
Acte 3 : la reconnaissance du principe de Garantie Humaine dans la révision de la loi Bioéthique du 2 août 2021
L'article 17 de la loi est retranscrit dans le code de la santé publique (CSP) à l'article L.4001-3 :
Art. L. 4001-3.-I.-Le professionnel de santé qui décide d'utiliser, pour un acte de prévention, de diagnostic ou de soin, un dispositif médical comportant un traitement de données algorithmique dont l'apprentissage a été réalisé à partir de données massives s'assure que la personne concernée en a été informée et qu'elle est, le cas échéant, avertie de l'interprétation qui en résulte.
« II.-Les professionnels de santé concernés sont informés du recours à ce traitement de données. Les données du patient utilisées dans ce traitement et les résultats qui en sont issus leur sont accessibles.
« III.-Les concepteurs d'un traitement algorithmique mentionné au I s'assurent de l'explicabilité de son fonctionnement pour les utilisateurs.
« IV.-Un arrêté du ministre chargé de la santé établit, après avis de la Haute Autorité de santé et de la Commission nationale de l'informatique et des libertés, la nature des dispositifs médicaux mentionnés au I et leurs modalités d'utilisation. »
Acte 4 : l'AI-Act adoptée le 9 décembre 2023 par le Parlement Européen pour toutes les applications de l'IA
Nous reproduisons ici in extenso la publication du Commissaire européen (français), Thierry Breton, en charge du dossier de l'IA à la Commission Européenne. La loi AI-Act touche non seulement la santé, mais tous les domaines où l'IA peut se développer.
Historique
Avec l'accord politique sur la loi sur l'IA scellé ce soir, l'UE devient le premier continent à fixer des règles claires pour l'utilisation de l'IA.
Le dernier cycle de négociations – connu sous le nom de « trilogue » dans le jargon bruxellois – entre le Parlement européen, le Conseil de l'UE et la Commission européenne a duré pas moins de 38 heures !
Cette session d'ultramarathon démontre le dynamisme de notre démocratie et l'engagement des dirigeants de l'UE à trouver le juste équilibre dans l'intérêt général européen.
La loi sur l'IA est bien plus qu'un livre de règles : c'est une rampe de lancement pour les startups et les chercheurs de l'UE afin de mener la course mondiale à une IA digne de confiance.
Trouver un équilibre entre la sécurité des utilisateurs et l'innovation pour les startups, tout en respectant les droits fondamentaux et les valeurs européennes, n'a pas été une mince affaire. Mais nous y sommes parvenus.
Lorsque j'ai rejoint la Commission européenne en 2019, je me suis donné pour mission d'organiser notre « espace de l'information » et d'investir dans notre leadership technologique, y compris dans le domaine de l'IA.
« Trop compliqué, ça prendra trop de temps, c'est anti-innovation, laisser les développeurs s'autoréguler... » Un certain nombre d'entreprises, soutenues par des pays non-membres de l'UE, ont essayé de nous décourager. Ils savaient que le premier à établir des règles a l'avantage d'être le premier à établir la norme mondiale. Cela a rendu le processus législatif particulièrement complexe, mais pas impossible.
Au cours de ces quatre dernières années, nous nous sommes engagés dans de vastes consultations et un processus démocratique pour faire de la réglementation de l'IA une réalité, avec le Parlement européen et les 27 États membres.
Au cours de cette période, la technologie et ses applications ont évolué rapidement. Il en va de même pour notre approche. Par exemple, les grands modèles d'IA à usage général ont pris de l'importance, et les applications business-to-consumer, inexistantes en 2019, ont rapidement gagné une vaste base d'utilisateurs. Nos instances démocratiques ont adapté la proposition de loi à ces changements, en visant toujours à trouver un équilibre entre sécurité et innovation.
Cela a abouti au trilogue final et réussi d'aujourd'hui.
Les temps forts du trilogue
Avec l'accord d'aujourd'hui, nous sommes les premiers à établir un cadre contraignant, mais équilibré pour les grands modèles d'IA (« modèles d'IA à usage général »), favorisant l'innovation tout au long de la chaîne de valeur de l'IA.
Nous nous sommes mis d'accord sur une approche à deux niveaux, avec des exigences de transparence pour tous les modèles d'IA à usage général et des exigences plus strictes pour des modèles puissants ayant des impacts systémiques dans l'ensemble de notre marché unique de l'UE.
Pour ces modèles systémiques, nous avons développé un système efficace et agile pour évaluer et traiter leurs risques systémiques.
Au cours du trilogue, nous avons soigneusement calibré cette approche, afin d'éviter une charge excessive, tout en veillant à ce que les développeurs partagent des informations importantes avec les fournisseurs d'IA en aval (y compris de nombreuses PME). Et nous nous sommes alignés sur des définitions claires qui donnent une sécurité juridique aux développeurs de modèles.
Nous avons passé beaucoup de temps à trouver le bon équilibre entre tirer le meilleur parti du potentiel de l'IA pour soutenir l'application de la loi tout en protégeant les droits fondamentaux de nos citoyens. Nous ne voulons pas d'une surveillance de masse en Europe.
Mon approche consiste toujours à réglementer le moins possible, autant que nécessaire. C'est pourquoi j'ai préconisé une approche proportionnelle fondée sur le risque.
C'est ce qui rend la loi européenne sur l'IA unique : elle nous permet d'interdire les utilisations de l'IA qui violent les droits fondamentaux et les valeurs de l'UE, d'établir des règles claires pour les cas d'utilisation à haut risque et de promouvoir l'innovation sans obstacles pour tous les cas d'utilisation à faible risque.
Au cours du trilogue, nous avons défini les spécificités de cette approche basée sur les risques. En particulier, nous nous sommes mis d'accord sur un ensemble d'interdictions bien équilibrées et bien calibrées, telles que la reconnaissance faciale en temps réel, avec un petit nombre d'exemptions et de garanties bien définies.
Nous avons également défini divers cas d'utilisation à haut risque, tels que certaines utilisations de l'IA dans les domaines de l'application de la loi, du lieu de travail et de l'éducation, où nous voyons un risque particulier pour les droits fondamentaux. Et nous avons veillé à ce que les exigences relatives aux risques élevés soient efficaces, proportionnées et bien définies.
Nous avons développé des outils pour promouvoir l'innovation. Au-delà des bacs à sable réglementaires précédemment convenus, nous nous sommes alignés sur la possibilité de tester les systèmes d'IA à haut risque dans des conditions réelles (en dehors du laboratoire, avec les garanties nécessaires).
Nous avons également convenu que des normes techniques à l'épreuve du temps sont au cœur du règlement.
Cela inclut également certaines normes environnementales.
Enfin, nous nous sommes mis d'accord sur un cadre d'application solide pour la loi sur l'IA (qui la distingue des nombreux cadres volontaires dans le monde).
Il s'agit d'une surveillance du marché au niveau national et d'un nouvel Office européen de l'IA, qui sera créé au sein de mes services au sein de la Commission européenne.
Et il prévoit des sanctions sévères pour les entreprises qui ne se conforment pas aux nouvelles règles.
L'Europe s'est positionnée comme pionnière, consciente de l'importance de son rôle de normalisateur mondial.
Aujourd'hui, nous nous lançons dans un nouveau voyage.
C'est pourquoi je qualifie la loi sur l'IA de « rampe de lancement ». Elle offre aux startups et aux chercheurs la possibilité de s'épanouir en assurant la sécurité juridique de leurs innovations.
La présente loi n'est pas une fin en soi ; C'est le début d'une nouvelle ère dans le développement responsable et innovant de l'IA, qui alimente la croissance et l'innovation pour l'Europe.
16 décembre 2023
Nous souhaitons à tous les lecteurs du blog de joyeuses fêtes de fin d'année 2023. Nous vous donnons rendez-vous en janvier 2024.