Intelligence artificielle en santé : une autonomie subordonnée à une exigence de confiance

« L'intelligence artificielle ne sera pas acceptée par la société si elle n'inspire pas confiance »
De nos jours, les nouvelles technologies n’ont de cesse de trouver application dans le domaine médical, et celles-ci se sont révélées très utiles dans le cadre des récents évènements sanitaires. Ainsi, si certaines innovations ont seulement vocation à aider les professionnels de santé dans le cadre de l’exercice de leurs missions de soins, d’autres deviennent de plus en plus efficaces et autonomes, entraînant une modification progressive de la relation entre praticien et patient. En effet, nous assistons à la création d’une relation virtuelle entre patient et praticien, notamment permise par la télémédecine, par des dispositifs médicaux connectés ou autres applications mobiles appartenant à la catégorie dite « m-santé » permettant aux patients d’être en mesure de suivre de manière continue l’évolution de leur état de santé.
Si les patients bénéficient de telles avancées médicales technologiques, leur permettant notamment de pouvoir devenir de véritables acteurs de leur santé, l’ère de la santé connectée offre également aux praticiens des moyens leur permettant d’appréhender différemment leur profession. L’intelligence artificielle joue ainsi un rôle de plus en plus important que ce soit dans le cadre de l’établissement de diagnostics médicaux, que dans celui du suivi médical à distance des patients.
Des technologies de santé de plus en plus autonomes dans le domaine de la santé
Ces nouvelles technologies ont connu un essor considérable dans le secteur de la santé, car elles présentent des avantages indéniables. Le recours à l’intelligence artificielle est de plus envisagé au bénéfice des professionnels de santé et des patients eux-mêmes. Ces innovations semblent traduire une nouvelle santé futuriste, au service de l’amélioration de la qualité des soins prodigués aux patients. Ainsi, les praticiens ont la possibilité de suivre de manière continue l’évolution des données de santé de leurs patients grâce à divers algorithmes, peuvent être assistés dans le cadre d’opérations assistées, etc…
Or aujourd’hui, de telles avancées numériques de santé portées par l’utilisation des technologies d’intelligence artificielle traduisent non plus seulement une finalité d’assistance médicale aux professionnels, mais semblent réellement avoir pour vocation une autonomie de plus en plus affirmée. Si cette philosophie entre en contradiction avec le souhait des pouvoirs législatif et réglementaire internes actuels de conserver une maîtrise totale de l’humain sur les machines dans le cadre du domaine de la santé, les innovations en la matière tendent tout de même à se développer. Tel est notamment le cas de l’intelligence artificielle « SAM », (acronyme de Search Algorithm for Ligands) mise au point par l’Université de Flinders en Australie, qui « a trouvé la formule d'un vaccin contre la grippe dont l'adjuvant serait d'une efficacité redoutable » [1]. Ce vaccin qui aurait initialement fait l’objet de test sur les animaux, pourrait entrer en phase de test sur les humains aux États-Unis.
En outre, le domaine de l’imagerie médicale est également très concerné par l’utilisation des technologies d’intelligence artificielle, qui impactent de plus en plus l’activité des praticiens. Si certains craignent que ces technologies viennent à terme remplacer leur fonction, d’autres considèrent qu’elles pourraient constituer non pas une rupture avec les pratiques existantes, mais une évolution supplémentaire dans le cadre du secteur de la radiologie : « le radiologue est prêt. Il est préparé à l'intelligence artificielle. Il est habitué au numérique. Il travaille le numérique à longueur de journée ». Le radiologue demeurerait ainsi « garant du choix de l’examen, de sa pertinence et des conditions de réalisation, corrigerait les erreurs de diagnostics et resterait responsable » [2].
Quel régime de responsabilité applicable aux technologies d’intelligence artificielle autonomes ?
Or, la question de la responsabilité juridique dans le cadre de l’utilisation des technologies d’intelligence artificielle constitue justement un enjeu fondamental d’encadrement juridique.
En effet, le recours à ces technologies pose de réelles interrogations quant à la responsabilité juridique à invoquer en cas de défaillance matérielle. En outre, une réponse juridique à ces problématiques est d’autant plus importante lorsque lesdites défaillances sont susceptibles de survenir dans un cadre médical, impliquant la santé physique ainsi que la vie du patient concerné.
Pour le moment, seules des intelligences artificielles dites « d’autonomie faible » sont mises au point pour permettre une réelle utilisation. Divers travaux ont tenté d’appréhender ce sujet sur le plan juridique interne, car comme le rappelle la Commission des affaires européennes du Sénat « l'intelligence artificielle ne sera pas acceptée par la société si elle n'inspire pas confiance » [3]. Les régimes de responsabilité du fait des choses ou du fait des produits défectueux ont donc été envisagés par ladite Chambre Parlementaire afin de répondre à cette problématique.
Si ces derniers suffiraient à régler les problématiques de responsabilité d’intelligences artificielles peu évoluées, elles risqueraient toutefois de constituer une garantie insuffisante à l’avenir au regard de leur développement. En effet, certains souhaiteraient accorder aux intelligences artificielles dites « fortes », c’est à dire les plus sophistiquées, la personnalité juridique afin de palier à ces problématiques. Or, le Sénat semble fermement opposé à cette idée en considérant qu’ « une intelligence artificielle est d’abord une machine, qui a des concepteurs et des fabricants. Ce sont eux qui doivent être responsables en cas de difficulté ». Plus l’intelligence artificielle disposera d’une autonomie importante, plus il sera complexe de résoudre les questions de l’imputabilité de sa responsabilité en cas d’erreur, de dysfonctionnement à l’origine d’un préjudice pour une personne physique, notamment dans le domaine de la santé.
L’exigence d’un encadrement juridique et éthique de technologies d’intelligence artificielle en adéquation avec leur évolution
Il convient alors d’identifier en amont l’ensemble des risques que ces technologies pourraient présenter, afin d’être en mesure de créer un cadre juridique suffisamment protecteurs des patients. Ainsi, la Commission Européenne soutient qu’il conviendrait de mettre l’accent sur « sept exigences essentielles » comprenant notamment un « contrôle humain de ces technologies, une responsabilisation des acteurs ainsi que le respect de la vie privée et la gouvernance des données » [4].
En effet, la question de la protection des données à caractère personnel constitue également un enjeu important de l’émergence de ce type de nouvelles technologies, car l’intelligence artificielle suppose des traitements importants de données personnelles, pouvant être constitutifs de violations aux conséquences désastreuses pour les personnes concernées s’ils ne sont pas suffisamment encadrés. La CNIL s’était alors prononcée sur ces questions en 2017 [5], en prônant la transparence des algorithmes d’intelligence artificielle et de leur finalité, mais également en rappelant l’importance d’une intervention humaine dans toute décision produisant des effets juridiques à l’égard d’une personne, conformément à l’esprit de l’article 22 du RGPD qui encadre strictement les conditions d’une telle décision fondée exclusivement sur un traitement automatisé. Ladite institution s’interrogeait notamment à cette occasion sur le fait de savoir si « la confiance accordée à des machines jugées souvent infaillibles et neutres » ne risquerait pas de générer « la tentation de se décharger sur celles-ci de la fatigue d’exercer des responsabilités, de juger, de prendre des décisions », même si ces technologies ne semblent pas à ce jour être totalement maîtrisées.
Au regard de l’importance du respect des principes éthiques et des droits fondamentaux des personnes dans le cadre de l’utilisation de ce type de technologie, la France et le Canada ont par ailleurs récemment été à l’initiative de la mise en œuvre d’un Partenariat Mondial sur l’Intelligence Artificielle (« PMIA ») [6] afin d’ « encourager et guider le développement responsable d’une intelligence artificielle (IA) fondée sur les droits de l’Homme ». Ce projet, qui fait suite à la Déclaration franco-canadienne sur l’intelligence artificielle de juin 2018 déjà rejoint par douze autres pays, a pour vocation de s’étendre à tout autre État volontaire, afin de « créer une capacité collective à appréhender et anticiper ces impacts en constituant une expertise mondiale de très haut niveau. Le groupe international d’étude voulu par cette déclaration permettra de mesurer et d’organiser le débat collectif sur les évolutions scientifiques de manière totalement autonome afin de favoriser la confiance en ces technologies », conformément à la tendance actuelle en la matière.
[1] Les Échos, « Vers le premier vaccin entièrement créé par une intelligence artificielle » rédigé par Jonathan Roisin, publié le 28 juillet 2019 [2] Séminaire de la Fédération Nationale des Médecins Radiologues, juin 2018, « L’intelligence artificielle : rêve ou cauchemar du radiologue ? » [3] Rapport d'information n° 279 (2018-2019) de MM. André GATTOLIN, Claude KERN, Cyril PELLEVAT et Pierre OUZOULIAS, fait au nom de la commission des affaires européennes, déposé le 31 janvier 2019
[4] Commission Européenne, Livre Blanc « Intelligence artificielle : Une approche européenne axée sur l'excellence et la confiance », Bruxelles, le 19.2.2020 COM(2020) 65 final [5] Rapport de la CNIL en date du 15 décembre 2017 « Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle » [6] Lancement du partenariat mondial pour l’intelligence artificielle, Communiqué de presse du gouvernement, Secrétariat d’État Chargé du Numérique, 16/06/2020
réf. : BENNICHE (M.), "Intelligence artificielle en santé : une autonomie subordonnée à une exigence de confiance" Doctrin'Actu juin 2020, art. 132
Photo by Alex Knighton Unsplash