Bref aperçu des enjeux juridiques de l’intelligence artificielle en santé

5 Fév 2019

Bien qu’il puisse paraître ambitieux, le titre de la présente chronique n’épuisera pas un sujet qui ne demande qu’à être exploré dans toutes ses implications.
Ensemble des théories et des techniques développant des programmes informatiques complexes capables de simuler certains traits de l’intelligence humaine (raisonnement, apprentissage, etc.), l’intelligence artificielle (IA) est en mesure, après une phase d’apprentissage (plus ou moins longue), d’exploiter une quantité considérable de données pour apporter une réponse (plus ou moins satisfaisante) à des problèmes complexes.

Depuis plusieurs années, elle trouve de nombreuses applications dans le secteur de la santé. Il en est ainsi de la gestion de stocks de médicaments et de la préparation des doses à administrer[1], de la délivrance de médicaments à domicile[2], de l’aide au diagnostic[3], ou de l’expertise dans le choix du traitement[4]. C’est ainsi, par exemple, qu’au centre Léon-Bérard à Lyon le programme Consore (Continuum Soins Recherche), développé par Unicancer, représente la première brique de son projet Big Data.

Les initiateurs de ce projet expliquent que pour produire du Big Data (BD) en santé clinique, il est nécessaire :

  • de détenir un établissement disposant de données de santé numérisées depuis de nombreuses années ;
  • d’être capable de réunir une équipe projet avec des compétences très larges, bien au-delà des médecins et des informaticiens hospitaliers, intégrant idéalement une équipe de recherche s’intéressant à la thématique du projet ;
  • de bénéficier d’une forte compétence technologique, apportée par les industriels.

Le BD en santé devrait permettre de se diriger vers cette médecine des « 4 P », qui précise, qui prévient[5], qui fait participer et surtout qui personnalise. Cette révolution numérique a permis un changement de paradigme.
L’enjeu de l’IA en médecine clinique ne consiste pas uniquement dans la modélisation des risques ou la programmation des algorithmes procurant un résultat à partir des données saisies, mais bien dans la création d’un outil d’aide à la décision pour les cliniciens dans leur travail au quotidien, en se basant sur l’apprentissage de données rétrospectives dont le résultat est connu.
Ces nombreuses applications prometteuses posent toutefois de redoutables questions juridiques, dans le détail desquelles il est malheureusement impossible d’entrer ici. En voici un très bref passage en revue non exhaustif.

À quelle catégorie juridique appartient l’IA ?

« L’intelligence », « l’autonomie », « la capacité d’auto- apprentissage » ajoutées à la forme ou à l’expression quasi humaine de certains robots conduisent certains, par anthropomorphisme, à envisager la reconnaissance d’une « personnalité électronique » de l’IA. À l’instar de la personnalité morale, cette construction juridique permettrait par exemple à l’IA de conclure un contrat ou de disposer d’un patrimoine propre, mais aussi d’éviter la dilution des responsabilités des acteurs (concepteurs, fabricants, distributeurs, utilisateurs, etc.).
Or, en l’état actuel des choses, le droit repose sur trois catégories juridiques, à savoir les personnes, les animaux et les choses. Si, à l’évidence, l’IA ne relève pas des deux premières,
et sauf à en créer une nouvelle, l’IA ne peut qu’être une « chose ». Or, au regard des progrès de l’IA, cette distinction n’est guère satisfaisante. Il ne fait aucun doute que les victimes
de l’IA doivent obtenir réparation.

L’IA est-elle soluble dans le RGPD ?

La première caractéristique de l’IA réside dans la disponibilité d’un grand nombre de données. Pour être correctement entraîné, le deep learning doit disposer d’un nombre virtuellement important, voire infini, d’exemples de données pour parfaire le modèle à construire. C’est sur la base de corrélations aléatoires entre des données en grand nombre que les systèmes d’IA élaborent progressivement leurs modèles de compréhension du « réel ». Or, cette caractéristique s’oppose au principe même des législations de protection des données, et en particulier aux injonctions de finalité spécifique et de minimisation (ou de proportionnalité) des données.
L’article 5 du règlement général sur la protection des données exige en effet que la finalité des traitements soit explicite. Or, dans le cadre des larges bases de données sur lesquels
s’appuient les systèmes d’IA, leur utilisation, généralement définie initialement pour un usage déterminé, peut, fonctionnement des algorithmes aidant, se révéler utile pour d’autres
usages. Par ailleurs, certains éléments collectés par le système d’IA peuvent avoir été recueillis au départ pour une finalité différente.
Les systèmes d’IA se nourrissent de nombre d’informations qui peuvent – sans certitude – se révéler pertinentes pour la décision médicale mais pas a priori de manière absolue. Ces données, une fois collectées et traitées pour la finalité initialement poursuivie, sont fréquemment conservées indéfiniment au cas où elles pourraient être utiles à l’avenir. De telles pratiques inhérentes au fonctionnement et à l’intérêt des systèmes d’IA se heurtent aux prescriptions du RGPD lorsque l’article 5 exige en son point 1 c) que les données soient « adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées (minimisation des données) », et en son point e) que ces données soient « conservées sous une forme permettant l’identification des personnes concernées pendant une durée n’excédant pas celle nécessaire au regard des finalités pour lesquelles elles sont traitées ».

Le problème de la responsabilité découlant de l’utilisation d’un système d’IA

En cas de lésion causée au patient par le robot chirurgical, qui est responsable ? Qu’en est-il d’une personne handicapée suivie à domicile qui se verrait poussée par un robot devenu
agressif provoquant des fractures ? Que se passerait-il si le système de diagnostic prédictif annonçait à tort la survenance d’un cancer inguérissable du patient et entraînait une profonde
dépression de ce dernier suivie de son suicide ? Si le praticien ayant eu recours à un système d’IA éprouvé ou présentant des résultats apparemment crédibles n’est pas condamnable, vers qui le patient se retournera-t-il alors ? Vers le concepteur du système sans doute, s’il a mis sur le marché un « produit » défectueux, mais ce dernier pourra objecter qu’il peut difficilement être tenu pour responsable de l’évolution d’un système de deep learning dont le propre est de pouvoir se nourrir des données rencontrées ultérieurement et que cette évolution est largement inconnue du concepteur du produit de base.
En d’autres termes, la directive européenne du 25 juillet 1985 sur la « responsabilité du fait des produits défectueux » qui condamne le producteur pour les défauts du produit, même sans faute de sa part, lui serait inapplicable. Si l’on admet qu’il n’y a pas eu manquement à l’obligation de prudence, ne peut-on considérer que, conjointement, ce sont la personne qui met le produit d’IA en circulation, celle sous le contrôle de laquelle le système fonctionne (par exemple, l’hôpital qui met le robot à disposition du patient qui retourne à son domicile) et, le cas échéant, celle qui participe à sa mise au point (par exemple, le chirurgien) qui, en fonction de la spécificité du système d’IA, devraient a priori être responsables du fait dommageable causé au patient opéré ou diagnostiqué, du moins lorsque le système ou le produit d’IA s’est comporté de manière différente de celle qui était attendue par le public en fonction de l’information reçue. Pour équitable qu’elle puisse paraître, la solution risque de dissuader concepteurs, metteurs au point et prescripteurs de robots à oser ces produits innovants, faute en outre de trouver des assurances acceptant de couvrir un risque largement inconnu.

Les acteurs de l’IA : sous-traitants ou responsables de traitement ?

Comment qualifier les opérateurs travaillant en amont et en coopération avec les acteurs médicaux ? La société qui, par exemple, analyse grâce à un système d’IA des résultats de dialyse ou d’imagerie médicale qui lui sont communiqués via des infrastructures sécurisées par des médecins est-elle qualifiable de sous-traitant au regard du RGPD ou au contraire de responsable
de traitement ? La qualification dépendra d’un examen au cas par cas en fonction des relations entre les professionnels ou les établissements de santé et les entreprises offrant leurs services.

IA et propriété intellectuelle (PI)

Les relations entre IA et PI ne sauraient être envisagées dans les mêmes termes selon que la création issue de l’IA est susceptible de relever de la propriété industrielle ou de la propriété
littéraire et artistique. Dans le premier cas, les conditions d’accès à la protection étant pour l’essentiel définies de manière objective, le recours à un processus d’IA ne devrait pas perturber une problématique technicienne classique. Dans le second cas, la prégnance de la tradition personnaliste oblige à une interrogation de nature anthropologique sur l’acte de création, sauf – et c’est ce qu’on pourrait craindre – si l’on tranche a priori en faveur de la protection ou de la non-protection de l’oeuvre issue de l’intelligence artificielle.
Pour conclure (provisoirement), le lecteur aura compris que la question des enjeux juridiques (et éthiques) de l’IA dans le domaine de la santé est presque aussi inépuisable que le sont ses applications en santé.


L’auteur

Me Omar YAHIA
SELARL YAHIA Avocats
Barreau de Paris

[1] Depuis 2004, le centre hospitalier de Meaux a mis en place un robot, nommé PillPick, fabriqué par Swisslog, qui permet d’automatiser une bonne partie de la délivrance des médicaments. Aux États-Unis, de nombreux établissements, comme le centre médical de l’Université de Californie à San Francisco, se sont équipés. Les médecins de ces centres envoient leur ordonnance électroniquement au robot qui se charge de gérer le stock, de préparer les doses à administrer pour la journée et de suivre la bonne administration du médicament à l’aide d’un code-barres. Le rôle du pharmacien consiste à vérifier le travail du robot. Avec ce système, plus de 10 000 doses sont préparées par jour, avec un coût de personnel réduit au minimum et un taux d’erreur avoisinant zéro, contre un taux moyen de cinq erreurs pour 100 000 préparations pour un pharmacien.

[2] Une start-up américaine, PillPack, rachetée par Amazon en juin 2018, propose aux patients un système d’envoi de médicaments à domicile à l’aide d’une plateforme Internet. PillPack, bien plus qu’un simple système de livraison, a développé un logiciel métier, PharmacyOS, qui améliore l’ensemble de la chaîne de valeur du pharmacien. Prescription du médecin, analyse de l’ordonnance, tarification aux centres payeurs et enfin livraison du médicament au patient, tout a été conçu pour être automatisé et aider le pharmacien dans son activité. De plus, un système de rappel permet le renouvellement de l’ordonnance de façon automatique.
Dans la même lignée, Amazon vient d’obtenir l’autorisation de distribuer des médicaments sur prescription dans une douzaine d’États américains. Déjà présent dans le domaine des médicaments conseils et des dispositifs médicaux, le géant du e-commerce prépare le terrain pour s’attaquer à ce nouveau marché. Personne ne sait exactement comment, mais il est certain que la société dispose de tous les atouts, notamment via son réseau logistique et sa politique de prix, pour renverser le marché du médicament.

[3] « La radiologie sera l’un des premiers secteurs de la médecine bousculés par l’IA. Fabricants d’équipements, start-up et géants des technologies tels Google, Microsoft et IBM s’intéressent de près au sujet », avançait récemment le journal Les Échos. Cardiologs est une société qui facilite l’analyse des électrocardiogrammes (ECG). Grâce à une base de données d’environ 500 000 ECG, son logiciel a appris à les lire et à dépister des pathologies, notamment des arythmies cardiaques. La start-up, fondée en 2014, a été la toute première au monde à recevoir le marquage CE pour un algorithme de deep learning et la deuxième à obtenir l’accord de la Food and Drug Administration (FDA) aux États-Unis pour le commercialiser.
De même, cofondé en 2013 par les chercheurs Olivier Clatz et Pierre Fillard, Therapixel est un éditeur français de logiciels consacrés à l’imagerie médicale. Cette start-up développe des outils d’interprétation d’images médicales basés sur l’IA et ambitionne de révolutionner la radiologie diagnostique, notamment grâce aux algorithmes exploitant les « réseaux de neurones ».

[4] Le supercalculateur Watson, développé par IBM, est un programme informatique capable de répondre à des questions formulées en langage humain. Il aide le médecin à trouver le traitement le plus adapté pour soigner un cancer. Pour ce faire, la machine analyse l’historique médical du patient, qu’elle croise avec les informations collectées dans des centaines de milliers d’articles scientifiques.

[5] Dans ses deux sens : avertir (et… peut-être empêcher).

Share This