La Responsabilité Juridique Face aux Défaillances d’Intelligence Artificielle en Médecine

L’intégration des systèmes d’intelligence artificielle dans le domaine médical représente une avancée majeure pour le diagnostic, le traitement et le suivi des patients. Toutefois, cette innovation soulève des questions juridiques complexes lorsque ces technologies commettent des erreurs. Entre le fabricant du dispositif, le professionnel de santé et l’établissement médical, qui doit assumer la responsabilité en cas de préjudice causé par une IA médicale défaillante? Cette problématique s’inscrit dans un vide juridique relatif, où les cadres légaux traditionnels peinent à s’adapter aux spécificités de ces technologies autonomes et évolutives. Nous analyserons les régimes de responsabilité applicables, les évolutions législatives récentes et les défis que pose l’attribution de la responsabilité dans ce contexte d’innovation médicale.

Cadre juridique actuel et qualification des systèmes d’IA médicale

La qualification juridique des systèmes d’intelligence artificielle en médecine constitue le point de départ de toute analyse de responsabilité. En France comme dans l’Union européenne, ces dispositifs sont principalement appréhendés sous deux angles: celui des dispositifs médicaux et celui des produits défectueux.

La directive 93/42/CEE relative aux dispositifs médicaux, remplacée progressivement par le règlement UE 2017/745, encadre les technologies médicales, y compris celles intégrant de l’IA. Ce règlement renforce les exigences de sécurité et impose une évaluation clinique plus rigoureuse avant la mise sur le marché. Pour les systèmes d’IA spécifiquement, la proposition de règlement sur l’intelligence artificielle présentée par la Commission européenne en avril 2021 classe les applications médicales d’IA dans la catégorie des systèmes à « haut risque », impliquant des obligations renforcées.

En matière de responsabilité civile, la directive 85/374/CEE sur la responsabilité du fait des produits défectueux, transposée en droit français aux articles 1245 à 1245-17 du Code civil, permet d’engager la responsabilité du producteur lorsqu’un défaut de son produit cause un dommage. Cette responsabilité est objective, ne nécessitant pas la preuve d’une faute.

Spécificités des systèmes d’IA en tant que dispositifs médicaux

Les systèmes d’IA médicale présentent des caractéristiques qui compliquent leur qualification juridique:

  • L’apprentissage machine permet à ces systèmes d’évoluer après leur mise sur le marché
  • Le caractère parfois opaque des algorithmes (effet « boîte noire »)
  • La dépendance aux données d’entraînement qui peuvent contenir des biais
  • La chaîne d’acteurs impliqués dans leur conception, développement et utilisation

Ces particularités posent la question de l’adéquation du cadre juridique existant. Le Conseil d’État français, dans son étude de 2019 sur l’IA, a souligné ces difficultés et recommandé des adaptations législatives pour mieux prendre en compte ces spécificités.

La jurisprudence commence à se former, bien que limitée. L’affaire du robot chirurgical Da Vinci, bien qu’il ne s’agisse pas d’une IA autonome à proprement parler, a fourni des premières orientations sur la responsabilité en cas de défaillance d’un dispositif robotisé en contexte médical. Les tribunaux ont eu tendance à examiner à la fois la responsabilité du fabricant et celle du praticien selon les circonstances.

Responsabilité des fabricants et développeurs d’IA médicale

Les fabricants et développeurs de systèmes d’IA médicale se trouvent en première ligne face aux questions de responsabilité. Leur position dans la chaîne de valeur les expose à plusieurs régimes de responsabilité potentiellement applicables.

La responsabilité du fait des produits défectueux constitue le principal fondement invocable contre les fabricants. Selon l’article 1245-3 du Code civil, « un produit est défectueux lorsqu’il n’offre pas la sécurité à laquelle on peut légitimement s’attendre ». Pour une IA médicale, cette sécurité légitime doit être appréciée en tenant compte de multiples facteurs: la présentation du produit, l’usage raisonnablement attendu, et l’état des connaissances scientifiques au moment de sa mise en circulation.

La question du défaut de conception prend une dimension particulière avec les systèmes d’IA. Un algorithme mal conçu, entraîné sur des données biaisées ou insuffisantes, ou dont les limitations n’ont pas été clairement communiquées, pourrait être considéré comme défectueux. La Cour de cassation française a déjà considéré dans d’autres domaines que l’absence d’information sur les limites d’un produit peut caractériser un défaut.

Obligations spécifiques des fabricants d’IA médicale

Au-delà de la responsabilité générale du fait des produits, les fabricants sont soumis à des obligations spécifiques:

  • L’obligation de surveillance post-commercialisation renforcée par le règlement UE 2017/745
  • Le devoir de mise à jour des systèmes pour corriger les vulnérabilités découvertes
  • L’obligation de traçabilité des décisions algorithmiques
  • Le respect du RGPD pour le traitement des données de santé

La proposition de règlement européen sur l’IA renforce ces obligations en imposant notamment des exigences de transparence, de robustesse et de supervision humaine pour les systèmes à haut risque, catégorie incluant la majorité des applications médicales.

Les fabricants peuvent tenter de s’exonérer de leur responsabilité en invoquant certaines causes d’exonération prévues par la loi, comme le risque de développement (article 1245-10, 4° du Code civil). Toutefois, la jurisprudence européenne interprète strictement cette exception, exigeant que l’état des connaissances scientifiques n’ait objectivement pas permis de déceler l’existence du défaut. Pour une IA médicale, cette défense pourrait être difficile à établir, notamment si des tests approfondis auraient pu révéler les limitations du système.

Le partage de responsabilité entre les différents acteurs de la chaîne de développement (concepteur de l’algorithme, fournisseur des données d’entraînement, intégrateur) représente un défi supplémentaire. La jurisprudence devra déterminer comment répartir la responsabilité entre ces intervenants en cas de défaillance.

Responsabilité des professionnels de santé utilisant l’IA

Les médecins et autres professionnels de santé qui utilisent des systèmes d’IA dans leur pratique se trouvent dans une position délicate. Ils doivent naviguer entre l’utilisation d’outils innovants potentiellement bénéfiques pour leurs patients et le risque juridique associé à une défaillance de ces technologies.

En droit français, la responsabilité médicale repose principalement sur la notion de faute. L’article L.1142-1 du Code de la santé publique dispose que « les professionnels de santé […] ne sont responsables des conséquences dommageables d’actes de prévention, de diagnostic ou de soins qu’en cas de faute ». La question centrale devient donc: constitue-t-il une faute de suivre ou, au contraire, de s’écarter des recommandations d’un système d’IA?

La jurisprudence a traditionnellement évalué la faute médicale en comparant le comportement du praticien à celui qu’aurait eu un médecin normalement compétent dans les mêmes circonstances. Avec l’introduction de l’IA, cette appréciation devient plus complexe. Le Conseil national de l’Ordre des médecins a souligné que l’utilisation d’outils d’IA ne décharge pas le médecin de sa responsabilité de jugement clinique.

Devoir de vigilance et d’information

Plusieurs obligations s’imposent au médecin utilisant l’IA:

  • Le devoir de vigilance face aux recommandations algorithmiques
  • L’obligation de formation aux outils utilisés et la connaissance de leurs limites
  • Le devoir d’information du patient sur l’utilisation d’un système d’IA
  • L’obligation de contrôle et de validation des résultats fournis par l’IA

La Haute Autorité de Santé a commencé à élaborer des recommandations sur l’utilisation de l’IA en pratique médicale, précisant que ces outils doivent rester des aides à la décision et non des substituts au jugement médical.

Des situations particulièrement délicates peuvent survenir lorsque le système d’IA propose un diagnostic ou un traitement contraire à ce qu’aurait recommandé le médecin. Si le praticien suit la recommandation de l’IA et qu’un dommage survient, sa responsabilité pourrait être engagée pour avoir abandonné son jugement clinique. À l’inverse, s’il s’écarte de la recommandation algorithmique et qu’un préjudice en résulte, on pourrait lui reprocher d’avoir ignoré un outil d’aide à la décision disponible.

La jurisprudence américaine a commencé à aborder ces questions, notamment dans l’affaire Mracek v. Bryn Mawr Hospital, où la cour a considéré que l’utilisation d’un système d’aide au diagnostic n’exonérait pas le médecin de sa responsabilité d’exercer son jugement professionnel. Cette tendance semble se confirmer en Europe, bien que la jurisprudence reste en développement.

Responsabilité des établissements de santé et organismes de régulation

Les établissements de santé jouent un rôle déterminant dans l’acquisition, l’implémentation et la supervision des systèmes d’IA médicale. Leur responsabilité peut être engagée à plusieurs titres lorsqu’une défaillance de ces technologies cause un préjudice à un patient.

En droit français, les établissements publics de santé sont soumis au régime de la responsabilité administrative, tandis que les établissements privés relèvent du droit civil. Dans les deux cas, l’établissement peut voir sa responsabilité engagée pour des fautes dans l’organisation du service, le choix des équipements ou la formation du personnel.

La jurisprudence administrative considère que les établissements publics ont une obligation de fournir des équipements adaptés et en bon état de fonctionnement. L’arrêt du Conseil d’État du 9 juillet 2003 a confirmé cette responsabilité dans le cas d’un équipement médical défectueux. Par analogie, un établissement pourrait être tenu responsable s’il met à disposition de son personnel un système d’IA inadapté, insuffisamment testé ou dont la maintenance n’est pas assurée correctement.

Obligations spécifiques des établissements

Les responsabilités des établissements de santé concernant l’IA médicale incluent:

  • La diligence dans le choix des systèmes d’IA (évaluation préalable, certification)
  • La formation adéquate du personnel à l’utilisation de ces technologies
  • La mise en place de protocoles d’utilisation clairs
  • La surveillance de l’utilisation et des performances des systèmes
  • La déclaration des incidents aux autorités compétentes

La Haute Autorité de Santé a commencé à élaborer des référentiels pour guider les établissements dans l’intégration responsable des technologies d’IA. Ces documents, bien que non contraignants juridiquement, pourraient servir de standards pour apprécier la diligence d’un établissement en cas de litige.

Quant aux autorités de régulation, comme l’Agence Nationale de Sécurité du Médicament (ANSM) pour la France ou l’Agence Européenne des Médicaments (EMA) au niveau européen, leur responsabilité pourrait théoriquement être engagée pour des défaillances dans leurs missions de contrôle des dispositifs médicaux intégrant de l’IA. Toutefois, cette responsabilité reste difficile à mettre en œuvre en pratique, la jurisprudence exigeant généralement la preuve d’une faute lourde pour engager la responsabilité de l’État dans ses missions de contrôle.

Le règlement européen sur les dispositifs médicaux renforce le rôle des organismes notifiés dans la certification des dispositifs à risque élevé, incluant de nombreux systèmes d’IA médicale. Ces organismes pourraient voir leur responsabilité engagée en cas de défaillance dans leurs procédures d’évaluation, comme l’a suggéré l’affaire des implants mammaires PIP où la responsabilité de l’organisme notifié a été questionnée.

Vers une responsabilité partagée et des mécanismes d’indemnisation innovants

Face aux défis posés par l’attribution de la responsabilité en cas de défaillance d’IA médicale, de nouvelles approches juridiques et assurantielles émergent. Ces modèles tendent vers une conception plus nuancée et adaptée aux spécificités de ces technologies.

L’idée d’une responsabilité en cascade gagne du terrain dans les réflexions juridiques européennes. Ce modèle établit une hiérarchie de responsabilité entre les différents acteurs impliqués: le fabricant en premier lieu, puis le professionnel de santé, et enfin l’établissement médical. Cette approche, évoquée dans le rapport Villani sur l’intelligence artificielle, permettrait d’identifier plus facilement un responsable tout en maintenant la possibilité de recours entre les différents acteurs.

La résolution du Parlement européen du 20 octobre 2020 recommande un régime d’assurance obligatoire pour certaines catégories d’IA à haut risque, couplé à un fonds de compensation pour les cas où aucune couverture d’assurance ne serait applicable. Cette proposition s’inspire des fonds d’indemnisation existants dans le domaine médical, comme l’Office National d’Indemnisation des Accidents Médicaux (ONIAM) en France.

Innovations juridiques et assurantielles

Plusieurs pistes innovantes sont explorées:

  • Des systèmes d’assurance spécifiques pour les technologies d’IA médicale
  • L’établissement de standards de certification harmonisés au niveau européen
  • La création de procédures d’expertise judiciaire spécialisées pour l’évaluation des défaillances d’IA
  • Des mécanismes de responsabilité sans faute pour certains dommages causés par l’IA

Le droit comparé offre des perspectives intéressantes. Le modèle néo-zélandais d’indemnisation des accidents médicaux, qui fonctionne sans recherche de responsabilité, pourrait inspirer des solutions pour les dommages causés par l’IA médicale. De même, certains États américains ont développé des procédures d’arbitrage spécifiques pour les litiges médicaux, potentiellement adaptables aux cas impliquant l’IA.

L’approche de la personnalité juridique de l’IA, bien que controversée, est parfois évoquée. Le Parlement européen a exploré cette possibilité dans une résolution de 2017, suggérant une forme de « personnalité électronique » pour les robots autonomes les plus sophistiqués. Toutefois, cette approche reste minoritaire, la plupart des juristes préférant adapter les régimes de responsabilité existants plutôt que de créer une nouvelle catégorie juridique.

La traçabilité des décisions algorithmiques constitue un enjeu majeur pour l’attribution de responsabilité. Le règlement européen sur l’IA en cours d’élaboration prévoit des exigences strictes de documentation et d’explicabilité pour les systèmes à haut risque, facilitant ainsi l’analyse des défaillances et l’identification des responsabilités.

Perspectives d’avenir pour un encadrement juridique équilibré

L’évolution rapide des technologies d’intelligence artificielle en médecine appelle à une adaptation continue du cadre juridique. Cette adaptation doit trouver un équilibre délicat entre la protection des patients, la sécurité juridique des acteurs et l’innovation médicale.

Le règlement européen sur l’IA, dont l’adoption définitive est attendue prochainement, constituera une étape majeure dans la clarification des responsabilités. Ce texte propose une approche graduelle basée sur le niveau de risque des applications d’IA. Pour les systèmes médicaux, classés à haut risque, des exigences strictes sont prévues: évaluation de conformité préalable, supervision humaine, transparence et traçabilité.

Au niveau français, le Comité consultatif national d’éthique (CCNE) a formulé des recommandations sur l’encadrement éthique et juridique de l’IA en santé. Ces travaux mettent l’accent sur la nécessité de maintenir le médecin au centre de la relation de soin, même lorsque l’IA intervient dans le processus décisionnel.

Équilibre entre innovation et protection

Les défis pour l’avenir incluent:

  • La création de procédures d’homologation adaptées aux spécificités de l’IA évolutive
  • L’établissement de standards de performance minimaux pour les systèmes d’IA médicale
  • Le développement d’une jurisprudence spécialisée sur les questions d’IA médicale
  • L’harmonisation des approches juridiques au niveau international

La formation des professionnels du droit et de la santé aux enjeux de l’IA représente un autre défi majeur. Les magistrats, avocats et experts judiciaires doivent développer des compétences spécifiques pour traiter efficacement les litiges impliquant ces technologies complexes. Des initiatives comme le Partnership on AI aux États-Unis ou la chaire Santé numérique en France contribuent à cette montée en compétence.

L’approche multidisciplinaire semble incontournable pour élaborer un cadre juridique adapté. La collaboration entre juristes, médecins, ingénieurs et éthiciens permet d’appréhender la complexité des enjeux liés à l’IA médicale. Le Health Data Hub français illustre cette démarche collaborative pour encadrer l’utilisation des données de santé dans le développement de l’IA.

Enfin, la dimension internationale de la question ne doit pas être négligée. Les systèmes d’IA médicale sont souvent développés par des acteurs multinationaux et utilisés dans différents pays. Une harmonisation des approches juridiques, au moins au niveau européen, apparaît souhaitable pour éviter les disparités réglementaires et assurer une protection homogène des patients.

Le défi pour les années à venir sera de construire un cadre juridique suffisamment robuste pour protéger les patients tout en restant assez souple pour s’adapter aux évolutions technologiques rapides dans ce domaine. La responsabilité en cas de défaillance d’IA médicale continuera d’être un champ d’innovation juridique, reflétant l’équilibre délicat entre progrès technologique et sécurité des soins.