MarocDroit  -  موقع العلوم القانونية
plateforme des décideurs juridiques - Platform of Legal Decision-Makers




IA : vers la « responsabilité civile »

     

IA : vers la « responsabilité civile 3.0 »

actu-juridique

Élodie Valette
avocate au barreau de Paris, associée, BCLPPhilippe Métais
Philippe Métais
avocat au barreau de Paris, associé, BCLPEmna Gafsi
Emna Gafsi
stagiaire, département Litigation chez BCLP






IA : vers la « responsabilité civile »
La question de savoir si nous sommes prêts à accueillir les outils qui intègrent l’intelligence artificielle se pose aussi en matière de responsabilité civile. Il n’est pas certain qu’en leur état les articles de notre Code civil soient en mesure de répondre à la variété de situations qui peuvent, déjà, se rencontrer en pratique. Deux projets de directives européennes sont bien avancés et proposent des solutions innovantes en matière de présomption de responsabilité et de droit de la preuve. L’objet de cet article est de dresser un panorama des règles existantes et de celles bientôt applicables en la matière, autour d’un cas pratique.

Aux termes de l’IA Act, un système d’IA est « un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui (…) déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties (…) »1.

L’IA connaît un développement exponentiel depuis déjà plusieurs années et a vocation à être massivement utilisée dans des domaines variés. Or, comme relevé par la Commission européenne2, les systèmes d’IA sont complexes « à la fois par la pluralité des opérateurs économiques intervenant dans la chaîne d’approvisionnement et par la multiplicité des composants, pièces, logiciels, systèmes ou services qui forment ensemble les nouveaux écosystèmes technologiques ». De plus, en raison « des grandes quantités de données concernées, de la dépendance aux algorithmes et de l’opacité du processus (…) décisionnel de l’IA », il est difficile de prédire le comportement d’un produit assisté par l’IA et de comprendre les possibles causes d’un préjudice. Enfin les mises à jour et mises à niveaux régulières des IA accroissent les problématiques liées au contrôle de telles technologies.

Les dommages causés par les IA pourraient ainsi être particulièrement nombreux, et les demandes de réparation sur le fondement de la responsabilité civile – considérée comme l’ultimumsubsidium« lorsqu’aucune autre voie juridique ne se présente » et comme l’« amie fidèle des victimes désemparées, (…) remède universel aux lacunes du Droit et à l’inertie du législateur »3 – aussi.

La responsabilité civile est une matière irriguée par la jurisprudence et il paraît alors opportun de traiter la manière dont l’IA s’accommode du régime de responsabilité de droit français en s’appuyant sur un cas pratique – qui permettra par ailleurs de souligner la diversité des dommages pouvant être causés par des IA.

Présentation du cas pratique
En ce début du mois d’août 2024, Monsieur et Madame Taique connaissent bien des mésaventures. La veille de leur départ en vacances, leur fils est sévèrement mordu à la main par le chien-robot avec lequel il jouait dans le jardin. Sur le trajet vers l’hôpital, la voiture autonome de M. Taique pile brutalement à un feu vert, causant un carambolage et de sérieux dommages matériels. Enfin, sur leur lieu de vacances à l’étranger, les moyens de paiement de M. et Mme Taique sont soudainement bloqués par le système destiné à détecter les fraudes sur les comptes des clients de leur banque (laquelle leur avait refusé fin juillet un prêt sur la base d’une analyse automatique qui se révélera erronée). De retour prématurément à leur domicile, M. et Mme Taique veulent prendre une boisson rafraîchissante dans leur réfrigérateur mais la porte indique qu’elle ne pourra s’ouvrir qu’à compter du 31 août, date qu’ils avaient programmée lors de leur départ4.

Le droit français distingue les actions en responsabilité contractuelle et extracontractuelle, les premières reposant sur le dommage né de l’inexécution d’un contrat. En l’occurrence, la voie de la responsabilité contractuelle pourrait être ouverte à Monsieur et Madame Taique mais elle présente certaines limites liées à l’existence de clauses limitatives de responsabilité dans certains contrats ou à la solvabilité du cocontractant.

Nous nous concentrerons dans cet article sur la responsabilité extracontractuelle afin d’identifier les questions tout à fait particulières que suscite l’indemnisation des victimes d’un dommage causé par l’IA.

Afin de déterminer si les époux Taique ont des chances d’obtenir réparation de leur dommage, seront passés en revue (I) le régime de responsabilité pour faute, (II) celui du fait des choses et (III) celui du fait des produits défectueux.

I – Responsabilité pour faute
La responsabilité pour faute, prévue à l’article 1240 du Code civil peut être engagée si la victime parvient à démontrer l’existence (i) d’une faute, (ii) d’un préjudice, (iii) d’un lien de causalité entre cette faute et ce préjudice. L’application de ce régime de responsabilité contractuelle trouve cependant ses limites dans les situations d’espèce mettant en jeu des systèmes d’IA.

Tout d’abord, en raison de l’autonomie croissante, voire de certaines IA, une première question est essentielle : les époux Taique pourraient-ils engager la responsabilité d’une des IA qui leur a causé un dommage ? Cela serait possible sous réserve que les systèmes d’IA disposent de la personnalité juridique, ce qui n’est pas le cas à l’heure actuelle. À ce titre, Philippe Le Tourneau relève qu’« aussi subtil qu’il soit, nul algorithme ne saurait être responsable, n’étant pas doté de la personnalité juridique. La société “dystopique”, gouvernée par l’IA, n’existe pas »5. Si l’idée d’une personnalité juridique des IA a été abandonnée tant par la doctrine6 que par les institutions politiques7, il semble cependant que les avancées technologiques de ces dernières années – notamment en matière d’autoapprentissage et donc d’autonomie des IA – puissent faire ressurgir le débat. La vraie question est celle des attributs de la personnalité juridique et de l’existence d’un patrimoine permettant de solder les éventuels dommages et intérêts en cas de responsabilité.

Les époux Taique rencontreront aussi des difficultés pour engager la responsabilité pour faute des développeurs des IA. En effet, le régime de responsabilité pour faute fait peser sur la victime la charge de la preuve d’une faute à l’origine de son dommage. Or, dans le cadre de dommages liés à une IA, il peut s’avérer complexe – voire impossible – d’apporter une telle preuve, tant au regard de la haute technicité des systèmes d’IA, que de la multitude d’acteurs participant au processus de développement et de déploiement de ceux-ci. Les époux Taique, qui ne sont pas des programmeurs avertis, se trouveront donc bien en peine de déterminer que le chien-robot a mordu leur fils à cause d’une faute dans la programmation de l’IA le mettant en action.

L’impasse du droit français en la matière sera peut-être corrigée par l’UE, une proposition de directive sur la responsabilité extracontractuelle spécifique à l’IA ayant été publiée en 2021. Ce texte a vocation à s’appliquer aux actions civiles en réparation des dommages causés à des personnes physiques ou morales qui auraient été lésées par le résultat d’un système d’IA ou l’incapacité de ce système à produire un résultat qui aurait dû l’être. Il entend notamment simplifier les règles probatoires pour les victimes de dommages causés par une IA. Plus précisément, si la proposition de directive fait toujours peser la charge de la preuve sur la victime, elle entend aménager le régime probatoire par le biais de mesures de divulgation de preuves et de présomptions réfragables pour certains types d’IA.

Une juridiction pourra donc ordonner la divulgation aux victimes des éléments de preuve pertinents concernant des systèmes d’IA à haut risque8soupçonnés d’avoir causé leur dommage, à condition que la divulgation soit nécessaire et proportionnée aux besoins de l’action. Une fois l’injonction délivrée, le destinataire aura l’obligation de communiquer les éléments de preuve demandés sous peine de s’exposer à une présomption de faute9.

Le texte pose aussi une présomption de causalité entre la faute – démontrée ou présumée – et le dommage allégué, lorsque plusieurs conditions énumérées dans le texte sont remplies10.

La proposition de directive, si elle est finalement adoptée, permettrait donc de pallier les difficultés que les demandeurs rencontreraient en droit français, sur le terrain de la responsabilité pour faute.

II – Responsabilité du fait des choses
Monsieur et Madame Taique pourraient aussi fonder leur action en réparation sur la responsabilité du fait des choses. S’agissant d’un régime de responsabilité sans faute, ils pourraient avoir davantage de chances de prospérer.

Ce régime de responsabilité prévu à l’article 1242 du Code civil s’applique lorsque plusieurs conditions cumulatives sont remplies soit (i) l’existence d’un dommage, (ii) causé par une chose, (iii) qui a joué un rôle actif dans le dommage, (iv) et qui est sous la responsabilité d’un gardien. En l’état, le régime de responsabilité du fait des choses présente des inconvénients pour les victimes car ses conditions d’application se déclinent mal aux dommages causés par des IA.

Tout d’abord, le mot « chose » dispose d’un sens relativement large et il est admis que des éléments immatériels (tels qu’une onde sonore, l’eau ou encore une image télévisée) puissent être considérés comme des choses. L’IA pourrait donc rentrer dans la catégorie des choses, même si la jurisprudence doit probablement se prononcer sur le sujet.

Ensuite, la détermination de l’instrument du dommage présente des incertitudes en matière d’IA. La victime qui souhaite engager la responsabilité du gardien de la chose doit prouver que celle-ci a été l’instrument de son dommage, ce qui implique son rôle actif dans la réalisation du dommage. La victime devra donc démontrer (i) l’existence d’un lien de causalité entre la chose et le dommage et (ii) une anormalité de la chose. Lorsque la chose est en mouvement etest entrée en contact avec le siège du dommage, il existe une présomption de rôle actif de la chose. Sinon, la victime devra elle-même apporter la preuve d’un fait de la chose, c’est-à-dire de son anormalité11.

Dans le cas d’un dommage causé par une IA, il convient de distinguer le cas où l’anormalité de la chose est celle de l’enveloppe corporelle de l’IA – il s’agirait en l’espèce de l’anormalité du chien-robot – et celui où l’anormalité vient de l’IA elle-même.

En effet, dans le premier cas, les règles classiques de responsabilité du fait des choses pourront s’appliquer et les époux Taique bénéficieront de la présomption de rôle actif de la chose. Le second cas est plus délicat puisque, la chose n’étant pas rentrée en contact avec le siège du dommage, les époux Taique devront établir l’anormalité de l’IA. Or, comme le relève Céline Mangematin12, il est difficile de démontrer l’anormalité d’un système d’IA. En effet, tant au regard de l’opacité de certains systèmes que du point de vue de la définition de ce que serait l’IA anormale, les victimes risquent de se heurter à l’impossibilité de fournir les preuves nécessaires à la réparation de leur dommage.

Par ailleurs, le régime de responsabilité du fait des choses suppose de pouvoir engager la responsabilité de son gardien. Or, il n’est pas certain que les critères classiques de la garde soient applicables à l’IA, ou du moins aux IA autonomes. Pour rappel, depuis l’arrêt Franckdu 2 décembre 194113, la garde est conçue comme le pouvoir de maîtriser l’usage, le contrôle et la direction de la chose. Or, dans le cas des IA, ces critères sont dépassés. À ce titre, Céline Mangematin14 relève que la doctrine a suggéré de recourir à la distinction entre la garde de structure et la garde de comportement. Elle souligne que cette conception permet de « ventiler la responsabilité entre le gardien de l’IA (défaut de l’algorithme) et celui de la chose embarquant l’IA (défaut des capteurs, des freins du robot, etc.) ». Il convient de relever que si cette solution permettait effectivement de faire la distinction entre une anormalité provenant de l’algorithme et celle de la structure de l’IA, cela ne réglerait pas la question des IA qui ne seraient pas embarquées ou de celles qui seraient devenues autonomes.

Pour conclure sur ce point, en l’état des textes et de la jurisprudence, les époux Taique se trouveront en difficulté pour être indemnisés sur le fondement de la responsabilité du fait des choses.

III – Responsabilité du fait des produits défectueux
Les époux Taique envisagent finalement d’engager une action en responsabilité sur le fondement des produits défectueux.

Ce régime de responsabilité a été instauré par le biais de la directive n° 85/374/CEE du 25 juillet 1985 sur la responsabilité du fait des produits défectueux, intégralement transposée en droit français aux articles 1245 à 1245-17 du Code civil (anciennement 1386 et suivants du même code).

Ces articles permettent d’engager la responsabilité du producteur qui naît du défaut d’un produit qu’il a mis en circulation. La victime devra prouver qu’elle a subi (i) un dommage (ii) causé par un produit qui présentait un défaut, et (iii) qu’il existe un lien de causalité entre le dommage subi et le défaut du produit.

Il s’agit d’un régime de responsabilité objective : le demandeur n’aura pas à démontrer l’existence d’une faute pour voir la responsabilité du producteur engagée. Il devra cependant apporter la preuve du défaut du produit, c’est-à-dire une atteinte à la sécurité qu’un utilisateur du produit pourrait légitimement attendre.

Le produit est défini comme « tout bien meuble, même s’il est incorporé dans un immeuble, y compris les produits du sol, de l’élevage, de la chasse et de la pêche ». Une conception large a été donnée à la définition de produit, et il a été estimé que certains biens immatériels, tels que des logiciels, pouvaient être considérés comme des produits15.

Si certains auteurs relèvent que le régime de responsabilité des produits défectueux est celui qui s’adapte le mieux aux IA16, il présente tout de même, lui aussi, certaines limites.

D’abord, la définition de défaut suppose d’être repensée. Au sens des articles du Code civil, le produit est défectueux lorsqu’il ne présente pas la sécurité à laquelle un utilisateur peut s’attendre. Or, les dommages causés par les IA ne relèvent pas uniquement d’atteinte à la sécurité des utilisateurs. Ainsi, les IA qui produisent des résultats discriminants – citons l’exemple d’une IA de reconnaissance faciale qui ne reconnaissait pas les personnes avec des peaux foncées, les empêchant ainsi de remplir leurs demandes d’asile17 – ne tombent pas dans le spectre de la législation sur les produits défectueux alors même que le produit présente un défaut dommageable à certains utilisateurs. D’autre part, Céline Mangematin relève que « la définition du produit défectueux invite à s’interroger sur le modèle de référence à prendre en compte. En effet, quelle sécurité attend-on d’un système d’IA ? »18.

Par ailleurs, les causes d’exonération prévues par le Code civil s’accommodent mal au fonctionnement de l’IA. En effet, l’article 1245-10, 2°, prévoit que le producteur peut être exonéré si « le défaut ayant causé le dommage n’existait pas au moment où le produit a été mis en circulation par lui ou que ce défaut est né postérieurement » ou si « l’état des connaissances scientifiques et techniques, au moment où il a mis le produit en circulation, n’a pas permis de déceler l’existence du défaut ». Or, les caractéristiques des IA, qui disposent de capacités d’autoapprentissage importantes, font que le défaut est susceptible de naître après la mise en circulation du produit, au cours de l’apprentissage de l’IA. De plus, le secteur de l’IA est en expansion et les connaissances techniques sur le sujet évoluent de manière constante et accélérée, permettant aux IA d’atteindre des niveaux de technicité élevés. Ainsi, il est probable que les producteurs chercheraient à se prévaloir de ces causes d’exonération afin d’échapper à leur responsabilité, mettant ainsi en échec les demandes d’indemnisation des victimes sur ce fondement.

Enfin, du point de vue probatoire, la charge de la preuve repose sur la victime. Or, les systèmes d’IA, en particulier ceux ayant des capacités d’autoapprentissage, sont souvent des boîtes noires difficiles à pénétrer.

La Commission européenne a donc publié une proposition de directive en 2021, qui a vocation d’abroger et de remplacer la directive de 1985, relative au régime de responsabilité du fait des produits défectueux. Si elle reprend en substance les dispositions de la précédente directive, elle a pour objectif d’adapter les règles de responsabilité afin de prendre en compte l’évolution des produits tant du point de vue de leur fonctionnement que de leur fabrication.

Il incombera toujours au demandeur de prouver (i) le dommage subi ; (ii) que le produit n’offre pas la sécurité à laquelle la victime pouvait légitimement s’attendre ; et (iii) le lien de causalité entre ces deux éléments. Le texte continue aussi d’établir un régime de responsabilité sans faute.

Si la définition de la défectuosité19 est largement inspirée de celle de 1985, elle intègre de nouveaux critères. Il sera ainsi examiné si l’opérateur continue d’avoir un contrôle sur son produit, l’effet sur le produit de toute capacité à poursuivre son apprentissage ou encore les exigences de cybersécurité20. La proposition de directive offre donc davantage de critères d’appréciation des attentes légitimes de sécurité en en faisant apparaître de nouveaux, spécialement pensés pour les IA.

D’autre part, la notion de produit, limitée aux seuls biens meubles, est expressément étendue aux logiciels21, et donc aux systèmes d’IA défectueux.

Le texte prévoit surtout d’aménager le régime de responsabilité du fait des produits défectueux sur le terrain probatoire. Tout d’abord, les juridictions nationales seront habilitées à exiger du défendeur qu’il divulgue les éléments de preuve dont il dispose dès lors que le demandeur aura présenté des éléments établissant la plausibilité de sa demande22. Cette possibilité sera offerte à la victime quel que soit le produit qui a causé son dommage23.

Ensuite, le texte allège la charge de la preuve en créant des règles de présomption de défectuosité24. Par exemple, si le demandeur parvint à prouver que (i) le produit a contribué aux dommages et (ii) qu’il est probable qu’il soit défectueux, le produit sera présumé défectueux. La présomption de défectuosité permet donc d’alléger la charge de la preuve pour les victimes, notamment au vu de la technicité et de l’opacité de certains systèmes d’IA, ce qui rend difficile d’établir la défectuosité du produit.

De plus, lorsque le produit est considéré comme défectueux – de manière présumée ou établie – et que le dommage est propre au défaut en question, le texte établit une présomption de causalité entre le dommage et la défectuosité du produit25.

Cette proposition de directive devra, si elle est finalement adoptée, faire l’objet d’une harmonisation maximale, c’est-à-dire que le droit national ne pourra déroger aux mesures prévues. Elle est donc susceptible de remplacer les articles 1245 et suivants du Code civil dans un futur plus ou moins proche.

Conclusion
En l’état du droit, Monsieur et Madame Taique rencontreront des difficultés à être indemnisés sur le fondement de la responsabilité extracontractuelle. Afin de ne pas les laisser sans solution, voici quelques suggestions.

Concernant le chien-robot, sous réserve des difficultés précédemment énoncées, il semble que les époux Taique pourraient engager la responsabilité du fabricant sur le fondement de l’article 1245 du Code civil.

Ensuite, les époux Taique pourront être indemnisés sur le fondement de la loi dite Badinteren réparation des dommages causés par l’accident de la voiture autonome.

Afin d’obtenir réparation pour le blocage erroné de leurs moyens de paiement, les époux Taique pourront engager la responsabilité de la banque sur le fondement de la responsabilité contractuelle. En effet, dans le cadre de l’usage de leur compte en banque, ils sont liés avec celle-ci par un contrat. La banque a une obligation de sécurité et de diligence envers ses clients, qui ne semble pas avoir été respectée en l’espèce.

Concernant le réfrigérateur, il est possible d’engager la responsabilité pour faute du développeur de l’IA qui contrôle le réfrigérateur, si les époux parviennent à démontrer qu’une faute a été commise dans sa conception – par exemple en ne prévoyant pas la possibilité d’ouvrir le réfrigérateur avant la date programmée en cas de force majeure.

Un mot enfin sur le projet de réforme de la responsabilité civile, qui est à la Chancellerie depuis déjà un certain temps puisqu’il a été présenté le 13 mars 2017, pour observer que les questions concernant l’IA ne sont pas abordées, ce que l’on peut regretter mais il n’est peut-être pas encore trop tard.



الخميس 5 سبتمبر 2024
MarocDroit منصة مغرب القانون "الأصلية"

عناوين أخرى
< >

الاربعاء 13 نونبر 2024 - 19:36 Les défis juridiques et pratiques des associations étrangères


تعليق جديد
Twitter