Prévention et Réparation
Antélis-responsabilité est une équipe
du cabinet Antélis
30 avril 2020 - L'équipe du cabinet Antélis-responsabilité

Comment encadrer juridiquement une intelligence qui nous surpasse  ? La Directive « responsabilité du fait des produits » doit-elle être adaptée à l’ère du numérique ?


En 2016, « Alphago », algorithme développé par l’entreprise DeepMind spécialisée en intelligence artificielle (IA), a battu le champion du monde de jeu de go, jeu de stratégie complexe chinois. Un an plus tard, les IA se passent de l’homme pour jouer et Alphago est vaincu par son petit-frère après seulement 3 jours d’apprentissage des règles du jeu.

Les IA dites « fortes » apprennent seules, s’autonomisent grâce à leur algorithme et dépassent les données basiques qui leurs sont insufflées par l’homme.

Comme le souligne Grégoire Loiseau, « le fait est que, sans qu’il soit besoin d’imaginer des robots hors de contrôle, des prises de décisions par des systèmes auto-apprenants de plus en plus autonomes peuvent être à l’origine d’actions dommageables pour les personnes ou pour les choses « [1].

Comme le révèle le Livre blanc relatif à l’IA rendu par le Commission Européenne ce 19 février 2020 : cette technologie « s’accompagne d’un certain nombre de risques potentiels, tels que l’opacité de la prise de décision », la discrimination, ou encore l’utilisation des données.

Tout en prévenant ces dommages potentiels, l’UE a pour objectif de ne pas freiner l’innovation et la question se pose d’adapter la Directive « responsabilité du fait des produits » à ces nouveaux outils.

Toutefois, les IA sont une réalité déjà présente dans notre quotidien. Ces machines autonomes comme instrument de dommage font réfléchir à l’adaptation des régimes existants afin de définir, notamment, à qui il reviendrait de prendre en charge toute indemnisation liée à leur survenue éventuelle.

Les régimes de responsabilité existants sont-ils suffisants pour les encadrer ?

La réforme de la responsabilité civile, dont nous proposons une étude régulière [2], ne fait pas mention de ces objets intelligents, contrairement à ce qu’avait annoncé l’ancien garde des Sceaux.

Ainsi, il nous faut particulièrement songer à deux régimes distincts prenant en considération les objets :

La responsabilité du fait des produits défectueux (articles 1245 et suivants du Code civil)

La responsabilité du fait des choses (article 1242 du Code civil)

Dans un premier temps, étudions l’applicabilité de la responsabilité du fait des produits défectueux : 

Selon le régime de responsabilité objective issu de la Directive de 1985 [2], la victime n’a pas à apporter la preuve d’une faute, mais seulement du lien de causalité entre le dommage et la défectuosité du produit.

Le caractère défectueux du produit tient en ce qu’« il n’offre pas la sécurité à laquelle on peut légitimement s’attendre ».

Or, quelle sécurité pouvons-nous attendre d’un objet intelligent, programmé pour s’émanciper et agir de manière imprévisible ?

Il pourrait en effet être opposé à l’application de ce régime que l’essence même de l’IA est de dépasser son maître et de donner un résultat auquel on ne peut s’attendre.

Or, il paraît évident qu’une IA programmée pour la recherche médicale, l’administration de traitement et le dosage de ce dernier, n’a pas pour vocation de créer un dommage corporel pour celui qui se le voit administrer.

De même, dans le domaine industriel la maintenance prédictive des systèmes de production, pourrait mener à un surcoût ou à une perte d’exploitation si l’IA entraine des interventions trop anticipées.

Cependant, si toutes les données et logiciels insérés dans l’algorithme sont exactes et justifiés, peut-on considérer que les conclusions qu’en tire l’IA résultent d’une défectuosité ?

En effet, dans notre cas, il est possible que l’IA ait justement dosé le médicament en fonction des informations dont elle disposait, mais que pour x ou facteurs le patient ne l’ait pas toléré.

De même, l’IA a pu appréhender des risques de défaut d’entretien des machines et anticiper une réparation qui statistiquement n’aurait pas tardé à être nécessaire en fonction des circonstances, mais qui dans les faits s’est avérée inutile et couteuse.

La notion de défectuosité ne peut tenir du fait que l’objet intelligent prenne des initiatives ou donne un résultat non-anticipé car tel est son but.

Elle ne pourrait tenir qu’en un défaut de conception, une mauvaise lecture des données ou des conclusions erronées tirées de ces dernières. La preuve de la défectuosité serait alors bien plus difficile à apporter.

En outre, le risque de développement reste, pour l’heure, une cause d’exonération du producteur mis en cause.

Ainsi, il pourrait être aisé pour ce dernier de se cacher derrière « l’état des connaissances scientifiques actuelles » pour dégager sa responsabilité si l’IA ne se révèle pas, postérieurement à sa mise en circulation, conforme aux attentes.

Dans cette perspective, la réforme de la responsabilité civile a évoqué l’idée de réduire les cas d’exonération de la responsabilité du fait des produits défectueux et de supprimer la cause d’exonération tenant au risque de développement.

Considérée comme un frein à l’innovation, cette cause d’exonération n’a été supprimée que pour les préjudices corporels.

De plus, la responsabilité du producteur n’est pas engagée si, compte tenu des circonstances, il y a lieu d’estimer que le défaut ayant causé le dommage n’existait pas au moment où le produit a été mis en circulation par lui ou que ce défaut est né postérieurement. Or, de par sa nature même la machine peut présenter des défauts « évolutifs ».

Il apparaît alors que si globalement ce régime peut trouver à s’appliquer aux IA, ce dernier ne serait qu’une cote mal taillée.

Dans un second temps, le régime actuel de responsabilité du fait des choses n’est pas non plus adapté à de tels objets.

Cette responsabilité est fondée sur la notion de garde.

En effet, le gardien de la chose est responsable des dommages entraînés par cette dernière car il est censé en avoir la maîtrise : l’usage, le contrôle et la direction au moment du fait dommageable.

De par ce qui a été exposé précédemment, il n’est plus à démontrer que la plus-value de l’IA est son autonomie et donc le fait que lors de son utilisation elle ne soit pas littéralement dirigeable.

La notion de gardien est alors faussée et le responsable du dommage difficile à identifier.

De plus, sauf cas de présomption de causalité en cas de mouvement de la chose, la victime doit prouver le vice ou l’anormalité de la chose ayant causé le dommage.

Dans le cas d’une IA d’aide à la pose de diagnostic, l’erreur de jugement de l’IA résulte-t-il d’un vice ou d’une anormalité si toutes les données menaient objectivement à cette pathologie ?

Comme vu précédemment, la notion d’anormalité ou de défectuosité doit être encadrée : tient-elle au résultat qui se révèle inadapté, mais exact ou au défaut intrinsèque des calculs ?

Conclusion :

Il ne doit pas s’agir de brider l’innovation, mais bien de l’accompagner tout en encadrant juridiquement les responsabilités pouvant être mises en cause.

Les régimes actuels n’offrent pas une assez grande sécurité pour le justiciable victime d’un dommage du fait d’une IA.

Aussi, le Parlement Européen “est conscient du fait que l’émergence de produits présentant des capacités de prise de décision automatisée présente un certain nombre de nouveaux défis, puisque ces produits peuvent évoluer et agir d’une manière qui n’était pas envisagée lors de leur mise sur le marché initiale”.

Il a par exemple été proposé de donner la personnalité juridique aux IA. Or, cet anthropomorphisme conduirait certainement à une déresponsabilisation humaine non souhaitable.

La solution serait alors certainement de se tourner vers un régime de responsabilité objective avec des conditions suffisamment protectrices pour les victimes et les fabricants tout en redéfinissant les faits générateurs de responsabilité. C’est pourquoi, sans refondre totalement les régimes, il apparaît nécessaire d’adapter les notions les encadrant, comme la définition de produit, de sécurité et de garde.

De plus, les causes d’exonération de la responsabilité du fait des produits défectueux devront être réappréciées. A ce propos, le risque de développement est-il amené à disparaître ? Nous vous répondrons dans une prochaine « Chronique de la réforme de la responsabilité civile ».

En tout état de cause, outre les régimes de responsabilité, il est certain que le secteur de l’assurance devra également s’adapter à ces nouveaux risques si particuliers et imprévisibles. Les fabricants ou les propriétaires de machine intelligente pourraient être tenus de contracter une police d’assurance obligatoire et un fonds de compensation pourrait être créé pour indemniser les dommages causés par celle-ci en cas d’inapplicabilité de la police.

 

 

[1] Grégoire LOISEAU, « Intelligence artificielle et responsabilité – Les responsabilités du fait de l’intelligence artificielle » -Communication Commerce électronique n° 4, Avril 2019, comm. 24

[2] https://www.antelis-responsabilite.com/chronique-de-la-reforme-de-la-responsabilite-civile/

[3] Directive 85/374/CEE — Responsabilité concernant les produits défectueux

 

Partager sur :
FacebookTwitterLinkedInEmailPrint