Comment encadrer les risques liés aux dommages causés par une IA ?

Data / IA

Encadrer les risques liés aux dommages causés par une IA

Par La rédaction, publié le 01 juillet 2022

Système informatique doté d’une autonomie capable d’effectuer des choix qui lui sont propres, l’IA fonctionne cependant par le biais d’algorithmes et de données. Elle n’est donc pas totalement indépendante puisque son fonctionnement est nécessairement commandé par une programmation. Qui est alors responsable en cas de dommages causés par une IA ?

Par Cassandre Mariton, Avocate à la cour, PRD avocats

Le déploiement rapide de systèmes utilisant l’intelligence artificielle pose aujourd’hui d’importantes questions de responsabilité. D’un côté, l’IA ne possédant aucune personnalité juridique, la législation actuelle ne permet pas de la tenir responsable d’indemniser les personnes du fait d’un dommage qu’elle causerait. De l’autre, l’IA est bel et bien dotée d’une autonomie qui repose sur sa capacité à agir.

Rappelons que le régime de droit commun gouverne notamment la mise en jeu de la responsabilité contractuelle, invoquée dès lors que les dommages peuvent se rattacher à des obligations contractuelles. Mais s’agissant de la responsabilité délictuelle, elle implique, dit la Cour de cassation, « une volonté de créer le dommage tel qu’il est advenu ».

En ce sens, la responsabilité du fait de l’IA pourrait potentiellement incomber à toute personne qui est à l’origine des circonstances dans lesquelles est né le dommage causé, sous réserve que ce « gardien » ait la direction, le contrôle et l’usage d’une IA.

Ainsi, le propriétaire de la machine agissant sous IA, le concepteur, le titulaire de droits sur le logiciel de la machine agissant sous IA, ou encore le vendeur de cette dernière pourraient être reconnus responsables.

Cependant et comme expliqué plus haut, l’autonomie intrinsèque de l’IA vient invalider la réalité du contrôle direct de la part du responsable. Le Parlement européen, ainsi que de nombreux experts, proposent donc de créer une personnalité juridique propre aux robots, dite « personnalité électronique ».

Cette volonté de créer un statut spécifique pour les robots autonomes les plus sophistiqués aboutirait à ce que leur responsabilité, engagée du fait de la personnalité électronique, les oblige à réparer tout dommage qu’ils pourraient causer.

Mais nombreuses sont les objections qui affirment que ce statut de « personne électronique » pour les robots doit être écarté d’un point de vue juridique et éthique.

Face à ce défi majeur de détermination de la responsabilité, un équilibre doit être trouvé, car si le concepteur de l’IA n’est jamais tenu pour responsable, il est indirectement encouragé à proposer un produit ou un service dont la qualité ne prime pas.

A contrario, si la responsabilité est facilement engagée, cela pourrait créer un cadre réglementaire trop strict étouffant toute innovation. En attendant, et pour prévenir toute incertitude, il est donc plus que jamais nécessaire de veiller à l’encadrement contractuel précis de l’intervention d’une IA.

 

>> Retrouvez nos tribunes juridiques & IT  <<

 

 


A lire également

Les enjeux juridiques de l’intelligence artificielle

Quelle maturité des entreprises face à l’IA ? Une étude fait le point.

Des clés pour déployer une IA responsable

Low-code ou no-code : la liberté sous conditions

« Pour que l’IA soit explicable, elle doit parler le même vocabulaire que les experts qu’elle renseigne… »

La startup Cerebras annonce un record pour son processeur IA

Avancées IA & Cybersecurité.

Dans l'actualité

Verified by MonsterInsights