DSI et juridique, main dans la main pour affronter les défis de l'IA

Data / IA

IA : direction juridique et DSI doivent travailler main dans la main

Par Pierre-Randolf Dufau, publié le 29 novembre 2023

De la signature électronique à l’automatisation des connaissances et à l’analyse documentaire, l’intelligence artificielle s’affirme comme un acteur majeur au sein des entreprises, à l’image de la récente collaboration entre PwC UK et OpenAI (voir ci-contre). Cependant, pour exploiter pleinement ce levier révolutionnaire qu’est l’IA tout en respectant la conformité règlementaire, la collaboration étroite entre les équipes juridiques et les DSI revêt une importance cruciale.


Par Cassandre Mariton & Huê Gasparoux, PRD Avocats


La prolifération d’outils utilisant l’IA soulève des préoccupations quant à la protection des données personnelles destinées à enrichir l’apprentissage des systèmes existants.

En effet, aux côtés des plateformes de dématérialisation des signatures telles que DocuSign ou Adobe Sign, des assistants juridiques dédiés à la gestion contractuelle, tels que Sirionlabs ou Precisely, ainsi qu’à l’analyse de documents juridiques grâce à l’IA, comme Luminance, Kira Systems ou encore Genie AI, ont fait leur apparition. Ces nouveaux outils, accélérant et simplifiant les procédures, s’appuient sur le processus d’apprentissage automatique de la machine. Toutefois, étant donné que les données fournies à l’IA sont susceptibles de contenir des données personnelles, il est impératif de prendre en compte le lien avec la protection des principes établis par le RGPD.

Le 11 octobre 2023, dans le contexte de l’adoption croissante de l’IA dans la transformation des entreprises, la Cnil a publié sept fiches pratiques sur les « systèmes d’IA reposant sur la collecte et l’utilisation de données personnelles ». Ces recommandations visent à guider les directions juridiques et les DSI, de la détermination du régime juridique applicable jusqu’à la protection des données personnelles lors de la collecte nécessaire à l’apprentissage de l’IA.

À noter que ces directives ne s’appliquent qu’à la phase de développement des systèmes d’IA, qui s’étend de leur conception à leur entraînement. Elles soulignent avant tout les multiples enjeux de la transformation de l’entreprise grâce à l’IA, mettant en exergue la nécessité pour les services juridiques et techniques de travailler en équipe.

Ainsi, bien que les responsables de traitement aient tout intérêt à s’engager dans l’utilisation de ces nouveaux outils exploitant l’intelligence artificielle, il incombe à la direction juridique d’identifier les risques inhérents à cette mise en œuvre.

Interrogé sur la collaboration entre équipes juridiques et DSI, ChatGPT souligne qu’il est important pour elles de ne pas négliger la nécessité d’anticiper les risques liés aux erreurs algorithmiques.

En effet, il est essentiel d’établir des mécanismes de prévention et de correction, incluant des protocoles de surveillance et des procédures de gestion des erreurs. La collaboration entre les deux directions doit aller au-delà de l’identification des risques juridiques classiques, en cherchant l’élaboration de stratégies pour y faire face, notamment en investissant dans la formation du personnel.

Cette gestion des risques, y compris des erreurs algorithmiques, sera cruciale et nécessite cette collaboration pour anticiper, prévenir et résoudre les problèmes potentiels, tout en maximisant les avantages de l’IA pour l’entreprise.

En conclusion, l’intégration de l’IA passe plus que jamais par un travail d’experts maîtrisant les « codes » juridiques, informatiques et humains.


À LIRE AUSSI :

À LIRE AUSSI :

Dans l'actualité