Data / IA

AI Act : que peut espérer en retenir un DSI ?

Par Thierry Derouet, publié le 07 février 2024

Nombreuses sont les voix qui s’élèvent pour critiquer un texte qui, selon elles, pénaliserait plus qu’il ne protégerait. D’autres se réjouissent de son adoption. Cependant, tous semblent s’accorder sur la nécessité de réexaminer en partie l’AI Act qui vient d’être adopté au parlement Européen. Analyse…

Goût d’inachevé en ce début de semaine, après que sous l’égide de Thierry Breton, l’UE ait franchi vendredi 2 février 2024 un pas significatif avec l’adoption unanime par les États membres de l’accord politique sur l’AI Act. Un texte qui, selon les termes mêmes de notre commissaire européen, marque « un consensus » sur un règlement « équilibré et prêt pour l’avenir ». Consensus ? Pas vraiment. Compromis, plus certainement.

On rembobine

En décembre, le texte législatif conçu pour réguler l’intelligence artificielle, y compris ses capacités génératives à l’instar de celles de ChatGPT, a provoqué une réaction immédiate à l’issue de 38 heures de négociations soutenues à Bruxelles. Rapidement critiqué par le président Emmanuel Macron, le compromis trouvé semblait entraver l’avenir des pionniers européens dans le domaine de l’IA générative. L’exécutif français, avec le soutien de l’Allemagne et de l’Italie, avait manifesté l’espoir d’orienter les discussions techniques avant les votes cruciaux des États membres et du Parlement européen.

Jean-Noël Barrot, ministre du Numérique à l’époque, avait cherché à apaiser les inquiétudes lors d’une intervention sur France Inter : « Nous examinerons minutieusement le compromis obtenu aujourd’hui et nous veillerons, dans les prochaines semaines, à ce que le texte garantisse la capacité de l’Europe à développer ses propres technologies d’intelligence artificielle tout en préservant son autonomie stratégique ». Il a ajouté : « Le véritable risque est la reconstitution d’un monopole dans le domaine de l’IA, à l’image de ce que sont les GAFAM, c’est-à-dire la domination d’un nombre restreint d’acteurs imposant leurs normes au reste du monde. »

Un texte salué pour sa lettre

L’objectif de ce texte est donc d’établir « des règles harmonisées […] pour encourager le développement, l’utilisation et l’adoption de l’intelligence artificielle au sein du marché intérieur, tout en assurant un haut niveau de protection des intérêts publics tels que la santé, la sécurité et les droits fondamentaux ». Ce texte se veut à la fois fondateur et essentiel.

Mais pas pour son esprit

Thierry Breton a souligné avoir supervisé « l’adoption d’un ensemble de mesures visant à soutenir les startups européennes dans le domaine de l’IA», venant compléter le cadre réglementaire en place. Ces mesures incluent « l’accès à des données, à des capacités de calcul et à des compétences clés, positionnant ainsi l’Europe comme un incubateur de talents et d’innovations en matière d’IA. »

Un enthousiasme immédiatement modéré par Jean-Baptiste Bouzige, président et fondateur d’Ekimetrics, une entreprise française spécialisée en data science et en IA : « L’avantage des États-Unis par rapport à l’Europe réside dans la mobilisation de capitaux pour passer à l’échelle. La question est de savoir, si le plus important, est la réglementation ou bien les mécanismes de soutien et de protection pour les entreprises en croissance. »

Dans les dernières étapes des négociations, il semblerait que l’intervention du lobbying français ait un peu contribué à atténuer l’impact des nouvelles mesures réglementaires sur des entreprises telles que Mistral AI, en particulier sur la délicate question de la transparence des données et de la protection des propriétés intellectuelles notamment sur les données d’apprentissage.

Le texte définitif impose aux entreprises une obligation plus flexible, les forçant à divulguer un « résumé suffisamment détaillé » des données ayant servi à l’entraînement de leurs modèles de langage, tout en préservant le secret des affaires. Cette exigence, de par son manque de précision, pourrait être source de contentieux futurs et suscite déjà le mécontentement des startups de l’IA.

Des lourdeurs aux conséquences mal calculées

Un DSI doit reconnaitre dans le texte final une démarche marquée par la prudence, peut-être excessive, vis-à-vis de l’intelligence artificielle. Stéphane Roder, PDG d’AI Builders, un cabinet de conseil en stratégie data et IA, exprime sans ambages son mécontentement, pointant du doigt une « peur de l’IA » qui, selon lui, « entrave tout ». Il critique « les éléments absurdes » présents dans le texte.

Le texte est en effet ambitieux, peut-être trop : il établit quatre niveaux de risque — minimal, faible, élevé, et inacceptable — avec un cinquième niveau spécifique à l’utilisation de l’IA générative.

Dans un document de 119 pages, souvent difficile à déchiffrer, ce sont principalement les systèmes d’IA considérés comme à haut risque qui sont ciblés, assortis de sanctions pour non-conformité pouvant s’élever jusqu’à 30 millions d’euros ou 6 % du chiffre d’affaires annuel global (selon l’article 71).

Le problème, c’est qu’en examinant la liste des cas d’usage jugés à “haut risque”, il est difficile de discerner ce qui ne rentre pas dans cette catégorie !


« C’est un jour sans fin. À chaque techno, on passe par toutes les étapes de la hype de Gartner »

— Jean-Baptiste Bouzige, Ekimetrics

L’AI Act, un frein à l’innovation 

Face à un cadre législatif qui impose de lourdes pénalités financières pour l’utilisation d’une IA considérée à haut risque, nos dirigeants d’entreprises vont-ils encore vouloir s’engager dans des démarches innovantes ? Stéphane Roder, de AI Builders, est explicite dans son jugement : « L’AI Act est un désastre pour nos entreprises… Une perte de compétitivité immédiate susceptible d’entraîner la suppression de centaines de milliers d’emplois. » Ainsi, Stéphane Roder, presque stupéfait, cherche avec une certaine froideur à retrouver dans le texte le bon sens et l’esprit d’innovation espérés.


« L’AI Act est un désastre pour nos entreprises »

— Stéphane Roder, AI Builders

Les vertus d’une bonne régulation

Plus tempéré, Jean-Baptiste Bouzige, reconnait « qu’une IA responsable » ne peut qu’être vertueuse : « pourquoi aller chercher les LLM les plus puissants, pour écraser une mouche ? » Selon lui, 99,9% des cas d’usage, s’ils sont bien définis, passeront tranquillement les obligations que va imposer l’AI Act. Bien sûr, tout dépend de ce que l’on entend par “bien définis” et de la charge administrative imposée par “les obligations”, alors que les startups n’ont guère ni les moyens, ni le temps, ni l’énergie à dépenser pour satisfaire aux lourdeurs administratives européennes.

Néanmoins, Jean-Baptiste Bouzige en est convaincu, l’AI Act n’entraînera pas de bouleversements significatifs. Le véritable risque pour les entreprises, selon lui, réside dans l’illusion que les outils d’IA peuvent tout résoudre, ce qui conduit à accumuler une dette technique. Il souligne que « deux tiers des projets Data n’apportent jamais de valeur ajoutée. La question est de savoir comment produire des cas d’utilisation qui génèrent une valeur ajoutée importante. »

Jean-Baptiste Bouzige prône également une approche réglementaire : « Il me semble naturel de réguler. Ce que la société doit examiner, c’est comment elle peut se différencier. Des modèles explicables sont des modèles plus résilients. »

Un texte bien trop lent ou bien trop loin ?

Force est de reconnaître que ce texte réglementaire sur l’IA était très attendu dans le milieu professionnel. Dominique Monera, fondateur de l’IA ACADEMIE, un établissement spécialisé dans l’accompagnement des entreprises en matière d’intelligence artificielle, appuie la nécessité de cette régulation. Jean Ferré, Co-CEO de Sinequa, partage également cette opinion : « Nous croyons que ce texte va dans la bonne direction, car il va permettre à nos clients d’utiliser les outils d’IA générative en toute confiance. » Mais de quelle confiance parlons-nous ?

Frans Imbert-Vier, PDG d’UBCOM, dont la mission est de protéger les intérêts économiques des acteurs européens face à l’intelligence économique et à l’espionnage industriel, exprime une forte opposition : « Aucune restriction, aucune règle, aucune loi, aucune éthique. Rien. Des entreprises comme Google, Microsoft, Meta, Webex, pour ne nommer que les plus célèbres, vont profiter de l’occasion pour intégrer leurs offres aux réseaux sociaux et aux services applicatifs sans offrir de contrepartie ni respecter de contraintes envers les utilisateurs européens. » Il s’interroge en outre sur le délai nécessaire à la transposition de ces directives au niveau des règles nationales, où la CNIL sera le garant. Il questionne : « Combien de temps cela prendra-t-il ? Un an ? Plus encore ? »


« Ce texte été conçu pour en rendre l’interprétation impossible »

— Frans Imbert-Vier, UBCOM

Un avis qui tranche singulièrement avec l’impression qui émane de nos startups de l’IA qui voient à l’inverse un texte trop complexe, susceptible de freiner leur capacité d’innovation et de les empêtrer dans un excès de contraintes administratives. Dominique Monera reste toutefois confiant : « nous sommes peut-être allés trop loin dans la classification des risques élevés. Cependant, nous ne sommes pas dépourvus de bon sens, et nous ajusterons ce règlement en conséquence ».

En revanche, Frans Imbert-Vier adopte une position moins rassurante en observant « l’état d’un texte initié il y a plus de cinq ans, modifié depuis par plus d’un millier de propositions. Il donne l’impression que le texte a été conçu pour en rendre l’interprétation impossible. »

Et c’est bien là tout le problème. L’AI Act, un texte fondateur ? Peut-être, mais en devenant excessivement idéologique, nous nous retrouvons avec un règlement que seuls les acteurs les plus puissants pourront utiliser, à contrecœur, face à une bureaucratie par ailleurs récemment critiquée par nos agriculteurs.

C’est quoi la suite ?

Lors de la réunion de vendredi dernier, la Commission européenne a pris l’engagement de mettre en place un groupe d’experts, composé de représentants des États membres, dont la mission sera de « faciliter l’application » de la loi et de garantir « une mise en œuvre cohérente et efficace ». Maintenant que le texte est arrêté, il ne devrait plus subir de modifications jusqu’à un dernier vote, qui sera de nature formelle, par le Parlement européen. Ce vote est prévu juste avant les élections européennes. Pour Frans Imbert-Vier, cela représente un symbole — celui d’une capitulation. Il interprète la situation actuelle comme une illustration de la faiblesse opérationnelle de l’Europe. Une faiblesse qui pourrait s’avérer à terme fatale ?


L’IA Act, un règlement (de comptes ?) entre Européens

Pour Philippe Latombe, Il est essentiel de développer des IA spécialisées, pas seulement génératives, pour protéger nos secrets industriels et ne pas dépendre uniquement de technologies étrangères.
Pour Philippe Latombe, Il est essentiel de développer des IA spécialisées, pas seulement génératives, pour protéger nos secrets industriels et ne pas dépendre uniquement de technologies étrangères.

IT for Business : Quelle a été la position de la France concernant l’AI Act et comment a-t-elle été perçue par les autres pays européens ?

Philippe Latombe : « La France a adopté une approche intéressante, mais particulière, en soulignant l’importance de ne pas se limiter à la régulation, afin de ne pas entraver notre propre développement technologique. Nous avons plaidé pour la distinction entre les modèles d’IA open source et les modèles commerciaux, ainsi que pour la nécessité de soutenir l’émergence de champions technologiques européens. Cependant, cette position a été mal interprétée comme une protection de nos intérêts nationaux, notamment à cause de la présence de Mistral AI et des liens potentiels avec Cédric O, ce qui a suscité des interrogations sur un conflit d’intérêts. »

IT for Business : « Comment la France pourrait-elle améliorer sa participation dans le processus législatif européen ? »

Philippe Latombe : « La France doit s’impliquer davantage en amont des négociations européennes et ne pas arriver en dernière minute. Nous devons être actifs dans les groupes de travail préparatoire et influencer les idées dès le départ, plutôt que de nous opposer à la fin et être perçus comme des donneurs de leçons. Il est également crucial de suivre et participer activement à la mise en œuvre opérationnelle des accords pour éviter des malentendus ou des ajustements tardifs. »

IT for Business : « Quelle est votre perspective sur les récents progrès de l’AI Act ? »

Philippe Latombe : « L’accord politique sur l’AI Act est une avancée significative avec des piliers prometteurs. De plus, l’initiative de Thierry Breton de subventionner une filière de startups dans l’IA est une victoire pour la France. Il est essentiel de développer des IA spécialisées, pas seulement génératives, pour protéger nos secrets industriels et ne pas dépendre uniquement de technologies étrangères. Cela dit, la mise en œuvre effective de ces plans doit être agile et pragmatique pour réellement bénéficier aux startups sans les encombrer de bureaucratie.»

À LIRE AUSSI :

Dans l'actualité