Gouvernance

Confiance.ai veut dessiner une IA de « confiance »

Par Patrick Brébion, publié le 23 juillet 2021

Un projet gouvernemental vise à outiller les applications critiques avec des composants d’IA de « confiance ». L’IRT SystemX pilote le projet.

Le 9 juillet dernier, un « Appel à Manifestation d’Intérêt » destiné à recruter des deeptech et des PME innovantes a été lancé dans le cadre de « Confiance.ai ». Les candidats retenus bénéficieront de financements et seront intégrés dans un ou plusieurs des sept projets que compte ce programme. Celui-ci est le premier et le pilier technologique du « Grand défi » baptisé « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle ». Ce programme dépend du secrétariat général pour l’investissement – SGPI -, une administration placée sous l’autorité du Premier ministre. « Il a été lancé en 2019 suite au rapport Villani sur l’IA », rappelle Julien Chiaroni, son directeur. Trente millions d’euros de deniers publics, dont la moitié sera prélevée sur le PIA 3 (Plan d’investissement d’avenir), lui sont consacrés, auxquels s’ajouteront 15 M€ apportés par les industriels partenaires, Renault, Airbus, Athos, Thales, Safran et Air Liquide. Côté académique, le CEA, l’Inria, le CNRS, les IRT Saint Exupéry et SystemX, ce dernier étant chargé du pilotage opérationnel, sont également impliqués. Outre ce premier cercle de partenaires, d’autres acteurs comme l’Onera seront associés au projet. Le projet s’inscrit bien sûr dans la mouvance actuelle : garantir la sécurité et la transparence de l’IA et du cloud.

L’objectif de ce « Grand défi » se décline autour de trois axes : développer des technologies IA « de confiance », des certifications, des homologations pour celles-ci et, enfin, des standards et normes dans ce domaine. L’émergence d’applications utilisant de l’IA pour des applications critiques dans l’industrie 4.0, dans le transport… pose la même question de leur sureté et de leur explicabilité, qui s’est posé par le passé avec les logiciels classiques et déterministes mais nécessite de nouvelles méthodes et outils.  « Un contrôle qualité de soudure, un diagnostic de santé ou encore, une prise de décision sur un véhicule autonome, tous basés sur un composant d’IA doivent pouvoir être explicables, auditables et sûrs », rappelle Julien Chiaroni. Pour relever ces challenges, le programme, défini par SystemX l’année dernière, a pour objectif de développer des outils et des méthodes capables, par exemple, de détecter des biais par l’analyse de couples données/algorithmes, d’auditer les systèmes, de certifier des logiciels d’apprentissage à l’aide de méthodes formelles et de rendre explicables les résultats des réseaux de neurones. « Un socle générique qui pourra être adapté à des cas d’usage, résume Julien Chiaroni. Tous ces composants seront mis à disposition des partenaires sur une plateforme. Celle-ci sera régulièrement mise à jour ». Les deux autres axes de normalisation seront logiquement abordés ultérieurement.

La sous-représentation des OIV pose question

Si l’initiative, fédérer les ressources et cibler les applications critiques – est louable et pertinente, quelques points posent question. D’abord, la sous-représentation des OIV, alors que ces organisations pourraient apporter les jeux de données indispensables des systèmes critiques pour entrainer les IA. L’avancement des travaux du monde académique dans ce domaine pose d’autres questions. Si des avancées se traduisent d’ores et déjà par des composants opérationnels pour interpréter les IA, comme Shap et Lime par exemple, le domaine de l’explicabilité est loin d’être maitrisé même au stade de la recherche. Selon le chercheur Marie John-Mathews travaillant au sein de la chaire Good In Tech de l’Institut Mines-Télécom, « l’explicabilité restera potentiellement subjective. Les interprétations peuvent être multiples et le choix des formes d’explication est souvent laissé aux entreprises ». Un constat qui découle de la multiplicité potentielle des facteurs explicatifs. Pour le chercheur, les avancées académiques sur le sujet sont peut-être arrivées aux limites des « sciences dures ». Si ce dernier point ne remet pas en cause la nécessité d’une IA de confiance, elle souligne une piste partiellement laissé de côté : renforcer la recherche fondamentale avant de lancer des start-up.

 

Dans l'actualité