ENTRETIEN AVEC gIADA pISTILLI

Data / IA

Giada Pistilli (Hugging Face) : « L’éthique accompagne l’IA, elle ne la freine pas »

Par François Jeanne, publié le 01 août 2025

Au carrefour de la technologie, de la morale et de la gouvernance, Giada Pistilli défend le rôle essentiel de l’éthique face à la montée en puissance des modèles d’intelligence artificielle. Alors que les questions de partialité et de régulation émergent avec le déploiement massif de l’IA générative, elle nous rappelle qu’une réflexion exigeante sur son impact humain, environnemental, culturel et juridique sert aussi la performance. Un credo pour une IA « moralement » responsable, assurément utile pour les DSI.


Entretien avec Giada Pistilli, Responsable de l’éthique chez Hugging Face, docteure en philosophie


Philosophe de formation, titulaire d’un doctorat de la Sorbonne intitulé « Pour une éthique de l’intelligence artificielle conversationnelle« , Giada Pistilli s’intéresse à l’impact sociétal de l’IA, particulièrement dans sa dimension conversationnelle.
Son rôle de responsable de l’éthique chez Hugging Face, l’une des plateformes open source les plus influentes dans le monde de l’IA, n’est pas celui d’une « police des moeurs » ; il s’agit plutôt de comprendre, d’anticiper et de conseiller.

Pour les entreprises comme pour les chercheurs, elle promeut une approche appliquée et interdisciplinaire de l’éthique : en rassemblant philosophes, spécialistes des politiques publiques, informaticiens, linguistes et cogniticiens, elle contribue à clarifier les enjeux et à guider les décisions qui concernent la création, l’hébergement et l’usage des modèles d’IA.

À l’heure où de nombreux DSI accélèrent leurs projets IA et se demandent comment maîtriser des technologies parfois invasives, Giada Pistilli milite pour une approche réfléchie, mesurée et ouverte : le propre de l’éthique n’est pas de brider l’innovation, mais d’aider à la structurer en faisant émerger de bonnes pratiques responsables.

Pouvez-vous nous expliquer votre métier d’éthicienne, et ses origines ?

On connaît assez bien la bioéthique, appliquée à la médecine ou à la génétique. Mon métier s’inscrit dans cette même démarche : l’éthique appliquée, en l’occurrence à l’intelligence artificielle. J’ai un doctorat en philosophie, et je travaille au sein d’une équipe appelée « Machine Learning and Society » chez Hugging Face. Nos disciplines sont variées (sciences cognitives, informatique, philosophie, politiques publiques…) pour analyser l’impact potentiel, positif ou négatif, de l’IA sur la société.

Mon rôle consiste à approfondir la réflexion philosophique et à participer à cette recherche interdisciplinaire, pour examiner les questions éthiques liées au développement ou au déploiement de modèles de machine learning. Je suis également chargée d’une partie de la gouvernance et de la politique de modération des contenus publiés sur la plateforme.

Votre expertise relève plutôt des sciences humaines, alors que vos collègues traitent de sujets très techniques ?

Ma formation relève certes de la philosophie pure, mais toute mon activité a vocation à s’appliquer à des enjeux très concrets. Au sein de l’équipe, certains sont en effet spécialisés en IA (NLP, par exemple), d’autres s’intéressent à l’impact environnemental de ces systèmes, d’autres encore travaillent sur les politiques publiques et la relation avec les gouvernements. Nous menons constamment des recherches croisées, interconnectant nos compétences parce que les sujets liés à l’IA touchent au social, à l’économique, au politique, à la technique. Ma thèse, pour donner un exemple, portait sur l’éthique de l’intelligence artificielle conversationnelle, ce qui m’a amenée à étudier de près la façon dont se déploient les chatbots, ou aujourd’hui les LLM (Large Language Models) qui génèrent des contenus en langage naturel.

Quels sont vos « livrables » en tant qu’éthicienne ?

Je produis d’abord de la connaissance : des articles et des études scientifiques, et aussi de la documentation interne pour guider la réflexion chez Hugging Face. Il peut s’agir de publications sur l’impact environnemental de l’IA, de frameworks éthiques pour aider les acteurs externes à se poser les bonnes questions, ou encore de la mise à disposition de datasets open source pour encourager la transparence et la reproductibilité.

Ensuite, j’interviens en tant que « veilleuse » et « conseillère » pour la gouvernance de la plateforme : j’ai conçu la politique de modération de contenu qui régit ce qui peut ou ne peut pas être hébergé sur Hugging Face, un peu comme le ferait une équipe chargée de la modération dans un réseau social. L’idée, ce n’est pas d’imposer des dogmes, mais de donner des lignes directrices inspirées par la philosophie morale, la transparence et la culture open source.

« Les DSI peuvent agir en effectuant du fine tuning sur des données internes ou spécifiques à une culture, à une langue. »

Pour un DSI, qu’est-ce que cela signifie concrètement ? Il doit se demander : « Très bien, mais moi, au quotidien, comment l’éthique me rattrape-t-elle dans mes projets d’IA ? »

À tout moment en fait. Lorsqu’une DSI implémente un système basé sur un modèle open source, qu’il s’agisse de NLP, d’IA générative ou autre, se pose la question de l’impact sur l’utilisateur final ou sur la société. Cela peut concerner le choix des données d’entraînement : sont-elles représentatives des différentes populations, multilingues, sans trop de biais culturels ou genrés ? Mais aussi le périmètre des usages car un système conversationnel mis à disposition des collaborateurs peut générer du contenu discutable si rien n’a été prévu (modération, filtres, paramétrage), que ce soit par mégarde ou par malveillance. Ou encore la conformité légale et la réputation : la dynamique du droit européen, y compris l’AI Act en cours, rappelle qu’il y a toujours, tôt ou tard, des impératifs contraignants. Un dirigeant aura intérêt à anticiper plutôt qu’à subir.

Le travail de l’éthique, c’est de réfléchir à ce pipeline : développement, déploiement, utilisation et maintenance. À chaque étape, on peut actionner des leviers, en tenant compte de la technique mais aussi de considérations plus larges, comme la culture, le droit et la responsabilité sociétale.

Vous mentionnez le multilinguisme et les biais culturels dans les modèles de langage. En Europe, tout le monde n’est pas anglophone, et il y a de fortes différences culturelles. Comment traiter ces biais pour que l’IA soit utile à tous ?

La première étape, c’est de les identifier et de reconnaître que beaucoup de modèles majeurs proviennent de milieux plutôt américanisés (en termes de données, de valeurs implicites, etc.). Les DSI peuvent agir en effectuant du fine-tuning sur des données internes ou spécifiques à une culture, à une langue. Cela permet d’incliner le modèle vers des représentations plus justes ou, au minimum, plus neutres.

Ensuite, il faut, dans la mesure du possible, instrumenter des méthodologies d’évaluation : peut-on mesurer le taux d’erreurs dans une langue non-anglaise ? Quels indicateurs garantissent qu’on ne sur-représente ou sous-représente pas certains groupes ? Les DSI qui s’investissent dans ces démarches vont gagner en fiabilité et en légitimité : quand vous déployez un modèle plus respectueux de la diversité, vous touchez mieux vos collaborateurs, vos clients, et vous évitez des dérives à long terme.

Éthique et morale sont deux mots issus de racines différentes (grecque et latine), mais qui ont globalement la même signification. Pour moi, l’éthique est avant tout un processus réflexif, une façon de questionner les conséquences de nos actions, pas une forme de morale vague ou punitive. C’est un guide pour la performance et la pérennité, parce qu’un modèle biaisé, culturellement ou techniquement, risque de donner de mauvais résultats, de discriminer, voire de décrédibiliser l’entreprise.

Jusqu’où peut-on aller dans l’évaluation « durable » ou « responsable » d’un modèle ? J’imagine que certains DSI vous diraient que l’entreprise doit aussi avancer vite.

Parler de durabilité, ce n’est pas dire « tout arrêter » ; c’est plutôt chercher des optimisations, poser un regard lucide, pour éviter qu’on aboutisse, par exemple, à des gaspillages massifs ou à des externalités négatives sur le climat.

Quant à la rapidité d’innovation, je crois, comme beaucoup de philosophes et d’observateurs, que la lenteur n’est pas l’ennemie de la croissance. Au contraire, l’histoire a montré que des régulations comme le RGPD ou une certaine prudence peuvent améliorer la qualité des produits, la confiance des usagers et, à terme, le leadership d’une entreprise.

« Des signaux montrent que, dans les grandes entreprises, les DSI reprennent la main sur l’IA générative. »

Pourquoi les fondateurs de Hugging Face ont-ils jugé nécessaire de miser sur une éthicienne ?

Je pense qu’ils étaient déjà convaincus que l’ouverture, la transparence et la qualité de la recherche pouvaient être de réels facteurs de différenciation sur un marché dominé par de grands éditeurs.

Le fait d’être open source implique aussi une responsabilité accrue : quand vous mettez à disposition des millions de modèles et de datasets, vous ne pouvez pas vous contenter d’agir en hébergeur passif. Nous avons donc une politique de modération des contenus, des guidelines conçues pour éviter des utilisations manifestement dangereuses ou illégales. C’est un travail que j’ai lancé en m’inspirant de la philosophie morale et des bonnes pratiques déjà développées dans l’univers de la recherche.

En Europe, on voit un mouvement de régulation assez ambitieux, alors qu’aux États-Unis et en Chine, la course à l’innovation paraît plus rapide ?

C’est vrai que la Chine et les États-Unis mènent une course effrénée. Mais l’Europe n’a peut-être pas à les imiter en se lançant dans une escalade de productivité à tout prix. L’éthique et la loi peuvent ralentir la cadence, mais la lenteur n’est pas forcément négative. C’est un choix de société, et cela protège nos consommateurs, nos entreprises, nos citoyens. Je comprends qu’on puisse avoir le sentiment que la régulation est un frein, mais je crois que c’est une fausse dichotomie : on peut réguler et innover en même temps.

L’open source semble offrir une troisième voie par rapport aux géants américains ou aux solutions chinoises ?

L’open source, c’est un écosystème vivant, qui emprunte aux valeurs du libre : transparence, collaboration, communauté. L’IA se nourrit de données et de modèles, donc l’approche open source permet de partager plus efficacement et de mutualiser nos efforts. Les travaux collectifs – comme le projet BigScience et BLOOM, ou Mistral récemment côté français – montrent que l’Europe a du potentiel pour s’affirmer.

Cette voie nécessite peut-être plus d’implication politique et économique. Mais c’est aussi un facteur d’indépendance vis-à-vis des oligopoles de la tech. Et, pour les DSI, c’est un levier d’innovation : vous pouvez auditer le modèle, comprendre sa mécanique, l’adapter sans vous retrouver pieds et poings liés à un prestataire unique.

« Le fait d’être open source implique aussi une responsabilité accrue : quand vous mettez à disposition des millions de modèles et de datasets, vous ne pouvez pas vous contenter d’agir en hébergeur passif. »

Pensez-vous que l’émergence de politiques brutales puisse remettre en cause l’équilibre que vous défendez, et balayer toute notion éthique ?

L’histoire politique a déjà connu de multiples secousses, mais les principes philosophiques, pour la plupart, ont traversé les siècles. Je ne crois pas qu’un discours violent suffise à anéantir les racines anciennes de la réflexion morale.

Certes, on est parfois tenté de baisser les bras. Mais justement, c’est pour cela que l’éthique doit être défendue, transmise, enseignée. Dans les périodes de turbulence, ces repères deviennent précieux, y compris pour les entreprises et les responsables IT. Ils sont un appui pour faire face aux litiges, pour inspirer des comités internes d’experts, et pour maintenir une cohérence dans les choix technologiques.

Par ailleurs, le marché reste concurrentiel : lorsqu’une IA se décrédibilise en propageant des fake news, des contenus haineux ou des stéréotypes profondément ancrés, c’est la réputation de l’entreprise qui en pâtit. Au contraire, aligner la technologie sur des valeurs fortes, ça devient un avantage compétitif sur le long terme.

On voit émerger des signaux montrant que, dans les grandes entreprises, les DSI reprennent la main sur l’IA générative pour la structurer davantage. Cela va dans votre sens, non ?

Absolument. Au début, c’était un peu le Far West : on testait ChatGPT, on laissait de multiples acteurs innover sans garde-fous et souvent sans cohérence interne. Aujourd’hui, beaucoup d’entreprises se rendent compte qu’il faut un pilotage plus fin, qu’il y a des coûts cachés, des risques de dérive, et qu’un encadrement devient essentiel.

Pour cela, je pense que le DSI est l’acteur légitime pour organiser, conseiller et fédérer les métiers, quitte à s’appuyer sur des ressources extérieures (consultants en éthique, juristes spécialisés, etc.). C’est aussi belle opportunité de réaffirmer son rôle stratégique dans l’entreprise, au-delà de la technique. Il ne doit pas hésiter à se documenter sur les questions éthiques et à valoriser ces réflexions dans son Comex. Et ne pas avoir peur de la « lenteur » apparente des débats. C’est, paradoxalement, ce qui la rendra plus robuste et plus crédible face aux changements incessants. 

Propos recueillis par FRANÇOIS JEANNE
Photos MAŸLIS DEVAUX

Parcours de
Giada Pistilli

Poste actuel :
Principal ethicist chez Hugging Face Expériences précédentes

Chercheuse associée au laboratoire Sciences, Normes, Démocratie (Sorbonne Université et CNRS)

Co-chair Ethical and Legal Scholarship du collectif BigScience (production du LLM multilingue BLOOM)

Participation à l’élaboration de chartes et de dossiers sur les droits humains pour des instances européennes (Parlement européen à Bruxelles)
–*–
FORMATION
Master en éthique et philosophie politique à l’Université de la Sorbonne Doctorat en philosophie (Sorbonne Université, laboratoire Sciences, Normes, Démocratie, en partenariat avec le CNRS).
Titre de la thèse : Pour une éthique de l’intelligence artificielle conversationnelle.

À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights