Entretien avec Ivana Bartelotti

Data / IA

“La désinformation et les deepfakes représentent un risque significatif pour la stabilité des sociétés”

Par Marie Varandat, publié le 16 février 2024

Auteure, conférencière, conseillère auprès du conseil de l’Europe, Chief Privacy & AI, Ivana Bartoletti multiplie les casquettes pour mieux explorer les défis et potentiels de l’IA. L’occasion de revenir avec elle sur la régulation de l’intelligence artificielle en Europe, la compétitivité européenne dans le domaine de l’IA, l’adoption de cette technologie par les entreprises et l’évolution des sociétés face à l’essor de l’IA.


Entretien avec Ivana Bartoletti, Chief Privacy and AI Governance Officer de WIPRO


Auteure de « An Artificial Revolution, on Power, Politics and AI » et fondatrice du réseau d’influence « Women Leading in AI », Ivana Bartoletti, Chief Privacy and AI Governance Officer du cabinet de conseil IT WIPRO, est aussi conférencière pour des instances internationales telles que l’UE ou l’ONU, et conseillère auprès du Conseil de l’Europe sur les questions d’égalité, de droits humains et d’IA. Elle occupe également une position académique prestigieuse à Virginia Tech (université américaine reconnue pour ses recherches en informatique), où elle explore les interactions délicates entre la vie privée et l’apprentissage automatique dans l’IA.

Quel regard portez-vous sur l’European AI Act voté par le parlement européen ?

Dans un monde où l’IA façonne de plus en plus notre quotidien, la réglementation devient cruciale. En pratique, l’IA est déjà soumise à diverses législations, dont celles portant sur les données, la protection de la vie privée, la discrimination, la responsabilité des consommateurs, etc. L’European AI Act introduit une approche basée sur le risque « produit », réglementant les produits d’IA de manière similaire à d’autres produits comme les lave-vaisselle ou les voitures, en mettant l’accent sur la sécurité et les droits fondamentaux des individus. Il est loin d’être parfait, cette initiative visant à encadrer l’utilisation de l’IA au sein de l’Union européenne étant de fait très ambitieuse.
Mais malgré ses imperfections, elle a le mérite de proposer un compris répondant aux préoccupations de certains pays comme la France et l’Allemagne qui ne voulaient pas entraver l’innovation de leurs entreprises nationales en réglementant trop fortement les modèles de langage à grande échelle (LLM). Partant de ces principes, on peut considérer qu’il s’agit d’un pas en avant d’autant que l’EU AI Act n’est pas seulement une mesure de régulation : c’est aussi un catalyseur pour une Europe plus souveraine et innovante dans le domaine de l’IA.

Pensez-vous que l’Europe a encore ses chances dans la course à l’IA ?

La question de la compétitivité européenne dans le secteur de l’intelligence artificielle (IA) est au cœur des préoccupations actuelles. On peut légitimement se demander si nous serons capables d’influencer l’avenir dans la mesure où la majorité des solutions actuelles ne sont pas européennes. Les géants de la technologie et les startups innovantes en IA sont souvent basés aux États-Unis ou en Chine. La compétition internationale est intense, ce qui rend l’EU AI Act encore plus essentiel : l’approche réglementaire basée est cruciale pour garantir que les produits embarquant de l’IA sont sûrs et respectueux des droits fondamentaux au sein de l’UE.

Bien entendu, on ne pèsera pas sur la scène mondiale avec de simples mesures de régulation. Nous devons développer une vision stratégique globale qui comprend le soutien aux startups, l’investissement dans la recherche et le développement et la formation d’une main-d’œuvre qualifiée en IA. Nous devons également capitaliser sur un espace européen unifié par une législation commune sur les données pour créer un environnement où entreprises et chercheurs peuvent partager et accéder aux données de manière sécurisée, de sorte à favoriser l’innovation et le développement de solutions d’IA « made in Europe ».

Quels conseils donneriez-vous aux entreprises qui envisagent de mettre en place l’IA ?

Aussi éculé qu’il puisse paraitre, mon premier conseil serait : ne faites pas de l’innovation pour de l’innovation. Partez de vrais cas d’usage, répondant à des besoins concrets. Et pour être surs qu’ils répondent réellement à des besoins, intégrez les collaborateurs impactés par le projet dans la boucle de réflexion. C’est le seul moyen pour développer des solutions où l’IA peut apporter une valeur ajoutée significative.

Parallèlement, formez vos collaborateurs. La formation ne doit pas se limiter aux équipes techniques, mais s’étendre à l’ensemble de l’organisation. En comprenant les bases de l’IA, ses possibilités et ses limites, les employés sont mieux préparés et appréhenderont son potentiel dans leurs domaines respectifs. C’est d’autant plus important que la formation contribue à créer une culture d’innovation inclusive où l’IA est perçue non pas comme une menace, mais comme un outil au service de l’amélioration du travail et de la productivité.

Autre point important, mettez en place une gouvernance afin de maximiser les bénéfices tout en minimisant les risques. Il faut adopter une approche structurée avec une évaluation et une supervision systématiques de tous les projets. C’est le seul moyen pour s’assurer qu’ils respectent les réglementations en vigueur, notamment en matière de protection des données et de vie privée. Cette gouvernance implique aussi la création de responsables éthiques et de protocoles de conformité pour guider le développement et l’application de l’IA dans l’entreprise.

Ivana Bartoletti

Chief Privacy and AI Governance Officer de WIPRO

« Cest ma plus grande préoccupation : la désinformation et les deepfakes représentent un risque significatif pour la stabilité des sociétés en minant la confiance dans l’information et en compromettant la sécurité des individus et des institutions. »

Quels risques encourent les entreprises qui s’appuient sur des modèles qui sont parfois de véritables « boites noires » ?

Les modèles d’IA “boîte noire”, où les processus de décision sont opaques, posent des défis significatifs en termes de conformité et de protection des données. Même quand leurs propriétaires s’attachent à développer la transparence, une vigilance constante est nécessaire pour s’assurer que l’utilisation de l’IA respecte les législations en matière de confidentialité, comme le RGPD en Europe.
Pour les entreprises qui utilisent ces modèles, il est crucial de mettre en place des mécanismes pour vérifier que les données personnelles ne sont pas utilisées de manière inappropriée ou sans consentement. Créer des instances privées en s’appuyant sur des partenaires de confiance pour mieux contrôler l’utilisation des données par ces modèles constitue, par exemple, une excellente approche pour relever le défi du modèle « boite noire ».

Et plus globalement, comment voyez-vous nos sociétés évoluer avec l’essor de l’IA ?

C’est difficile de prédire à quoi ressembleront les sociétés demain, mais ce qui est certain c’est qu’il faut dès aujourd’hui démystifier et éduquer le public sur ce qu’est vraiment l’IA afin de lui permettre de surmonter la peur et l’incompréhension qui entourent souvent cette technologie. Beaucoup de gens perçoivent encore l’IA comme quelque chose de magique ou de surnaturel, ce qui alimente des craintes infondées. Or l’IA « n’est » qu’un outil, créé par les humains, basé sur des données, des statistiques et des algorithmes, et non une entité autonome avec une volonté ou une créativité propre.  

Parallèlement, nous avons besoin d’une politique publique forte et d’une collaboration étroite entre les gouvernements, les entreprises et le monde académique afin de pouvoir naviguer efficacement dans l’ère de l’IA. Et nous avons surtout besoin dans l’immédiat d’une action collective à l’échelle mondiale pour adresser et réguler les défis que l’IA pose, notamment dans le domaine de la désinformation et des deepfakes. À ce stade, c’est ma plus grande préoccupation car la désinformation et les deepfakes représentent un risque significatif pour la stabilité des sociétés en minant la confiance dans l’information et en compromettant la sécurité des individus et des institutions. En d’autres termes, nous ne pouvons pas nous contenter de réguler la technologie elle-même, nous devons aussi établir des normes et des cadres qui encouragent une utilisation responsable et éthique de l’IA.


À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights