Data / IA

Des IA peu fréquentables…

Par Laurent Delattre, publié le 21 janvier 2019

Hors des chemins fantasmagoriques de la science-fiction, l’intelligence artificielle s’affirme chaque jour un peu plus comme un outil essentiel pour seconder l’humain dans ses tâches les plus complexes ou les plus rébarbatives… Mais le pire peut aussi côtoyer le meilleur…

L’IA a, ces dernières années, démontré sa capacité à battre les humains sur leurs jeux favoris. Il y eut IBM Watson est sa victoire à Jeopardy en 2011. Celle d’AlphaGo au Go en 2016 et 2017. Son successeur, AlphaZero, a appris à jouer aux échecs en 4 heures avant de battre à plat de couture le logiciel de jeu d’échecs champion du monde « Stockfish 8 ». Récemment une IA signée Microsoft Research a explosé le record humain à Ms Pac-Man et atteint le score maximal possible.
Plus récemment OpenAI a démontré que plusieurs AI pouvaient collaborer et former un team à même de donner du fil à retordre aux meilleurs joueurs de la planète sur des MMO comme Dota2.
Une IA de l’université de Freiburg détient également le record à Q*Bert. Mais l’intelligence artificielle a profité d’un bug du jeu (qu’elle a découverte au cours de son apprentissage) pour atteindre un score de plus d’un million de points. En un sens, elle a triché…

L’appât du gain reste toujours une excellente motivation pour innover. Aussi, si l’IA peut seconder l’humain dans de nombreuses tâches, elle peut aussi probablement l’aider à tricher, qu’il s’agisse de parier ou de jouer au Poker. Depuis 2017, l’université de Carnegie Mellon apprend à jouer au Poker à une IA… à jouer et à bluffer. L’art du bluff lorsque l’on a une mauvaise main fait partie intégrante du Poker. Et leur IA se montre bien meilleure à ce petit jeu que les joueurs qui la confrontent.
Parallèlement, nombre d’entreprises agrègent désormais toutes les données sportives pour prédire les résultats des matchs et autres épreuves sportives. Les prédictions ne sont pas nécessairement toujours justes, mais les IA ont souvent fait mieux que les spécialistes humains. Une startup comme Stratagem surfe sur cette tendance. Non seulement elle collecte des données qu’elle revend aux bookmakers et aux parieurs professionnels mais elle développe également depuis 2017 une IA pour l’aider à faire de l’argent en faisant des paris plus judicieux. Voilà qui donne une image bien moins « propre » du potentiel actuel de l’IA.

Et il ne faut pas chercher bien loin pour trouver d’autres utilisations « obscures » de l’intelligence artificielle. Et ceci sans même parler des biais causés par des jeux de données inadéquats (cf notre article : comment avoir confiance en l’IA). Au-delà des biais, l’IA peut aussi se tromper par manque d’informations pertinentes. Typiquement, un temps jugée très prometteuse, l’IA « Watson for Oncology » est aujourd’hui décriée par certains médecins pour son manque d’exactitude et certaines suggestions médicamenteuses mal venues. Ce n’est pas surprenant, ces technologies sont encore naissantes et doivent encore absorber bien des savoirs. Mais leur immaturité peut se retourner contre elles. En 2016, après un an d’expérimentation en Chine (le projet Xiaoice discutait avec 40 millions d’utilisateurs), Microsoft activait son IA conversationnelle Tay, avec pour objectif d’en faire le confident des 18-24 ans sur Twitter. Tout comme Xiaoice, Tay apprenait des conversations qu’il entretenait avec ses interlocuteurs. Sans la retenue thématique et linguistique imposée par le très surveillé Internet Chinois, la twittosphère n’a mis que 24 Heures pour transformer une naïve adolescente virtuelle en un monstre misogyne, raciste, naziste et pro-Trump. Des groupes d’utilisateurs ont, dans un effort coordonné, réussi par leurs messages à pervertir l’IA en profitant de ses capacités d’apprentissage.

L’intelligence artificielle est aussi devenue un nouveau terrain exploratoire pour la cybercriminalité. Darktrace a mis en évidence des malwares intelligents dérobant des données en fonction de la pertinence de leur contenu ou capables d’observer les opérations habituelles pour adapter leurs actions et porter leur attaque sans se faire détecter. En 2018, IBM a découvert un code malveillant qui se déclenche uniquement par reconnaissance faciale, autrement dit capable d’adapter son attaque selon la personne connectée.

Dans un tout autre domaine, des chercheurs du MIT ont créé en 2018 une IA psychopathe, dénommée Norman, entièrement éduquée par des descriptions courtes de gens morts ou mourants. Quant on lui fait passer le test du Rorschach, elle voit un “homme se faisant électrocuté, là où une IA normale voit “un groupe d’oiseaux sur des branches” ou encore “un homme se défenestrant” là où une IA classique voit “un couple assis l’un en face de l’autre”…

D’autres IA peuvent sembler tout à fait anodine mais leurs résultats exploités à des fins malveillantes. NVidia a mis au point une IA capable de générer des photos de célébrités totalement fausses mais d’un réalisme à toute épreuve. Google a récemment découvert que ses réseaux de neurones destinés à transformer des photos en cartographie et des cartographies en images réelles pouvaient générer des lieux totalement factices sans qu’il soit possible de prouver que l’image était un faux. À l’heure des « fake news » et de la manipulation des foules par les réseaux sociaux, ces IA ont un potentiel nuisible considérable.

D’où l’importance d’introduire rapidement des notions « éthiques » dans les systèmes d’apprentissage profond. Inutile de compter sur les gouvernements et la législation. Leur temps de réaction est trop long. Il est surtout déjà trop tard. Certaines entreprises, comme Microsoft, ont mis en place des comités d’éthique qui analysent tous les projets à base d’IA afin de mettre en place des barrières ou des limitations. Mais quel crédit peut-on accorder à ces initiatives « privées », aussi louables et indispensables soient-elles, dans un monde capitaliste dicté par le pouvoir et l’argent ? Comment accorder le moindre crédit en la matière à des entreprises comme Google et Facebook ? Face à ces initiatives, quelques organisations comme Algorithmic Justice League, Foundation for Responsible Robotics, AI Ethics Lab,  AI-4-ALL, OpenAI et Open Roboethics Institute essayent de sensibiliser l’opinion publique, les politiques et les acteurs du marché.

 

 

Dans l'actualité