Près de deux siècles de littérature et cinéma de science-fiction ont implanté dans l’inconscient collectif une vision assez terrorisante de l’intelligence artificielle et fait naître mythes qui freinent aujourd’hui l’adoption d’une IA encore balbutiante et loin des fantasmes de la SF…

Le Frankenstein de Mary Shelley, l’HAL 9000 de 2001 l’Odyssée de l’espace (d’Arthur C. Clarke, immortalisé au cinéma par Stanley Kubrick), le Skynet de Terminator (scénarisé et réalisé par James Cameron), les Robots d’Isaac Asimov (R. Daneel Olivaw et les fameuses trois lois de la robotique) ou encore la Samantha de HER (de Spike Jonze) ont marqué – et continuent de marquer – les esprits de plusieurs générations de lecteurs et cinéphiles. Ils ont surtout proposé une vision assez catastrophique de l’intelligence artificielle, la grande majorité des IAs imaginées par la science-fiction finissant par se retourner d’une manière ou d’une autre contre leurs créateurs.

Il en résulte des fantasmes et des peurs qui freinent aujourd’hui l’adoption de l’IA dans les entreprises. Certains la voient remplacer l’humain et mettre tout le monde au chômage. Les préoccupations ne sont pas dénuées de sens et les problématiques éthiques posées par l’intelligence artificielle méritent d’être discutées, évaluées et prises en compte.

Mais cette IA fantasmée est encore très loin d’être une réalité. L’IA d’aujourd’hui augmente l’humain sur des tâches bien définies, spécialisées, bornées… Elle est bien davantage génératrice de valeur que destructrice de quoi que ce soit.

Dans une récente étude « Debunking Myths and Misconceptions about Artificial Intelligence », le Gartner met en lumière 5 mythes qui contribuent à ralentir l’adoption de l’IA dans les entreprises :

Mythe 1 : L’IA fonctionne comme le cerveau humain
Certes, les réseaux de neurones qui forment la fondation au « deep learning » (l’une des branches en vogue de l’IA) s’inspirent quelque peu des synapses humaines. Pour autant, leur fonctionnement reste bien différent et surtout n’a pas la généralité de notre cerveau. L’IA actuelle ne sait résoudre que les tâches pour lesquelles elle a été conçue et entraînée. Changez de contexte et elle se montrera totalement incapable et incompétente. Les IA d’aujourd’hui sont spécialisées, fabriquées sur mesure pour une compétence et une seule. On est loin du cerveau humain…
Certaines IA conversationnelles peuvent donner l’impression d’intelligence « humaine ». Mais il suffit de passer quelques secondes avec SIRI, Alexa, ou Google Assistant pour mesurer l’infinie étendue de leur limite. IBM a démontré cette semaine lors de sa conférence Think 2019 une nouvelle IA, « Project Debater », qui illustre bien les limites actuelles. Son « Project Debater » se veut capable de débattre avec les humains sans être préalablement spécifiquement formé au sujet du débat. L’IA est capable de retrouver les informations utiles sur le thème donné, de les assembler, et de les organiser afin d’adapter ses réponses aux arguments adverses. L’IA n’a pas convaincu les participants mais elle s’est montrée utile pour enrichir le débat par des informations construites et vraies.

Mythe 2 : Les machines intelligentes apprennent par elles-mêmes

Derrière toute IA se cache un ensemble de data-scientists et de développeurs qui ont activement collaboré pour borner la problématique, préparer les données, déterminer les jeux utiles, minimiser les biais possibles et continuellement enrichir le logiciel sous-jacent.
Certes, le « Deep Reinforcement Learning » est une technologie qui progresse rapidement, notamment depuis les travaux de Google sur AlphaGO Zero. Il consiste à construire des IA qui ne sont pas explicitement programmées et enseignées par les humains pour résoudre des tâches. Ces IA fonctionnent en apprenant par l’échec ou par maximisation des récompenses. Mais elles restent spécialisées sur une compétence donnée. Et vu les équipes d’ingénieurs derrière ces IA, elles ne peuvent encore se passer de l’humain.

Mythe 3 : Une IA est 100% objective
Ces dernières années, les exemples qui infirment ce mythe de l’objectivité des IA se sont multipliés. Les « biais » constituent un véritable défi. Bien des expérimentations actuelles ont montré un manque indéniable d’objectivité parce que les données utilisées pour les entraîner étaient incomplètes ou biaisées
(cf comment avoir confiance en l’IA).

Mythe 4 : L’IA ne remplacera que les emplois banals
Il y a ceux qui craignent l’IA et ceux qui à l’inverse pensent qu’il s’agit là d’un mythe et qu’aucune machine ne pourra jamais faire preuve d’intelligence et d’intuition. Le discours de ces derniers tient du mythe de la banalité. Or il y a là une confusion entre l’automatisation et l’IA même si les deux concepts sont désormais associés pour automatiser un certain nombre de tâches humaines chronophages, répétitives et fastidieuses.
La vérité est que l’IA est souvent plus utile en dehors de la banalité. Elle est utile pour classer des volumétries gigantesques d’informations et y détecter des « patterns » et corrélations, pour aider à la prise de décision et pour augmenter l’humain dans des tâches de grande expertise (comme l’analyse de l’imagerie médicale par exemple).

Mythe 5 : Mon entreprise n’a pas besoin d’une stratégie IA

Non, l’IA n’est plus de la science-fiction. Le terme est certes galvaudé et regroupe une multitude de technologies, de solutions et d’approches. Ces dernières ont désormais un véritable impact potentiel sur les processus métiers. Pour le Gartner, toutes les entreprises devraient dès aujourd’hui se pencher sur l’impact des technologies IA actuelles et explorer leur potentiel pour résoudre les problèmes et défis métiers.

Source :
Gartner : Debunking Myths and Misconceptions About Artificial Intelligence
Gartner : The CIO’s Guide to Artificial Intelligence