L'IA générative sait faire preuve de persuasion et se montre plus convaincante que les humains selon une étude européenne.

Data / IA

Les IA se révèlent plus persuasives que les humains

Par Laurent Delattre, publié le 03 avril 2024

L’IA générative transforme d’autant plus radicalement les interactions que les bots sont désormais grâce à elles capables d’échanges plus complexes et surtout plus… convaincants ! Une étude démontre que GPT-4 peut surpasser les humains en force de persuasion. Et c’est plus inquiétant que réjouissant…

S’il existe un domaine que l’IA générative est en train de totalement révolutionner, c’est bien celui de la vente et du support client. Fini les bots « débiles » incapables de comprendre les demandes non préformatées. Grâce à l’IA générative, les bots deviennent vraiment conversationnels et capables d’interactions élaborées. Ils peuvent même se montrer plus convaincants que des agents humains.

C’est en tout cas ce que viennent de démontrer des chercheurs universitaires suisses et italiens. Leur étude « Sur la capacité de persuasion conversationnelle des grands modèles de langage : Un essai contrôlé randomisé » explore les capacités de persuasion de modèles LLM et plus particulièrement de GPT-4.

Pour enquêter sur le sujet, les chercheurs ont élaboré une plateforme Web permettant aux participants de débattre à l’aveugle contre un autre être humain ou contre une IA animée par GPT-4.

Les expériences sont menées en donnant — ou non — accès à des informations personnelles sur le débatteur. Précédé par un sondage à remplir pour connaître la position du participant, chaque débat se déroule en temps réel et comprend plusieurs étapes : une introduction où les participants expriment leur accord initial avec la proposition à débattre, suivi par des rounds d’ouverture, de réplique et de conclusion où ils formulent leurs arguments selon le rôle qui leur a été assigné. À la fin du débat, un nouveau sondage est proposé en mesurant les changements d’opinion du participant.

Les chercheurs mesurent ainsi non seulement les capacités persuasives d’un LLM comme GPT-4 par rapport à un humain, mais aussi l’évolution de ces capacités persuasives selon que LLM dispose ou non d’informations personnelles sur son interlocuteur.

À LIRE AUSSI :

Et les conclusions sont sans appel : le LLM se montre à 81,7 % plus persuasif qu’un débatteur humain lorsqu’il a accès aux informations personnelles de l’interlocuteur ! Sans personnalisation, autrement dit sans accès à des données personnelles, le modèle fondation GPT-4 a également toujours surpassé les humains en termes de persuasion, mais avec un effet plus faible et non significatif statistiquement.

Présentés autrement, non seulement les LLM actuels ont une capacité naturelle à se montrer persuasifs, mais ils savent aussi tirer profit des données personnelles que l’on met à leur disposition pour améliorer significativement leur force de persuasion !

De quoi faire des futurs chatbots dopés aux LLM des rois de la vente…

Mais cette étude vient aussi alimenter encore un peu plus les inquiétudes actuelles quant aux capacités des IA génératives à diffuser de faux récits, induire en erreur, générer sur les réseaux sociaux de faux contenus plus persuasifs que les contenus humains ! Et forcément, ça fait un peu froid dans le dos !

Les chercheurs s’inquiètent notamment de voir des acteurs malveillants utiliser ces IA génératives – dopées par des données personnelles récoltées ici et là – pour diffuser via les réseaux sociaux et l’email de la désinformation ou influencer les opinions. Ils encouragent les plateformes en ligne, les réseaux sociaux mais aussi les entreprises et organisations publiques à prendre en compte la réalité de ces menaces, les risques qui en découlent mais aussi à trouver des moyens de détecter l’utilisation de l’IA et la nécessité d’adopter une éthique IA.


À LIRE AUSSI :

À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights