Connexion

Connexion à votre compte

Identifiant
Mot de passe
Maintenir la connexion active sur ce site

L’IA veut désormais détecter les émotions humaines…

Écrit par  Laurent Delattre & IT Social , mardi, 23 octobre 2018 09:38 , BIG DATA.
Crédit Photo : Freshidea - Adobe Stock Crédit Photo : Freshidea - Adobe Stock

Aider les personnes en détresse, améliorer les interactions homme-machine, mais aussi proposer des produits en fonction de l’état émotionnel des consommateurs, l’IA cherche aujourd’hui à détecter les états émotionnels et physiques des humains…

L’IA, quelle que soit la technologie portée par ce terme désormais galvaudé, n’en est encore qu’à ses débuts. Combien même les progrès réalisés ces dernières années - notamment via les réseaux de convolution et autres approches Deep Learning - sont spectaculaires, l’essentiel du chemin reste encore parcourir. Si les trois domaines fondamentaux (tels que définis par John McCarthy en 1955) que sont le langage, la vision et le raisonnement sont très largement explorés aujourd’hui, il demeure un domaine encore bien trop peu défriché : l’intelligence émotionnelle. Certes, en matière de raisonnement, il reste également tout à faire : aucune IA actuelle ne raisonne de manière complexe même si les expériences d’OpenAI en matière d’IA collaborative ont ouvert d’intéressantes perspectives. D’une manière générale, les intelligences artificielles actuelles ne répondent qu’à des problèmes monolithiques. Mais avec des approches collaboratives d’IA, on peut imaginer progresser rapidement sur la résolution de problèmes complexes.

L’intelligence émotionnelle reste en revanche un sujet pauvre. Si la détection des émotions humaines est déjà intégrée dans bien des API de reconnaissances de visage (comme celle d’Amazon Rekognition, celle d’Azure Cognitive Services Vision/Content Moderator ou celle plus spécialisée d’analyse de spectateurs de Datakalab), dans certaines API d’analyse du langage (notamment pour repérer les messages diffamatoires, de mécontentement, etc. via des services comme IBM Watson Tone Analyzer), dans certaines solutions d’analyse de la voix (comme chez les frenchies de Cognitive Matchbox ou de Natural Talk), et même dans des processeurs (avec l’Emotion Processing Unit de la startup Emoshape), l’interprétation des émotions humaines et l’intégration de ces émotions dans les raisonnement d’IA restent des sujets très peu explorés.

Pourtant l’intégration des émotions humaines reste essentielle à l’amélioration des interactions homme-machine. IT Social s’est intéressé à un nouveau brevet d’Amazon autour d’une technologie qui devrait permettre à termes à Alexa de détecter les états émotionnels, physiques et comportementaux des utilisateurs. Objectif, étendre le champ de compétences des objets d’informatique ambiante « Amazon Echo » pour qu’ils puissent réagir en fonction des états détectés (pour lancer une alerte par exemple en cas de malaise) mais également permettre aux partenaires d’Amazon d’interagir avec les utilisateurs en fonction de leurs émotions.

Pour en savoir plus sur le brevet d’Amazon > IT Social : L’intelligence des assistants numériques se fait émotionnelle

Dernière modification le mardi, 23 octobre 2018 09:59
Connectez-vous pour commenter

ABONNEMENT NEWSLETTER

LE MAGAZINE IT FOR BUSINESS

Découvrir

Créer votre compte

S'abonner


Pour toute question, merci de nous contacter

NOUS SUIVRE

AGENDA

20/11/2018 - 21/11/2018
Data Marketing Paris
27/11/2018 - 29/11/2018
Trustech
27/11/2018 - 28/11/2018
Cloud Expo Europe
29/11/2018 - 30/11/2018
Day One
05/12/2018 - 06/12/2018
Paris Open Source Summit