IKEA met de l'éthique dans son IA

Data / IA

Ikea met de l’éthique dans son IA

Par Alain Clapaud, publié le 23 août 2023

L’éthique de la data et de l’IA, et notamment l’interprétabilité des modèles, ne sont plus des thématiques purement théoriques. Les entreprises les plus matures, à l’image d’Ikea, intègrent désormais ces critères dès leur conception.

Ingka Group mise sur l’IA afin de repenser les interactions de son enseigne Ikea avec les consommateurs. Ainsi, il y a quelques mois, elle dévoilait Ikea Kreativ, une application qui simule le positionnement des meubles choisis par le client en réalité augmentée.

Une solution parmi beaucoup d’autres qui vont venir accompagner la diversification de l’enseigne : « Ikea est connu pour ses meubles, mais nous avons l’ambition d’aller au-delà, vers de nouveaux services, notamment dans le domaine financier, de l’énergie, et de tout ce qui tourne autour de la vie à la maison », résume Nozha Boujemaa, global VP digital ethics and responsible AI chez Ikea Retail.

La chercheuse en IA révèle que la marque suédoise a travaillé sur des modèles LLM (Large Language Model) similaires à ChatGPT bien avant les annonces d’OpenAI. « La puissance de ce type de modèles permet de mieux comprendre les besoins latents des clients. »

Ingka Group utilise l’algorithme d’analyse d’image de Winnow pour réduire le gaspillage de nourriture dans ses restaurants et points de vente, en mesurant les volumes de déchets afin de pousser les gérants à adapter leurs offres.

Nozha Boujemaa estime que les LLM offrent de grandes opportunités dans un contexte business bien cadré, à la différence d’un ChatGPT universel, mais sans contrôle sur son apprentissage ni sur l’usage des données des utilisateurs.

Plus généralement, Ikea a placé l’éthique au cœur de sa stratégie dans le domaine, avec la volonté d’exploiter des IA de confiance : « Mais pour rendre opérationnel ce concept, il était indispensable de pouvoir mesurer cette confiance. »
Selon la chercheuse, elle porte autant sur les données que sur les algorithmes.

Ingka Group s’est ainsi doté d’une stratégie « digital ethics policy » et a adapté sa gestion de risque en ajoutant trois dimensions au volet digital trust : les risques liés aux personnes, au business et à la planète. « Nous devons nous soucier de ces trois dimensions, continue Nozha Boujemaa, qui ajoute : Le plus souvent, un service digital se compose d’un pipeline avec parfois une brique de deep learning, mais surtout l’assemblage de multiples composants. Nous n’allons pas analyser uniquement son éventuel composant IA, car nous sommes responsables des données de nos utilisateurs et de nos algorithmes sur l’ensemble du service. »

Nozha Boujemaa,
Global VP digital ethics and responsible AI chez Ikea Retail

« Toute décision algorithmique, y compris avec l’IA, doit pouvoir s’accompagner d’une preuve de confiance. »

En termes IT, cette stratégie s’appuie avant tout sur une couche d’observabilité (data observability). Pour l’experte, cette couche est la fondation de toute data platform. « Il faut savoir absolument tout ce qui se passe sur les données, qui utilise quoi. Il y a donc une dimension sémantique à ajouter sur l’ensemble des usages de la donnée. Cette vision est générée par la couche d’observabilité qui assure la traçabilité complète des data. Cette traçabilité et les KPI associés doivent être basés sur l’analyse des risques, avec une question majeure : lesquels souhaite-t-on couvrir ? »

Pour la chercheuse, l’interprétabilité du modèle d’IA doit être le critère n°1, devant la robustesse : « Le plus important est de savoir comment le logiciel se comporte face à une entrée et d’en comprendre le résultat. »

Aller vers une IA réellement éthique implique donc de bannir tout fonctionnement en boîte noire.


L’ENTREPRISE INGKA GROUP

Activité : Magasins d’ameublement
Effectif : 177 192 personnes
CA 2022 : 42 Md€



Dans l'actualité

Verified by MonsterInsights