@Work
Quand les IA génératives vont transformer les bases de connaissances
Par Thierry Lévy-Abégnoli, publié le 03 juin 2024
L’impact des IA génératives sur les bases de connaissances traditionnelles se fera sentir à tous les niveaux de leur cycle de vie : rédaction, mise à jour, recherche et génération des réponses. Certains acteurs vont même jusqu’à annoncer leur disparition, du moins sous leur forme actuelle. IT For Business a mené l’enquête.
À usage interne ou destinées aux clients, les bases de connaissances regroupent des informations sur les produits, services et processus de l’entreprise. Elles prennent la forme de collections d’articles aux contenus potentiellement riches, créés et mis à jour selon des processus essentiellement manuels à partir de multiples sources. Ces articles sont présentés aux utilisateurs internes ou aux clients via une navigation arborescente, un moteur de recherche ou un chatbot. Cette description n’a guère changé depuis plus de dix ans. Mais les IA génératives vont avoir un impact profond sur toutes les étapes du cycle de vie de ces bases. Dans l’hypothèse la plus radicale, celles-ci pourraient même purement et simplement disparaître.
Assister voire automatiser la rédaction
Mais avant d’en arriver là, plusieurs étapes auront été franchies. Tout d’abord, une IA générative permet dès aujourd’hui d’assister le rédacteur des articles, quelles que soient les sources de données – documents, web ou échanges lors de réunions. L’IA ne fera pas forcément mieux que l’humain, mais elle permettra de gagner beaucoup de temps. « Avec un coup de prompting, on évite l’angoisse de la page blanche en soumettant des documents afin de générer des brouillons que l’on peut ensuite améliorer », résume Pierre-Eric Marchandet, CTO de DialOnce. C’est l’application la plus classique des LLM. Elle doit être mise en œuvre avec des précautions. En effet, les IA ne dispensent pas d’un travail de validation des articles générés. « Une automatisation complète nécessiterait l’émergence d’une IA générale dont on est encore loin », affirme en effet Killian Vermersch, CEO de Golem.ai. Il faudra aussi éviter que l’IA ne produise des contenus à partir de ceux qu’elle a déjà générés car toute erreur serait potentiellement démultipliée. De plus, il restera nécessaire de collecter l’information auprès des experts qui ont la connaissance spécifique de l’entreprise, de ses produits et de ses processus. « L’IA ne remplace pas encore la compréhension profonde et le savoir-faire spécifique des collaborateurs », explique Aline Ungeschikts, directrice de la practice knowledge management chez Seequalis.
Améliorer le cycle de vie de la base
L’IA peut également faciliter l’évolution de la base de connaissances en identifiant les articles redondants ou incohérents, et en détectant les sujets qui sont mal adressés ou obsolètes. Ce problème est déjà traité avec des mécanismes traditionnels, par exemple en identifiant les articles qui ne sont plus consultés ou en demandant aux utilisateurs de noter les réponses. « Les IA génératives surperforment l’analyse classique du langage ou les IA prédictives lorsqu’il s’agit d’identifier de nouveaux sujets en mesurant le gap entre questions et articles existants », estime ainsi Kheira Boulhila, SVP solutions engineering EMEA chez Salesforce, tout en spécifiant qu’une supervision humaine reste nécessaire. À terme, les IA génératives pourraient même suggérer la création de nouveaux articles – voire les créer – en analysant des données externes à l’entreprise. « Ce pourrait être le cas par exemple lorsqu’une nouvelle règlementation émerge », cite Pierre-Eric Marchandet.
Une alternative aux moteurs de recherche
Depuis les années 2000, la recherche dans les bases de connaissances repose au pire sur de simples mots-clés, au mieux sur des algorithmes syntaxiques et sémantiques ou sur des IA prédictives à base de deep learning. Dans ce dernier cas, il faut fournir un corpus d’exemples énorme pour identifier des intentions. Et malgré cela, les moteurs de recherche et autres chatbots restent souvent déceptifs. « Les IA génératives apportent d’emblée une meilleure connaissance et compréhension du monde et du contexte, tout en traitant des formulations alambiquées », explique Pierre-Eric Marchandet. Finalement, elles se montrent plus fiables pour identifier les intentions et donc, dans le cas d’une base de connaissances, pour aiguiller vers les bons articles. De surcroît, cette efficacité est conservée sur des volumes de données très importants.
Pierre-Eric Marchandet
CRO de DialOnce
« Au lieu d’afficher une liste de dix articles, l’IA n’en sélectionne que deux qu’elle agrège et résume. »
Des réponses plus pertinentes et contextuelles
Les IA génératives font bien mieux qu’orienter l’utilisateur vers une liste d’articles. Elles peuvent en effet construire une réponse ciblée et synthétique, notamment grâce à leur capacité à identifier les superpositions entre articles. « Au lieu d’afficher une liste de dix articles, l’IA n’en sélectionne que deux qu’elle agrège et résume », donne en exemple Pierre-Eric Marchandet. L’IA peut en outre adapter la réponse au contexte, comme l’âge et le profil de l’utilisateur (technicien, marketing…), son niveau d’expertise, le pays ou encore le média (chat, site e-commerce, e-mail, voix…). Elle module alors le ton et le style de la réponse, sa longueur, le niveau de détails ou les termes (plus ou moins techniques). « Une IA générative sait par exemple très bien vulgariser un document technique », affirme Killian Vermersch.
Patrick Séguéla
Président de Synapse Développement
« Il serait possible de se contenter de vérifier les documents sources sans avoir besoin de les agréger dans des collections d’articles qui relèvent d’un formalisme assez lourd. »
Vers la fin des bases de connaissances traditionnelles…
Au-delà de la gestion des questions et des réponses, les IA génératives pourraient menacer l’existence même des bases de connaissances, du moins dans leur forme actuelle. Un LLM serait alors entraîné en mode fine tuning sur les multiples documents et sources de données à partir desquels étaient jusqu’alors manuellement rédigés les articles. Dès lors, ceux-ci représenteraient une étape intermédiaire superflue. Ainsi, selon Patrick Séguéla, président de Synapse Développement, « il serait théoriquement possible de se contenter de vérifier les documents sources sans avoir besoin de les agréger dans des collections d’articles qui relèvent d’un formalisme finalement assez lourd. » Mais cela ne dispenserait pas d’un effort en amont de mise en forme de la connaissance. « On devra alors produire des contenus prêts pour l’IA, avec une certaine structuration comprenant par exemple des titres explicites, des sous-titres et des listes », précise Patrick Séguéla.
… ou vers leur mutation
Mais la majorité des acteurs prônent encore une conservation des bases de connaissances classiques. Selon eux, celles-ci restent le meilleur moyen de structurer les données et de contrôler leur qualité, leur exhaustivité et leur fraîcheur. Ce qui sera d’autant plus nécessaire que les IA auront un effet d’amplification des bonnes, mais aussi des mauvaises pratiques. Autrement dit, les réponses erronées auront un impact plus important sur l’insatisfaction des utilisateurs. De plus, les bases existantes permettent d’entraîner immédiatement ces nouvelles IA. « Pour toutes ces raisons, ça n’a jamais été le meilleur moment pour investir dans ces bases, qui représentent le socle essentiel de la réussite et de la fiabilité des IA, qu’elles soient prédictives ou génératives », avance Gerald Ehret-Franck, ingénieur avant-vente chez Salesforce.
Les bases de connaissances répondent également à une problématique de pilotage des IA. Pour certaines questions jugées essentielles ou sensibles, on voudra en effet imposer une réponse précise, plutôt que de laisser l’IA la construire. « C’est pourquoi nous adoptons une stratégie consistant à combiner réponses programmées et solutions génératives », explique Guillaume Coffre, consultant avant-vente chez Zendesk. La base de connaissances permet en outre de sourcer facilement les réponses. « Les IA génératives ne sont guère compétentes pour dire d’où vient l’information, sauf si elles s’appuient directement sur des articles, qu’il est alors possible d’afficher à la demande avec des technologies classiques », explique Killian Vermersch. Cette capacité à sourcer l’information permet de contrer la fameuse tendance aux hallucinations. Autrement dit, quand les informations nécessaires ne sont pas dans les documents fournis au LLM, celui-ci invente une réponse. Un autre argument en faveur des collections d’articles concerne les difficultés que rencontrent les LLM pour interpréter certains formats, comme les tableaux. « On réduit cette difficulté en structurant les informations dans des articles de taille réduite », explique Aline Ungeschikts. Car si la base de connaissances perdure, elle peut dès aujourd’hui évoluer. Les articles ne seront pas seulement raccourcis, on pourra aussi diminuer les efforts de présentation puisqu’ils ne seront plus guère lus que par des IA.
On le voit, le choix entre base de connaissances classique et documents sources directement soumis à l’IA dépend de questions qui ne sont pas encore complétement tranchées quant à la fiabilité des IA, leurs limites, la capacité à les piloter, à sourcer les réponses et finalement à instaurer la confiance. « Lorsque ces sujets seront maîtrisés, sans doute d’ici deux ans, alors peut-être les bases de connaissances structurées en tant qu’étape intermédiaire pourraient disparaître », conclut Killian Vermersch.
Arnaud Bailly, DGA de Vattenfall France
Vattenfall France va greffer l’IA d’OpenAI sur sa base de connaissances

La filiale française du fournisseur d’énergie Vattenfall avait déployé depuis plusieurs années une base de connaissances de quelques centaines d’articles intégrée à l’outil de routage des flux Kiamo. « Le taux de réponses satisfaisantes n’excédait pas 50 %, au point que clients et collaborateurs s’en détournaient », explique Arnaud Bailly, DGA de Vattenfall France. Ce constat a motivé début 2023 le lancement d’un projet visant à faciliter les recherches grâce au LLM d’OpenAI, via un chatbot ou dans l’espace client. Vattenfall s’est fait accompagner par DialOnce, éditeur du chatbot déjà déployé. La cible ne concerne pour l’heure que les clients et les contenus les moins techniques. Le périmètre du LLM englobe les FAQ et sites web de Vattenfall et de ses partenaires, notamment afin d’accéder à des données à durée de validité définie. Les premiers tests ont montré un taux de pertinence de 80 à 90 %. Mieux, l’IA construit une réponse à partir d’un ou plusieurs articles. Ceux-ci n’étant plus lus que par l’IA, ils seront sans doute à l’avenir moins pédagogiques et plus synthétiques, l’IA se chargeant d’adapter longueur et niveau technique à chaque utilisateur. La base continuera au moins dans un premier temps à accueillir de nouveaux articles, car elle permet de centraliser la connaissance. Un second projet, en production mi-2024, étendra le périmètre à toute la base de connaissances, à d’autres contenus et à l’ensemble des utilisateurs internes et externes. Plus tard, l’IA répondra aux demandes par e-mail, avec ou sans validation humaine. Enfin, la création des articles pourrait être assistée. « On ira prudemment dans cette voie car notre métier, très technique, devra être bien compris par les IA, pondère Arnaud Bailly. Et de conclure : Grâce au coût très faible facturé par OpenAI, le ROI de ces projets n’excédera pas quelques mois. »
Aline Ungeschikts, directrice de la practice knowledge management chez Seequalis
« Les IA génératives vont valoriser les métiers du knowledge management »

« Les métiers de la gestion de la connaissance seront impactés par l’IA à des degrés différents selon les profils – knowledge managers ou rédacteurs. Les premiers jouent un rôle de coordination et identifient, priorisent, capturent, partagent et améliorent la connaissance. Parce que les IA génératives ne peuvent pas deviner ce qu’il faut faire, elles réduiront au mieux leurs efforts d’environ 20 %. Le travail des rédacteurs est en revanche davantage automatisable. De plus, ils auront moins d’efforts à fournir pour soigner la présentation des articles, car ceux-ci ne seront directement exploités que par les IA. Finalement, grâce à l’efficacité des IA par rapport aux moteurs de recherche, les bases de connaissances seront davantage utilisées, tandis que les métiers se concentreront plus spécifiquement sur l’amélioration de la qualité et la richesse des informations, ainsi que sur la surveillance du résultat. Knowledge managers et rédacteurs ne verront pas leur charge diminuer mais, à effort constant, leur métier sera mieux valorisé. »
Et demain, le multimodal
Le mode multimodal promet une autre révolution du couplage, aujourd’hui cantonné au texte, entre bases de connaissances et IA génératives. Ces dernières pourraient ainsi générer une réponse ou un article à partir d’un ou plusieurs schémas. À l’inverse, elles pourraient générer un schéma explicatif à partir d’un texte. Elles pourraient aussi extraire des informations à partir de PDF complexes, ce qui est aujourd’hui très difficile : certains outils savent déjà analyser des factures, mais cela reste très rudimentaire. « Il n’existe pas encore de modèles généralistes multimodaux permettant ce genre d’applications, mais on y travaille et cela pourrait arriver vite », estime Pierre-Eric Marchandet, CTO de DialOnce.
