La plateforme d’intelligence artificielle NLP Cloud met à disposition des petits modèles d’IA et de grands modèles génératifs destinés au traitement du texte, à celui de l’audio ou encore des images.
Dans le paysage de l’IA, la start-up NLP Cloud est à part. Lancée fin 2019, sa vocation était de faciliter l’utilisation de la bibliothèque open source SpaCy, spécialisée dans le traitement du langage naturel (NLP). Pour tirer immédiatement parti de cette dernière, il suffisait de se connecter à l’API de la plateforme NLP Cloud. « Nous évitions la mise en production et la maintenance de SpaCy, compliquées, même pour un développeur », explique Julien Salinas, fondateur et CTO de la start-up.
Via une interface « terrain de jeu », NLP Cloud permet de tester les différents modèles proposés dans chaque cas d’usage : chatbot, extraction de données, génération de texte, etc.
Mais le périmètre va rapidement s’étendre. La technologie des Transformers – l’architecture de deep learning créée par Google en 2017 et sur laquelle repose l’IA générative – commence à se démocratiser et les demandes affluent pour que la start-up intègre les modèles qui apparaissent. Les choses vont encore s’accélérer avec la sortie de GPT-3, le grand modèle de langage (LLM) d’OpenAI.« Nous avons alors connu une forte demande de modèles génératifs open source équivalents à ce que proposait OpenAI, notamment le GPT-J, pour lequel aucun support n’existait », raconte Julien Salina...