2ème partie de notre compte rendu de Google Cloud Next 2024 avec les annonces IA autour des bases de données, du développement, de l'administration Cloud et des utilisateurs...

Cloud

Google Next 2024 : De l’IA partout, des bases de données aux applications d’entreprise

Par Laurent Delattre, publié le 11 avril 2024

La conférence Google Next 2024 se tient cette semaine avec un focus très marqué sur les cas d’usage de l’IA en entreprise et le vaste portfolio de services et outils proposés par Google Cloud pour les concrétiser. Cette seconde partie de notre compte rendu revient sur les annonces autour des bases de données, du développement d’IA et de leur mise en application.

Sans surprise, l’IA est omniprésente à la conférence Google Cloud Next 2024. Elle envahit toute la stack Cloud et s’impose comme une carte maîtresse pour permettre à Google Cloud de grappiller des parts de marché Cloud à AWS et Microsoft. Hier, nous avons évoqué les multiples annonces sur les briques de base, à savoir le hardware pour accélérer apprentissage et inférence des IA (mais aussi relever les défis de consommation énergétique et d’écoresponsabilité) ainsi que l’accès simplifié à une pluralité de modèles fondation pour réduire les coûts de l’IA et adopter les modèles les plus adaptés aux cas d’usage.

Dans cette deuxième partie, nous allons nous élever dans la stack IA et voir comment Google Cloud cherche à s’infiltrer dans tous les espaces possibles afin de rendre l’utilisation de l’IA dans les cas d’usage, plus simple et plus accessible. Il s’agit pour le géant américain non seulement de combler tous les trous, toutes les absences de capacités IA au sein de la Stack Cloud, mais aussi de s’assurer que tous les collaborateurs impliqués aient toujours accès à des conseils et des automatisations procurés par des IA pour accélérer et simplifier ses tâches. L’IA à la fois en moteur et en soutien, en somme.


À LIRE AUSSI :


L’IA au cœur des bases de données

Il n’y a pas d’IA sans données… Il n’y a pas de données sans systèmes pour les stocker et les gérer. Dans l’esprit évoqué précédemment, Google a beaucoup parlé de bases de données durant cette conférence. Parce qu’elles sont la brique qui alimente les IA et doivent s’adapter à ces nouveaux cas d’usage. Mais aussi parce que l’IA générative dispose d’un fort potentiel pour permettre à chacun de mieux exploiter le patrimoine informationnel qu’elles préservent. En effet, l’IA générative peut aider à extraire, organiser et analyser les données de manière plus efficace et intelligente, offrant ainsi de nouvelles opportunités pour la prise de décision, l’innovation et la création de valeur.

Adapter les bases de données aux usages de l’IA

Les IA manipulent des données vectorisées. C’est ce qui lui permet d’apprendre de données non structurées comme les documents, les images et les voix, mais aussi de tracer des similarités entre les contenus de textes en multiples langues, des vidéos et des fichiers audios.
La recherche vectorielle est une composante essentielle des applications IA. Elle est indispensable pour rechercher des similarités, faire des recommandations, appliquer des techniques RAG, etc.
Dès lors, il parait aujourd’hui évident que pour survivre à cette nouvelle ère IA, toutes les bases de données du marché finiront par intégrer des fonctions vectorielles, à commencer par la capacité à stocker des intégrations vectorielles et à réaliser un ou plusieurs types de recherche vectorielle.
Et Google l’a bien compris. L’hyperscale a annoncé l’extension des fonctionnalités vectorielles et de la recherche vectorielle à toutes ses bases de données Cloud y compris Redis, MySQL, Cloud Spanner, Firestore et Bigtable, en sachant que de telles fonctionnalités ont déjà été intégrées à BigQuery et AlloyDB.
Au passage, l’éditeur a insisté sur l’intérêt de sa base cloud Serverless Cloud Spanner dans un tel univers d’IA. « Ce qui est fascinant avec Cloud Spanner, c’est que les clients qui ont des besoins extrêmes, par exemple avec des milliers de milliards de vecteurs, hautement partitionnés selon les utilisateurs, pourront stocker et rechercher des vecteurs à cette échelle sans difficulté » explique Andi Gutmans, QM & VP Engineering Databases chez Google.

AlloyDB AI

BingQuery et Cloud Spanner ne sont pas les seules bases Google à attirer toutes les attentions IA de l’hyperscaler. AlloyDB n’est pas oublié. Ainsi, la base managée dérivée de PostgreSQL s’enrichit d’un nouvel index pgvector de vectorisation des données avec fonction de recherche de voisinage (recherche vectorielle). « Dans nos tests de performance, AlloyDB offre une recherche de vecteurs jusqu’à quatre fois plus rapide que le populaire ‘hnsw’ de PostgreSQL avec une création d’index jusqu’à huit fois plus rapide et un usage mémoire 3 à 4 fois moindres » affirme Andi Gutmans.

Au-delà des fonctionnalités vectorielles, Google Cloud a annoncé « AlloyDB AI » un ensemble de fonctionnalités IA désormais intégrées à AlloyDB. Ces dernières permettent d’accélérer la création d’applications embarquant l’IA générative en enrichissant la syntaxe PostgreSQL. La base peut ainsi, par exemple, invoquer des prédictions en appelant un modèle simplement à l’aide d’une requête SQL ou générer des embeddings (représentations vectorielles) afin d’utiliser AlloyDB comme un outil LLM et traduire les prompts de texte en vecteurs numériques.
AlloyDB AI permet surtout d’intégrer AlloyDB à Vertex AI. Dès lors, la base peut directement invoquer des prédictions ou des générations IA en utilisant n’importe quel modèle exposé et hébergé sous Vertex AI !

Gemini in BigQuery

L’IA naît des données et des bases qui les contiennent. Mais elle peut également aider les équipes IT et les équipes Data Science dans leurs tâches quotidiennes. Et c’est exactement ce potentiel que Google Cloud veut explorer avec ses nouveaux assistants « Gemini in ».

Gemini in BigQuery est un nouvel outil aux multiples capacités qui assiste au quotidien dans la préparation, la découverte, l’analyse et la gouvernance des données. Il propose une expérience utilisateur visuelle combinant un canevas et une expérience « bloc-notes / notebooks IA » afin d’assembler aisément des pipelines de préparation et de nettoyage de données de façon essentiellement visuelle avec une expérience Low-Code.

« Gemini in BigQuery change la donne pour les ingénieurs et analystes de données en leur permettant d’être plus productifs, d’améliorer les performances des requêtes et d’optimiser les coûts tout au long du cycle de vie de l’analyse, depuis l’ingestion et la création de pipelines jusqu’à l’obtention d’informations précieuses grâce à des capacités animées par l’IA générative », explique Brad Calder, VP et DG de Google Cloud Platform and Technical Infrastructure.

Mais l’aventure Gemini au cœur de BigQuery ne s’arrête pas là. L’IA conversationnelle permet de créer automatiquement du code SQL ou Python en utilisant des requêtes en langage naturel et même d’obtenir des suggestions de l’IA pour vous aider à composer les requêtes.

Par ailleurs Google a implémenté une « intégration directe » entre Vertex AI et BigQuery afin de simplifier la gestion des données structurées et de faciliter la préparation et l’analyse des données multimodales (document, images, vidéos, fichiers audio). Cette intégration évite aussi d’avoir à déplacer des données et évite l’élaboration de pipelines complexes pour associer les données aux modèles hébergés et exposés par Vertex AI.

« En tant qu’analyste de données, vous pouvez désormais accéder à tous les modèles IA de Vertex AI, y compris nos modèles Gemini, simplement à partir d’une ligne de commande SQL ou de l’API Python intégrée à BigQuery », explique ainsi Gerrit Kazmaier, VP & GM Data Analytics chez Google. « C’est extraordinaire, car cela signifie que vous n’avez pas besoin de faire appel à un data scientist ou à une plateforme ML. Vous y accédez directement depuis votre environnement BigQuery et avec les données à portée de main qu’elles soient structurées ou non structurées. Et cela ouvre plein de nouveaux scénarios rendus possibles par la diversité des modèles Vertex AI et leur combinaison : extraction de sentiments, synthèses, classification, enrichissements, traductions et transcriptions. De quoi enfin permettre aux entreprises de réellement tirer de la valeur de leurs données non structurées et de les intégrer dans toutes les analyses. »

Gemini in Databases

Mais Google Cloud ne limite ce potentiel d’assistance IA à BigQuery. Avec « Gemini in Databases », l’hyperscaler l’étend à toutes les bases de données hébergées dans son Cloud.

Gemini in Databases est une collection d’outils animés par l’IA générative Gemini. Ces outils sont conçus pour simplifier tous les aspects de la gestion des bases de données dans Google Cloud, de la création de bases à la surveillance et la migration des bases de données. L’assistant AI permet d’interagir en langage naturel avec les différents SGBD pour analyser les performances de la base de données, optimiser l’allocation de ressources, permettre une gestion efficace de l’infrastructure de données, etc.

Gemini in Databases comporte en pratique trois grands outils :

Database Studio : un nouvel outil conversationnel qui accélère les processus de développement et améliore la productivité des développeurs d’applications en permettant de générer et synthétiser des codes SQL via des échanges en langage naturel.

Database Center : un tableau de bord unique pour gérer une flotte entière de bases de données, incluant des agents et des tableaux de bord intelligents qui évaluent de manière proactive la disponibilité, la protection des données, la sécurité et la conformité. Il répond aux besoins d’unification et de rationalisation de clients qui peuvent avoir des centaines voire des milliers de bases de données à administrer.

Database Integration Service : une assistance IA s’appuyant sur les capacités de Gemini pour aider à la migration de bases de données y compris la conversion de codes et de requêtes. L’IA facilite ainsi la migration des anciennes bases « Legacy » vers des bases Cloud modernes.

L’IA en assistance aux développeurs

L’IA générative est totalement en train de métamorphoser le métier de développeurs. C’est clairement l’un des domaines où l’IA s’est le plus infiltré dans le quotidien des acteurs. Le succès de Github Copilot en témoigne (le service a connu 200% de croissance en un an). Outre Vertex AI Agent Builder (évoqué dans la partie 1) et les outils de développement liés aux bases de données évoqués ci-dessus, Google veut désormais peser un peu plus sur les outils de développement et l’utilisation de l’IA générative en tant qu’assistant à la programmation.

Gemini Code Assist

L’hyperscaler avait lancé l’an dernier un service d’assistance aux développeurs dénommés Duet AI Code Assist basé sur l’ancien modèle fondation Codey. En accès limité, le service n’a pas rencontré un grand succès. Mais Google en annonce une totale refonte sous le nom de « Gemini Code Assist » avec une IA désormais animée par le modèle Gemini Pro 1.5 et sa fenêtre contextuelle d’un million de tokens, de quoi analyser 30.000 lignes de code.

Cette fenêtre change la donne et permet à Gemini Code Assist d’être utilisé pour analyser l’intégralité des codes sources des projets les plus complexes mais aussi d’intégrer une connaissance complète de votre base de codes sources. Dès lors, Code Assist peut effectuer des changements à grande échelle dans l’ensemble de la base de code, y compris l’ajout de nouvelles fonctionnalités, la mise à jour des dépendances entre fichiers, la détection de dépendances ou la mise en avant de codes vulnérables, l’aide à la mise à niveau des versions et les révisions complètes du code.

Gemini Code Assist se présente comme la vraie réponse de Google à GitHub Copilot et AWS Whisperer. Cet assistant qui s’intègre aux IDE des développeurs (VS Code et JetBrains notamment), permet de générer automatiquement du code informatique à partir d’une description en langage naturel, d’analyser les bases de code informatique de votre organisation, ou encore d’optimiser la structure d’un code en cours de développement. Objectif, rendre les développeurs plus véloces et productifs mais également unifier la qualité des codes produits. Google explique avoir ainsi déployé son assistant dans certains groupes de développeurs internes et avoir enregistré chez eux des temps de complétion de tâches 40% plus rapides avec des développeurs passant en moyenne 55% moins de temps aux tâches d’écriture de lignes de programmation.

Gemini Code Assist prend en charge les « repositories » de codes sources où qu’ils soient, aussi bien en local que dans le Cloud, et notamment GitHub, GitLab et BitBucket.

L’IA en assistance à l’IT

De même que l’IA générative simplifie le quotidien des développeurs, elle peut aussi faciliter le quotidien des équipes IT. Dans un même ordre d’idées que Code Assist, Google a profité de NEXT 2024 pour présenter un nouvel assistant IA : Gemini Cloud Assist.

Gemini Cloud Assist

Gemini Cloud Assist veut aider « les équipes cloud à concevoir, exploiter et optimiser le cycle de vie de leurs applications ». Typiquement, l’outil peut générer des configurations d’architecture adaptées aux besoins d’un projet donné par exemple en s’appuyant sur une description du résultat souhaité. Il peut également diagnostiquer des problèmes et en dénicher les causes profondes, formuler des recommandations voire aider l’organisation à optimiser son utilisation du Cloud pour plus de performance ou pour réduire les coûts.

Cloud Assist sera prochainement intégré à la plupart des services Google Cloud offrant son interface conversationnelle à portée de clics depuis la console Google Cloud. « L’outil fournit une assistance IA tout au long du cycle de vie de votre application, facilitant la conception, la sécurisation, l’exploitation, le dépannage et l’optimisation des performances et des coûts de votre application », a ainsi expliqué Thomas Kurian, CEO de Google Cloud lors du keynote d’ouverture.

L’IA au cœur des applications du quotidien

Si l’on continue à gravir la stack technique, l’IA apporte aussi son lot de nouvelles expériences et d’assistance aux utilisateurs finaux. À Google Cloud Next 2024, l’éditeur est notamment revenu sur quelques cas d’usage de l’IA dans les activités BI et bureautiques.

Gemini in Looker

Pour ceux qui l’ignorent encore, Looker est la plateforme de BI en self-service et de visualisation des données de Google.
Gemini in Looker est un nouvel assistant IA qui propose aux utilisateurs de nouvelles façons d’interagir avec leurs données d’entreprise en leur permettant de les interroger de manière conversationnelle. Actuellement en préversion privée, Gemini in Looker est directement intégré au sein de la suite Google Workspace permet de démarrer instantanément une conversation avec l’IA autour des données et d’obtenir des informations pertinentes en quelques secondes. L’outil propose des fonctionnalités telles que l’analyse conversationnelle, la génération de rapports, de visualisations et de formules, ainsi que la création automatique de présentations Google Slides à partir de vos analyses de données. « Gemini est un assistant intelligent toujours disponible qui permet aux utilisateurs de passer rapidement de la requête à la création, de la recherche au partage, tout en ouvrant les atouts de l’informatique décisionnelle – de la BI (Business Intelligence) – à la grande majorité des utilisateurs au sein de leur organisation » explique Google.

Gemini in Workspace

En annonçant Gemini en début d’année, Google avait précisé que son « Duet AI for Google Workspace » serait désormais renommé « Gemini in Workspace ».

À l’occasion de Google Next, l’éditeur a dévoilé le passage au modèle Gemini Pro 1.5 ainsi que de nouvelles capacités IA embarquées au cœur de sa suite collaborative.

Ainsi, il sera prochainement possible d’interroger vocalement l’assistant IA dans Gmail et dans Docs et de rédiger des réponses ou des textes vocalement.

De son côté, l’app Sheets se dote d’une nouvelle fonctionnalité IA pour automatiquement formater et organiser les données au sein de tableaux simples et parlants.

Autre nouveauté, Google semble vouloir offrir l’accès à certaines fonctionnalités IA sans obliger à acquérir tout le pack « Gemini in Workspace » (qui vaut 30$ par utilisateur et par mois). Ainsi, l’éditeur va lancer un « Add-On » pour Meet & Chat à 10$ par mois qui intègrera les fonctionnalités de sous-titrages et de traductions automatiques des conversations Meet et Chat.

Enfin, Google a annoncé un nouveau module à sa suite Workspace spécialement conçu pour l’IA générative : Google VIDS. Vids permet de créer des vidéos d’entreprise de manière similaire à la création de présentations sur Google Slides mais de façon très automatisée et assistée par l’IA. Cette dernière organise les éléments, rédige le script, sélectionne les images, musiques et séquences vidéos à incorporer, et peut même générer les voix off des messages marketing. Google Vids permet ensuite à plusieurs personnes de collaborer et éditer la vidéo de présentation ainsi générée. L’outil est conçu pour créer des vidéos d’entreprise telles que des discours, des formations et des présentations de produits, plutôt que des films. Il ne sera proposé qu’aux abonnés à Gemini in Workspaces.

On peut d’ailleurs y voir là une future tendance inquiétante : plutôt que d’augmenter le prix d’abonnement de leur suite collaborative, les Google et Microsoft risquent fort de proposer de nouveaux outils uniquement accessibles à ceux ayant opté pour le « supplément IA », puisque toutes les prochaines fonctionnalités de ces suites seront sans doute dopées à l’IA. Un moyen comme un autre aussi de forcer à l’acquisition de ce « supplément IA », qu’il s’appelle Gemini in Workspace ou Copilot for Microsoft 365.

Nous reviendrons demain sur les dernières annonces fortes de cette édition NEXT 2024 avec de l’IA au coeur de la cybersécurité, du Chrome Premium pour les entreprises et l’annonce attendue du processeur maison “Google Axion” pour animer des instances serveur performantes, économiques et écoresponsables…

À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights