Newtech
Explorer le potentiel du métavers
Par La rédaction, publié le 16 septembre 2022
Des infrastructures pas encore prêtes
L’avènement d’un métavers planétaire, photoréaliste et ciblant des milliards d’utilisateurs imposera le déploiement de gigantesques infrastructures. Le choix des architectures applicatives, systèmes et réseaux lèvera certains obstacles, mais le chantier reste titanesque.
Par THIERRY LÉVY-ABÉGNOLI
Techniquement, le métavers c’est le web qui passe à la 3D avec une interactivité presque instantanée. Or, la génération en temps réel d’images 3D photoréalistes nécessite d’énormes ressources. Quant aux interactions, elles imposent des latences de l’ordre de 30 ms, contre 150 ms pour la visiophonie. Ces contraintes requièrent le déploiement de vastes infrastructures basées sur des architectures réseaux, systèmes et applicatives adaptées. Le monde des jeux 3D connaît déjà ces problématiques, mais le métavers induit un changement d’échelle.
L’essentiel des calculs de rendu des jeux 3D est encore réalisé par les terminaux ‒ PC, smartphones ou casques. Les serveurs et le réseau ne gèrent alors que les flux d’interactions entre personnages. « Certains jeux qui fonctionnent ainsi comptent déjà des millions d’utilisateurs », explique Antoine Philippeau, cofondateur de Komet Cloud Xperience. Une variante existe : si l’environnement 3D n’est pas entièrement téléchargé en local, on se contente, façon Google Maps, de pousser vers le terminal la zone où se trouve le personnage. Bémol : pour se rapprocher du photoréalisme, les terminaux doivent intégrer de puissantes et coûteuses cartes graphiques. D’autant que, à qualité d’image équivalente, les casques de VR consomment cinq à dix fois plus de ressources que les écrans.
Le cloud pour soulager les terminaux
Pour soulager le terminal, on peut, à l’opposé, déplacer les calculs dans le cloud, comme le font les services de cloud gaming nVidia Geforce Now ou Google Stadia. Leurs datacenters hébergent des milliers de serveurs basés sur des GPU et génèrent de volumineux flux vidéo. « Nous avons adopté cette architecture pour nos clients, avec des GPU loués chez Amazon et Google. On obtient un photo-réalisme pour environ 300 personnes, mais cela coûte 200 à 300 euros par mois et par utilisateur », affirme Antoine Philippeau, estimant que la formule n’est économiquement pas mature pour un métavers planétaire. Une analyse partagée par Jérôme Grémaud, associé chez Jerlaure, un prestataire expert en datacenters : « Les architectures à base de GPU que développent Intel ou nVidia constituent des réponses au changement de paradigme qu’est le métavers, mais elles n’arriveront pas avant quelques années. » Serge Palaric, vice-président EMEA chez nVidia, se veut plus optimiste : « Depuis peu, la
puissance de calcul existe potentiellement, même si elle n’a pas encore été mise en place dans des datacenters pour que tout le monde en bénéficie. »
Edge computing et p2p à la rescousse du réseau
La réduction de la latence passe, elle, par l’adoption de réseaux basés sur la fibre et la 5G. Mais cela ne suffira pas, car les grands datacenters, souvent éloignés des centres urbains, introduisent une latence. « La solution se trouve peut-être dans le recours à l’edge computing, à travers des datacenters de proximité déployés dans les zones urbaines », suggère Jérôme Grémaud. Les architectures peer-to-peer (P2P) pourraient aussi apporter leur pierre. « Elles pourraient optimiser la latence, en transmettant par exemple les déplacements des utilisateurs directement entre leurs terminaux », propose Tom Gautier, fondateur de V-Cult. Une seule chose est claire : l’infrastructure du métavers sera bel et bien panachée.
Un déploiement progressif basé sur des compromis
Le frein lié aux gigantesques ressources nécessaires doit être pondéré. Après tout, en 1995, on disait qu’un web multimédia adopté par des milliards d’utilisateurs mettraient à genoux les infrastructures. En fait, la montée en puissance des ressources accompagnera l’adoption progressive du métavers. Le photoréalisme n’est en outre pas obligatoire. Les métavers actuels se contentent d’ailleurs d’une 3D de qualité moyenne, toutefois acceptable. De plus, les moteurs de rendu 3D savent adapter la qualité graphique, donc la quantité de calculs, aux contraintes du terminal et du réseau. Enfin, dans un premier temps, les interfaces seront surtout des écrans classiques, bien moins exigeants en ressources.
