Près d’un an après avoir libéré le code de son logiciel Torch, Facebook va bientôt passer en open source le design d’un serveur optimisé pour le machine learning. Nommé Big Sur, il repose sur des GPU, lui permettant d’être deux fois plus rapide que les serveurs précédents. Il peut intégrer jusqu’à 8 cartes 3D haute performance, ce qui assure de mieux répartir les tâches et de fluidifier le trafic des données.

Alors que les machines de cette capacité ont généralement besoin d’un système de refroidissement important, parfois très coûteux, Facebook révèle que son serveur bénéficie d’une meilleure circulation de l’air parmi ses composants et ne nécessite donc pas d’infrastructure spécifique.

Simplification maximale pour un coût moindre

Basé sur le modèle Open Compute Project (OCP), organisation qui encourage le partage des connaissances, Big Sur affiche un design simplifié à l’extrême, toujours dans un souci d’économie de coût. Exit les composants considérés futiles. Chaque élément matériel est plus accessible. La machine peut ainsi être presque entièrement manipulée sans outil et nettoyée rapidement.

Facebook mise ainsi sur l’open source pour stimuler la recherche dans le domaine de l’intelligence artificielle, mais la firme espère surtout profiter de suggestions d’amélioration. La date de publication des spécifications techniques de Big Sur est pour le moment inconnue, mais pourrait bien coïncider avec le prochain sommet de l’OCP au mois de mars.