Data / IA
Transformation des métiers du développement, ce n’est que le début !
Par Thierry Lévy-Abégnoli, publié le 20 août 2025
En automatisant partiellement l’écriture du code applicatif, les LLM améliorent déjà la productivité des développeurs. Ces gains augmenteront encore avec l’intégration des pratiques de l’entreprise et l’élargissement du champ d’action de l’IA à l’ensemble du cycle de vie des applications.
Lorsque l’on pense à l’impact des LLM sur le métier de développeur, on évoque d’abord leur capacité à générer du code dans de multiples langages (voir tableau). Mais leur impact est appelé à être bien plus large. Il concerne potentiellement l’ensemble du cycle de vie des applications : expression des besoins, codage, documentation d’un code existant, explication de ses fonctionnalités, tests et maintenance.
Parmi les acquis déjà concrets, les LLM permettent tout d’abord de faire de la complétion en « devinant » la suite d’un début de code saisi. « Cela fonctionne correctement jusqu’à trois ou quatre lignes », estime Soufiane Keli, VP software engineering chez Octo Technology.
Ils sont également capables d’écrire un programme dont les fonctionnalités ont été décrites dans un prompt. Selon M’hamed Benabid, data & AI brand technical specialist chez IBM France, « la longueur du code généré peut atteindre quelques dizaines de milliers de lignes ». Mais cette taille est limitée par la capacité du développeur à valider le code, si bien qu’au-delà de quelques centaines de lignes, la génération automatique ne fait plus forcément gagner du temps. Les LLM permettent enfin de traduire un code d’un langage à l’autre, par exemple de PHP vers Java, ou de migrer vers une version plus récente d’un langage.

La pertinence du code généré dépend du langage utilisé. Les LLM sont ainsi particulièrement efficaces sur les composants backend écrits en Java ou Python. « La qualité du code reste toutefois moyenne car un LLM ne produit que ce qui est le plus probable », relativise Soufiane Keli. Les résultats sont pour l’instant moins probants sur le frontend, typiquement en HTML, JavaScript et CSS. « Car il est alors plus compliqué d’expliquer ce que l’on souhaite faire, mais cela peut évoluer en seulement quelques mois », continue-t-il.
Une autre limite concerne la maintenabilité du code généré. En effet, le LLM ne s’inscrit pas dans le temps, car il oubliera demain ce qu’il a fait hier. Seul l’humain peut vraiment contrôler si le code est maintenable et évolutif. « Ce sera différent si un jour, peut-être dans 20 ans, l’intelligence artificielle génère la totalité des applications », imagine Soufiane Keli.
Soufiane Keli
VP software engineering chez Octo Technology
« Si monsieur tout le monde peut développer, on ira peut-être vers une ubérisation du développeur. »
Vers une intégration des pratiques de l’entreprise
La marge d’amélioration est, de fait, énorme. Actuellement, les LLM dédiés au codage sont pour la plupart uniquement entraînés sur des données génériques, externes à l’entreprise. Il est toutefois déjà possible de contextualiser le LLM en injectant, via un prompt ou une API, le code et les pratiques de l’entreprise.
C’est l’approche choisie par Smile, la société de services en logiciels libres. « Nous soumettons notre contexte en sélectionnant un petit nombre de projets très qualitatifs », explique Thibault Milan, son directeur de l’innovation.
Thibault Milan
Directeur de l’innovation chez Smile
« Grâce à l’IA, il faudra moins de développeurs pour produire à l’identique, mais on produira davantage. »
La start-up Poolside AI promet pour sa part une intégration en mode fine-tuning du code applicatif développé par l’entreprise. IBM offre également cette possibilité, mais avec un petit LLM déployé on-premise comptant seulement (!) 20 milliards de paramètres. « Il est alors plus facile de faire du fine-tuning », justifie M’hamed Benabid.
L’ESN Meritis a pour sa part réalisé quelques tests expérimentaux en entraînant le LLM LLama en mode fine-tuning, sans résultat probant pour l’instant. « Il faudrait une quantité plus importante de code de bonne qualité, mais cette approche sera à terme indispensable », confirme Gaëtan Eleouet, développeur senior et coach tech.
Une assistance en amont et en aval du codage
Les LLM commencent également à endosser un rôle de conseiller, en amont du codage. « Ils peuvent vérifier, en termes de sécurité ou de copyright, les briques que le développeur envisage d’assembler, proposer des alternatives ou signaler qu’une fonction existe déjà dans le repository de l’entreprise », indique Xavier Perret, directeur Azure chez Microsoft France.
Encore plus en amont, des agents conversationnels basés sur des LLM pourraient assister les développeurs et les utilisateurs dans l’expression des besoins. « On va vers l’émergence de plusieurs agents ciblant le développeur, l’architecte, l’utilisateur et le testeur, qui pourraient dialoguer ensemble », explique Soufiane Keli.
Des acteurs comme Microsoft ou IBM s’engagent déjà dans cette voie. Copilot intègre ainsi une brique qui aide à l’expression des besoins. Tandis qu’IBM Research explore la possibilité d’aider le développeur à analyser les erreurs en phase de test, voire de production. « Un agent basé sur des LLM remonte les bugs puis aide le développeur à identifier le code qui est en cause, avant de recommander des solutions », explique M’hamed Benabid.
L’introduction progressive de l’intelligence artificielle dans toutes les étapes du cycle de vie du développement amène aussi les éditeurs à proposer des solutions globales comprenant une panoplie d’outils qui s’intègrent dans leurs environnements de développement. IBM propose ainsi watsonx Code Assistant et son IDE Eclipse. Microsoft fait de même avec Github Copilot et Visual Studio. « L’IA générative devient ainsi une extension naturelle de Visual Studio », précise Xavier Perret.
Des gains de 10 à 40 %
Les gains que procurent les LLM sont pour l’instant essentiellement mesurés sur la phase de génération de code. « On parle d’une productivité accrue de 40 à 50 %, mais le codage ne représente que 30 à 40 % de l’activité d’un développeur », calcule Soufiane Keli. Finalement, le gain général n’excède donc pas 10 à 15 %.
Ce chiffre augmentera toutefois quand les LLM seront utilisés sur l’ensemble du cycle de vie des applications. Car ils commencent à peine à révolutionner le développement. Au-delà du codage traditionnel, ils pourraient aussi être appliqués au développement low-code ou no-code. Ils permettraient alors de paramétrer une plateforme de développement no-code à partir d’un prompt, ou de générer une application en mode low-code.
Les conséquences à long terme sur le métier n’ont pas fini de faire débat. « Si monsieur tout le monde peut le faire, on ira peut-être vers une ubérisation du développeur », imagine ainsi Soufiane Keli. Une crainte que d’autres estiment infondée. « Grâce à l’IA, il faudra moins de développeurs pour produire à l’identique, mais on produira davantage », prédit Thibault Milan.
Des juniors trop enthousiastes, des seniors trop réticents
Les développeurs juniors sont les plus enclins à adopter les LLM, car ils en tirent des bénéfices immédiats et importants. « Mais en se fiant trop à l’IA, ils apprennent moins et risquent de produire du code qui ne passera pas les tests », estime Soufiane Keli, VP software engineering chez Octo Technology.
Les plus réfractaires sont du côté des seniors, moins en demande de cette assistance car ils écrivent rapidement un code de qualité. « On ne peut pas les forcer, c’est à eux de trouver le bon moyen de les utiliser. »
Meritis a adopté de son côté une stratégie de transmission des connaissances. « Nous constituons des binômes composés d’un junior et d’un senior, en les incitant à interagir au maximum », raconte Gaëtan Eleouet, développeur senior et coach tech de l’ESN. Quant au spécialiste du logiciel libre Smile, il a choisi de constituer un pool d’une quinzaine d’ambassadeurs-experts qui accompagnent les développeurs juniors ou seniors durant quatre mois.
Selon Smile, 80 % des développeurs ressentent une amélioration de leurs performances
La société de services en logiciels libres Smile a étudié durant six mois l’impact des LLM sur 60 développeurs juniors et seniors travaillant en PHP, Java et JavaScript/ HTML/CSS, sur de nouvelles applications ou en maintenance évolutive. Parmi eux, 80 % ont ressenti une amélioration de leurs performances. 80 %, c’est également le taux d’acceptation du code suggéré par les LLM. « Sur l’ensemble d’un projet, de la prise en charge à son acceptation, notre étude a montré que le gain de temps a été en moyenne de 15 % », commente Thibault Milan, directeur de l’innovation.
Mais il existe une marge de progression car les développeurs se sont concentrés sur la génération de code, délaissant d’autres fonctions. Ainsi, seulement 50 % ont utilisé le LLM pour comprendre un code existant, écrire une documentation ou générer des tests unitaires. Autre potentiel de gains : parmi les 20 % de développeurs qui n’ont pas constaté d’amélioration, certains se sont montrés réfractaires et d’autres – surtout des seniors – avaient un niveau d’attente trop élevé. Et sur certains outils, comme Magento (codage en PHP), les LLM ne fonctionnaient pas bien. Enfin, 30 % des développeurs ont exprimé une peur, parfois panique, d’être remplacés.
À LIRE AUSSI :
À LIRE AUSSI :
À LIRE AUSSI :
