Alors que les déclarations fracassantes sur le remplacement des métiers par l'IA se multiplient, Laurent Ach, utilisateur expert de longue date, temporise ces affirmations.
Récemment, le patron d'Amazon Web Services (AWS) affirmait que ses développeurs devaient se préparer au remplacement par l'intelligence artificielle. J’ai demandé à Laurent Ach, CTO de Qwant et utilisateur professionnel de l'IA ce qu’il en pensait.
Interview
L'intelligence artificielle peut-t-elle remplacer les développeurs dans un avenir proche, selon vous ?
Non, je ne pense pas que l'IA remplacera complètement les développeurs. Certes, l'IA générative est déjà très utile et intégrée dans les environnements de développement, mais elle ne peut pas remplacer la composante humaine essentielle du métier. Le travail d’un développeur implique beaucoup plus que simplement écrire du code ; il requiert de l’intelligence humaine, des interactions, et une compréhension approfondie des besoins et spécifications. Ces aspects ne sont pas automatisables.
Comment l'IA modifie-t-elle déjà le travail des développeurs ?
L'IA générative est déjà utilisée pour automatiser certaines tâches, comme la complétion automatique ou la création de fonctions. Cela permet d’automatiser et d’accélérer des tâches de plus en plus complexes, mais il est rare que l’on utilise l'IA pour écrire un programme complet. Je ne pense pas que le métier changera de manière radicale. Cela fait partie d’un processus continu d’évolution technologique, comme le passage des machines à écrire aux ordinateurs.
“L’IA est le contraire de l’intelligence humaine”
Quelles limites de l'IA observez-vous ?
L'IA générative, bien qu'impressionnante, montre vite ses limites. Par exemple, elle peut produire du code, mais elle manque de la capacité de raisonnement et de planification propre aux humains. Elle peut réussir sur des tâches répétitives ou déjà bien documentées, mais elle échoue face à des situations inédites ou complexes qui demandent une intelligence humaine pour être correctement formulées et résolues. Pour moi, l’intelligence artificielle est le contraire de l’intelligence humaine.
Laurent Ach :
[0:00] Ce qui est certain, c'est que c'est un outil d'automatisation extraordinaire et je pense que c'est dans la continuité de l'informatique en général.
Monde Numérique :
[0:11] Bonjour Laurent Ach.
Laurent Ach :
[0:12] Bonjour.
Monde Numérique :
[0:13] Vous êtes CTO, donc Chief Technical Officer, chez Quant à Paris, en France, et grand spécialiste de l'IA. Vous avez beaucoup travaillé avec, pour et sur l'intelligence artificielle. Laurent Ach, les études concernant l'IA et leur impact sur les métiers se multiplient depuis de longues années. Dernièrement, encore un baromètre d'IBM estimait que 44% des compétences professionnelles allaient être impactées par l'IA d'ici à 2028. Et puis, il y a une petite déclaration qui a fait beaucoup de bruit du directeur de AWS, Amazon Web Services, Services qui estiment que l'IA, dit-il, est en bonne voie pour remplacer les ingénieurs logiciels dans un avenir proche. Donc, alors qu'on incite par ailleurs les jeunes à aller vers les carrières du numérique et notamment à se former, à devenir des développeurs, des ingénieurs à tout niveau d'ailleurs, est-ce qu'il faut finalement complètement changer de cap ? Qu'en pensez-vous ?
Laurent Ach :
[1:18] C'est une idée qui est relativement répandue, mais surtout aux Etats-Unis, que l'IA est en bonne voie pour remplacer tous les humains pratiquement, en fait, tout ce qu'on fait, toutes les tâches intellectuelles des humains. Il y a beaucoup de... Périodiquement des annonces qui sont de cet ordre-là. Et la réalité, c'est effectivement qu'il semble y avoir des capacités dans l'IA générative qui sont incroyables. Donc tout le monde a été surpris par ça, à partir de tchats du Piti dans le grand public, et même les gens qui ont développé ces technos ont été surpris, et certains se sont fait peur eux-mêmes. Donc pour ce qui est du développement logiciel, du coding, C'est un domaine particulier où l'IA générative est très utile, mais je pense que les limites sont assez similaires à ce qu'on peut observer ou analyser dans d'autres domaines. Dans un dialogue, par exemple, avec l'IA générative, on a l'impression de parler avec quelqu'un qui a un savoir énorme, qui est intelligent, gens, mais on se rend compte des limites assez vite, soit dans l'interaction, soit parce qu'on comprend comment ça fonctionne et que par principe, il y a des limites qui ne peuvent pas être dépassées, mais bon, il y a des controverses autour de ça, tout le monde n'est pas d'accord à ce sujet-là.
Monde Numérique :
[2:39] Est-ce que l'IA réfléchit ou pas ? La réponse c'est que c'est non, mais parfois c'est quand même troublant.
Laurent Ach :
[2:46] C'est ça. Donc dans le domaine du développement logiciel, je pense que la discussion peut être similaire, enfin, la discussion sur à quel point ça peut remplacer les humains pour certaines tâches, c'est des discussions assez similaires. Est-ce qu'on peut remplacer certaines tâches faites par les médecins, par les avocats, par un CEO, par un Premier ministre, peut-être, un jour ? À quel point on peut faire ça ? C'est une discussion compliquée.
Monde Numérique :
[3:10] Oui, ça pourrait rendre service, là, en ce moment.
Laurent Ach :
[3:11] Oui, peut-être, ça serait une solution. Donc, il y a des, limites qu'on voit aujourd'hui, qu'on ne peut pas nier, et puis il y a des limites qui peuvent être des limites de principe sur lesquelles là il y a des controverses parce que les gens ne sont pas d'accord, et c'est sûr que dans l'IA générative, il semble y avoir l'émergence de certaines capacités qui n'ont pas été explicitement, qui n'ont pas explicitement fait partie de l'apprentissage. Mais comme l'apprentissage c'est de produire du langage qui ressemble à ce qui aurait été dit par un être humain, ça fait tellement bien cette imitation, que ça doit prendre en compte une partie de la sémantique des concepts qui existent dans notre pensée, dans une discussion entre humains. Il doit y avoir une partie de ces concepts ou certaines représentations qui s'en rapprochent, parce que sinon ce serait pas possible de produire un langage si cohérent. Pareil pour la production de code, mais comme il n'y a pas de concept explicite nulle part, on ne peut pas les observer, et même on voit qu'ils n'existe pas parce que par exemple si on essaye de faire faire des multiplications même des additions.
Laurent Ach :
[4:18] Un LLM, il sait le faire s'il n'y a pas trop de chiffres. Donc, il est flagrant qu'il n'a pas compris. Il n'a rien compris. Mais jusqu'à un certain point, ça marche extraordinairement bien. Donc, on voit les limites, mais dans certains cas, on ne les voit pas justement et on se laisse bluffer. Mais ce qui est certain, c'est que c'est un outil d'automatisation extraordinaire. Et je pense que c'est dans la continuité du développement technologique, de l'informatique en général, qui permet d'automatiser beaucoup de choses. Sauf que là, Là, on automatise des tâches qui sont considérées, réservées, des choses intellectuelles réalisables seulement par des humains.
Laurent Ach :
[4:54] Mais pour moi, c'est encore de l'automatisation, une partie d'automatisation.
Monde Numérique :
[4:57] Pour revenir aux développeurs, en fait, ce n'est pas au futur qu'il faut parler, c'est au présent, parce qu'ils utilisent déjà l'IA générative.
Laurent Ach :
[5:05] Oui, ça a été assez vite dans ce domaine-là et c'est déjà très utile aujourd'hui et ça commence à être bien intégré dans les environnements de développement logiciel. Donc il y a plusieurs types d'usages c'est rare qu'on écrive juste un prompt pour écrire un programme ça marche pour des petits scripts, ou pour un noyau de programme mais je pense que ce n'est pas un usage très répandu par contre ce qui est beaucoup plus répandu c'est de faire de la complétion automatique de créer une fonction automatiquement en tenant compte du contexte de différents fichiers qui constituent le programme donc ça c'est déjà quelque chose qui commencerait à être utilisé Ce n'est pas complètement généralisé, mais ça commence à être quand même assez très répandu et beaucoup de gens l'utilisent. Je pense que ce n'est pas encore complètement stabilisé comme usage. C'est quand même un outil encore nouveau. Donc, suivant les sociétés et les développeurs, c'est devenu vraiment une habitude et quelque chose qui fait partie du travail. Et pour d'autres, c'est un peu plus anecdotique.
Monde Numérique :
[6:02] Vous, chez Quant, vous avez des développeurs parce que l'entreprise s'est vraiment recentrée sur le technique. Est-ce que vos développeurs utilisent ChatGPT ?
Laurent Ach :
[6:15] Oui, alors on utilise différents thèmes pour le code. On n'a pas encore standardisé et officialisé un usage homogène pour toutes les équipes. Donc on est encore en train d'évaluer ça et de tester et d'essayer encore un peu les gens à utiliser ce qui leur convient le mieux. Il y a un moment où on va homogénéiser l'usage de ces outils, mais ce qui est sûr, c'est qu'ils commencent à être utilisés et on va même être
Laurent Ach :
[6:41] en support pour que ça puisse être utilisé plus largement parce que ce sont des outils utiles.
Monde Numérique :
[6:47] Donc, je reviens à la question de base. Est-ce que l'IA générative pourrait, selon vous, à terme remplacer les développeurs ou bien ce sont simplement les développeurs qui, de plus en plus, vont utiliser des IA génératives et qui, eux-mêmes, n'écriront plus de code, finalement ?
Laurent Ach :
[7:05] Quand on recrute un développeur, un ingénieur, de manière générale, on... On essaye d'obtenir l'aide de quelqu'un qui apporte de l'intelligence dans l'équipe, pas seulement la partie de la production de code qui peut être automatisée. C'est vrai qu'il y a une partie du travail qui peut être automatisée, ou qu'il y a une aide qui est possible à travers ces outils qui permet peut-être d'aller plus loin dans ce qu'on peut faire, ou plus vite. Mais la partie proprement intelligente, et il y a toujours de l'intelligence. On le voit quand le travail d'un développeur ou d'un ingénieur, ce n'est pas seulement de transformer une spécification en code. Déjà, la spécification, il faut la faire et toute une partie d'interaction, même avant de pouvoir spécifier ce qu'est une fonction à coder, d'interaction entre les gens, entre les équipes. Ce qu'on veut faire souvent, c'est définir avec des équipes qui travaillent sur le business ou des équipes produits ou avec d'autres développeurs. On travaille ensemble sur des sujets qui peuvent être complètes. Ça va être plusieurs points de vue, plusieurs aspects techniques. Des gens qui s'intéressent à l'infrastructure, à la sécurité, à l'architecture, d'autres à l'efficacité. Donc, il y a beaucoup d'interactions dans une équipe, même de développement informatique très technique. Il y a énormément d'interactions humaines.
Laurent Ach :
[8:29] Personne ne niera le fait que la composante humaine dans ce travail est fondamentale. Elle est peut-être plus importante ou au moins aussi importante que les capacités techniques, les connaissances dans la programmation et les langages. Et donc cette partie d'intelligence, elle n'est pas automatisable. Il y a une partie du travail qui est automatisable, mais la partie, en fait, le mot intelligence prend plusieurs sens et il est utilisé dans l'intelligence artificielle, mais l'intelligence, quand on parle d'intelligence humaine, souvent, c'est le contraire de l'intelligence artificielle. Parce qu'on dit souvent que quelqu'un est intelligent parce que justement, il arrive à bien saisir les différents aspects pas d'une situation qui, pour, par exemple, formaliser un problème ou pour définir les termes entre lesquels choisir. Il y a plusieurs manières d'utiliser le mot intelligence et de lui donner un sens, mais c'est souvent ça qu'on utilise comme sens pour l'intelligence. C'est justement le contraire de l'IA qui fait quelque chose à partir d'un problème qui a été formalisé. Souvent, le problème n'est pas formalisé, on ne sait même pas ce qu'on veut faire et on doit en discuter. Et ça, c'est l'intelligence qui est proprement humaine, qui n'existe pas du tout dans l'intelligence artificielle.
Monde Numérique :
[9:36] Mais est-ce que si on pousse le bouchon encore un peu plus loin Et si on va vers ce qu'on appelle les agents intelligents, etc., qui, a priori, seront capables justement d'enchaîner des tâches différentes, etc. Est-ce que là, vous entrevoyez déjà l'impact que ça peut avoir, encore une fois, du côté des développeurs ?
Laurent Ach :
[9:58] Oui, c'est une couche supplémentaire dans ces technologies. Et c'est vrai que ce que ne parvient pas à faire un LLM, c'est-à-dire raisonner, le raisonnement n'est vraiment pas terrible. le raisonnement et la planification, c'est vraiment des choses qui ne sont pas bien faites. On peut le faire en faisant interagir différents agents, en décomposant en différentes briques ou différentes étapes les tâches à réaliser et ça fonctionne mieux. Je ne pense pas que ça change fondamentalement les capacités de l'IGA génératif. Ça permet d'aller un cran plus loin parce qu'on lui permet de découper le travail et par des opérations élémentaire, de faire quelque chose d'un peu plus complexe, c'est vrai.
Laurent Ach :
[10:40] Mais quand j'ai dit qu'il n'y a pas d'intelligence dans ce que fait l'IA, il y a quand même une partie qui reproduit de l'intelligence même, c'est-à-dire qu'on peut très bien demander à un programme de, créer du code qui fasse quelque chose, et ce quelque chose, ça peut être quelque chose qui est très, je ne sais pas moi, faire un système de paiement en ligne. Donc là, c'est un requirement un peu business. Mais comme ça a déjà été fait plein de fois, et s'il y a plein d'exemples de code qui correspondent à cette description, il saura le faire parce que ça a déjà été fait. Donc il y a des choses qui, pour nous, nécessitent de l'intelligence pour quelqu'un qui voit le problème pour la première fois, mais comme c'est un problème classique, il y a des choses qui sont reproductibles facilement. Donc on ne peut pas non plus dire que ça ne fait que des choses stupides ou très simples. Ça peut faire des choses un peu compliquées, mais ça ne peut pas faire face à une situation qui n'a pas été formalisée, qui est spécifique ou qui est nouvelle.
Laurent Ach :
[11:33] Donc, il restera toujours cette partie. Alors maintenant, pour définir à quel niveau on place les limites de la capacité d'oliage génératif, c'est très difficile à dire et ça va évoluer beaucoup.
Laurent Ach :
[11:45] Donc, on peut comparer ça peut-être à la conduite automobile, autonome. Pour l'instant, on considère que la conduite autonome complète n'existe pas. Mais peut-être qu'à un moment, on va considérer que, oui, finalement, Finalement, il y a des erreurs, les voitures autonomes feront des erreurs qu'on n'aurait pas fait nous, mais globalement, on va l'accepter parce que globalement, il y a moins d'accidents. Peut-être qu'un jour, avec le code, on fera ça et on va générer du code. Bon, il y aura quelques failles de sécurité ou une architecture un peu pas terrible. Mais bon, finalement, ça sera plus rentable et dans certains cas, on l'acceptera. Donc, on s'est dur à dire.
Monde Numérique :
[12:21] Ce n'est pas très rassurant.
Laurent Ach :
[12:22] C'est difficile de prévoir l'usage qui sera fait dans longtemps à partir de ces outils. Mais ce qui est sûr, c'est que je pense que dans les années qui viennent, le métier ne va pas changer fondamentalement. Alors peut-être qu'il y aura moins de développeurs, parce que cette automatisation fait qu'on rentabilise plus le travail d'un développeur. Et une partie d'automatisation, ce qui est sûr, c'est que ça change un peu la manière de travailler. Dans beaucoup de métiers, la manière de travailler change, mais ça, c'est un peu ce qui évolue avec l'évolution des technologies en général. Je ne pense pas qu'il y ait une coupure si nette que ça avec l'IA générative. C'est un gros saut technologique, c'est sûr. Mais je pense pas qu'il y ait une coupure si importante on est dans un processus d'automatisation, Les technologies permettent d'automatiser des tâches de plus en plus complexes. Et il y a une certaine continuité, en fait, je pense. Et donc, les métiers évoluent avec ça. Avant, il y avait des machines à écrire, après, il y avait des ordinateurs. Ça a changé beaucoup de métiers. Il y a quelques métiers qui disparaissent, effectivement. Mais il n'y a pas un changement radical où des métiers disparaissent comme ça. Il y a une certaine continuité dans l'automatisation.
Monde Numérique :
[13:23] Oui, on parle des développeurs. Il y a aussi le côté bénéfice, évidemment, de l'intelligence artificielle. Qui, par exemple, chez Amazon, auraient fait déjà économiser 260 millions de dollars et 4 500 années développeurs de travail, équivalent en années de développeurs de travail. Ça, c'est déjà une réalité.
Laurent Ach :
[13:45] Oui, je n'accorde pas 100% de crédit à ça. J'aimerais bien voir comment ça a été calculé quand même. Mais oui, c'est certain qu'il y a des gains de productivité liés à l'automatisation qui sont assez importants.
Monde Numérique :
[13:57] Donc, finalement, Laurent, le constat est toujours le même.
Monde Numérique :
[14:02] L'IA va remplacer des tâches, mais pas encore énormément de métiers, on va dire, si on va même au-delà des développeurs.
Laurent Ach :
[14:10] Je pense qu'il y a beaucoup de métiers. La plupart des métiers utilisent l'intelligence humaine au sens d'une intelligence qui n'existe pas du tout dans l'IA. Et ça, c'est vrai. La plupart des métiers nécessitent à la fois du savoir, des savoir-faire, des techniques qui peuvent être en partie automatisées. Mais il y a une grande partie du travail qui nécessite une intelligence humaine qui n'est pas du tout automatisable.
Monde Numérique :
[14:38] Merci beaucoup Laurent Ach, sans H, je précise, et sans K, CTO de Quant.