Des personnalités, dont Elon Musk et Tim Cook, réclament un moratoire sur la recherche en intelligence artificielle. Faut-il faire une pause avant d'aller trop loin ?
Le tsunami de l'IA s'accélère de jour en jour. Des travailleurs se voient directement menacés de remplacement (traducteurs, radiologues, artistes, etc.). Selon la banque Goldman Sachs, 300 millions d'emplois pourraient disparaître.. À cela s'ajoutent des craintes en matière de désinformation, de cybercriminalité et de confusion entre le réel et le virtuel.
Une pétition, signée notamment par le patron de Tesla Elon Musk, Tim Cook ou encore l'essayiste Yuval Noha Harari, demandent un moratoire de six mois sur les recherches en intelligence artificielle. Le texte évoque "des risques majeurs pour l'humanité".
Même si l'on ne peut écarter des arrières-pensées économiques de la part de certains signataires, cette prise de position pose question et permettra peut-être d'ouvrir un véritable débat sur ce qui apparaît de plus en plus comme une véritable révolution anthropologique.
(Transcription)
L'autre jour, j’ai vu passer l’autre jour un tweet qui m’a un peu secoué. Quelqu’un racontait qu’il avait vu une personne fondre en larme et être prise de panique avoir réalisé que son métier risquait vraiment de devenir inutile à cause de l’intelligence artificielle. Cette personne était traductrice professionnelle. Une traductrice spécialisée dans les textes juridiques et les contrats internationaux, quelque chose de pointu donc. Pourtant, l’un de ses clients venait de lui demander non plus de traduire un document, comme d’habitude, mais de vérifier que la traduction qu’il avait faite avec ChatGPT ou un autre truc du même genre était exacte. Et, apparemment, la traduction était parfaite. Ce qui explique la crise de panique.
On sait depuis longtemps que l’IA menace de nombreuses tâches, comme la traduction ou l’analyse de radiographies médicales. Mais, jusqu’à présent, on se raccrochait un peu à l’idée qu’on avait encore du temps devant nous. Que cela ne se ferait pas sur une seule génération, etc. En fait, apparemment, on n’a plus vraiment le temps et le moment de bascule est arrivé.
La morale de cette histoire de traductrice, c’est que pour l’instant le contrôle humain reste important. Mais pour combien de temps ? Combien d’années, de mois ou de semaines, faudra-t-il avant que, même les textes les plus pointus, juridiques, techniques, médicaux, romantiques ou poétiques, s’il s’agit de livres. Combien de temps faudra-t-il avant que l’on puisse faire totalement confiance à l’IA et même qu’elle effectue le travail, au bout du compte, mieux qu’un humain, dans de nombreux domaines ?
Les traducteurs, les radiologues, les artistes qui se font plagier leurs œuvres à tour de bras ou les employés de bureau. Qui vont être les grands perdants de cette révolution ?
Mais il n’y a pas que le risque sur le travail.
L’autre énorme menace – on en a déjà parlé – c’est l’utilisation de l’intelligence artificielle pour créer des contenus de désinformation à une échelle industrielle.
Ce sont tous ces risques qui conduisent aujourd’hui certains à tirer la sonnette d’alarme.
Elon Musk, et d’autre personnalités, comme Tim Cook, le patron d’Apple, ou encore l’historien et essayiste Yuval Noah Harari, pour n’en citer que quelques-uns, viennent de lancer cette semaine une pétition pour freiner l’IA. Un appel mondial à faire une pause de six mois dans la recherche et le développement des intelligences artificielles. La pétition a été publiée sur le site futureoflife.org, une association qui œuvre pour limiter les impacts négatifs de la technologie.
Les signataires réclament un moratoire jusqu'à la mise en place de systèmes de sécurité.
On pourrait se dire qu’il y a peut-être derrière cet appel des arrière-pensées économiques pour ceux, comme Elon Musk ou Tim Cook, qui sont un peu en retard dans la course à l’IA.
On n’a pas trop l’habitude de voir l’avenir en noir dans ce podcast. Au contraire, on est plutôt du genre geek enthousiaste. Mais là, quand même, il y a sans doute quelques questions à se poser.