🔎 L’alerte du patron de Claude sur les dangers de l’IA (Zoom Tech)
Maison Connectée30 janvier 202606:14

🔎 L’alerte du patron de Claude sur les dangers de l’IA (Zoom Tech)

L’intelligence artificielle pourrait-elle devenir une menace majeure pour l’humanité ? Le PDG d’Anthropic, Dario Amodei, tire la sonnette d’alarme dans un essai remarqué sur les risques d’une superintelligence mal maîtrisée.

Une superintelligence aux conséquences potentiellement dévastatrices

Dario Amodei, patron de Anthropic et créateur du chatbot Claude, publie un long essai qui fait l’effet d’un signal d’alarme. Il y décrit l’arrivée possible, à plus ou moins court terme, d’une superintelligence artificielle capable d’égaler, voire de dépasser, les meilleurs experts humains dans tous les domaines clés, de la médecine à la physique en passant par les mathématiques.

Selon lui, l’humanité s’apprête à manier un pouvoir presque inimaginable, sans certitude que ses structures politiques, sociales et technologiques soient suffisamment mûres pour en garder le contrôle.

Cybercriminalité, armes biologiques et rivalités géopolitiques

Parmi les risques majeurs évoqués figurent l’explosion de la cybercriminalité et la possibilité de concevoir et de diffuser plus facilement des armes biologiques ou chimiques. L’IA pourrait aussi devenir un atout militaire décisif, offrant à certains pays des capacités offensives écrasantes.

Dario Amodei pointe notamment la Chine en toile de fond et rappelle s’être opposé par le passé à l’exportation de cartes graphiques Nvidia très avancées vers ce pays, par crainte d’un déséquilibre stratégique.

Un choc économique et social sans précédent

Le dirigeant d’Anthropic alerte également sur l’impact de l’IA sur l’emploi. Selon lui, jusqu’à 50 % des postes de cadres débutants pourraient disparaître d’ici cinq ans. Une perspective encore débattue, mais de plus en plus présente dans les analyses économiques.

Autre sujet d’inquiétude : la concentration extrême des richesses générées par l’IA. Elle pourrait accentuer les fractures géographiques et économiques, au point de transformer la Silicon Valley en une sorte d’économie parallèle, déconnectée du reste du monde.

Des risques connus, partagés par d’autres figures de l’IA

Dario Amodei n’est pas seul à tirer la sonnette d’alarme. Ses positions rejoignent celles de Geoffrey Hinton, Joshua Bengio ou encore Elon Musk, qui alertent depuis plusieurs années sur les dangers de l’intelligence artificielle.

Ces risques se répartissent en trois grandes catégories : les impacts économiques et sociétaux (emploi, désinformation, démocratie), les usages malveillants comparables à ceux du nucléaire, et enfin le scénario plus spéculatif d’une perte de contrôle totale des systèmes, popularisé par la science-fiction.

Réglementation, garde-fous et bouton rouge

Pour éviter le pire, Dario Amodei avance plusieurs pistes. Il plaide pour une réglementation renforcée, avec des évaluations strictes des systèmes d’IA, comparables à celles imposées aux avions ou aux médicaments. Il recommande aussi un déploiement progressif des outils les plus puissants et l’installation de dispositifs de sécurité matériels, de véritables « kill switch », capables d’arrêter une IA en cas de dérive.

Enfin, il insiste sur l’importance de la recherche en alignement et en contrôle des modèles, un domaine qu’il présente comme central dans les travaux menés par Anthropic. Un cri d’alarme de plus, mais cette fois émis de l’intérieur même du système, dans un contexte où la course à l’IA s’accélère dangereusement.

-----------
♥️ Soutien :
https://mondenumerique.info/don
🗞️ Newsletter :
https://mondenumerique.substack.com


[0:01] Des IA plus intelligentes que l'homme, mal utilisées et qui pourraient faire [0:05] des ravages, qui pourraient même se retourner contre leurs créateurs. Voilà le tableau apocalyptique dressé par l'un des acteurs clés du système. Vous connaissez le chatbot Claude, concurrent de ChatGPT, développé par la société Anthropik, mais vous ne connaissez peut-être pas son créateur, l'américain Dario Amodei, PDG d'Anthropik. Eh bien, Dario Amodei fait beaucoup parler de lui en ce moment, en raison d'un essai d'une trentaine de pages publiées notamment dans le Financial Times, un essai qui résonne comme un signal d'alarme contre les risques de l'intelligence artificielle. Cet éminent spécialiste des grands modèles de langage développe un propos carrément inquiétant. Selon lui, l'avènement prochain d'une super intelligence artificielle, c'est-à-dire une IA capable de rivaliser avec les meilleurs cerveaux de la planète en étant le meilleur physicien, le meilleur médecin, le meilleur mathématicien, etc., représenterait un véritable danger pour l'humanité tout entière. [1:02] L'humanité est sur le point de se voir confier un pouvoir presque inimaginable, écrit-il, et il est très difficile de savoir si nos systèmes sociaux, [1:10] politiques et technologiques ont la maturité nécessaire pour l'exercer. Alors Dario Amodei passe en revue un certain nombre de risques. Il évoque la cybercriminalité, il évoque la possibilité effrayante de fabriquer des armes bactériologiques et surtout de pouvoir les utiliser et les répandre. Selon lui, exploiter à des fins militaires une supérieure doterait un pays de capacités offensives considérables et pourrait provoquer des ravages chez des adversaires qui ne disposeraient pas des mêmes forces. [1:42] Dario Amodei pense clairement en priorité à la Chine, et il s'était d'ailleurs [1:46] opposé à la livraison à la Chine de cartes graphiques Nvidia hyper puissantes il y a quelques temps. Le patron d'Anthropic alerte aussi, d'une manière plus générale, sur les conséquences économiques de l'intelligence artificielle. Et notamment ses effets sur l'emploi. Selon lui, l'IA risque de faire disparaître 50% des emplois de cadres débutants dans les cinq prochaines années. Une réalité de plus en plus prégnante et de plus en plus souvent évoquée, même si pour l'instant, rien ne permet de dire qu'on en est déjà là. Enfin, plus étonnant, car le patron d'Entropique fait partie du système, Eh bien, Dario Amodei met en garde contre l'extrême concentration de richesse des opérateurs d'intelligence artificielle. Cela risque, selon lui, de conduire à une fracture géographique. En gros, dit-il, à terme, la Silicon Valley pourrait devenir une économie à part entière, fonctionnante à son rythme, un rythme différent du reste du monde. [2:41] Bref, un véritable catalogue de tous les effets pervers de l'IA, j'en passe et des meilleurs. [2:47] Alors ces inquiétudes, Dario Amodei n'est pas le premier à les exprimer. Et il rejoint en cela des personnalités telles que le britannique Geoffrey Hinton, le québécois Joshua Benjo ou même Elon Musk, qui ces dernières années ont déjà à plusieurs reprises mis en garde contre les risques, selon eux, liés à l'intelligence artificielle. Des risques qui, si on veut les cataloguer, sont donc de plusieurs ordres. Un, les conséquences économiques et sociétales, l'emploi, la désinformation, la démocratie, etc. Deux, les risques d'une utilisation détournée ou à mauvais escient, ce qui conduit d'ailleurs souvent à comparer l'IA au nucléaire, et c'est peut-être cela le risque le plus concret. Et puis enfin, il y a le scénario de science-fiction, d'une perte de contrôle, d'une autonomie des systèmes. Quelques exemples semblent illustrer ce phénomène, mais en réalité, ce n'était que des expériences de laboratoire jusqu'à présent. [3:46] Ce scénario à la Terminator ou à la 2001 Odyssée de l'Espace, en gros d'une IA qui s'affranchit et qui cherche à éradiquer l'homme, c'est impressionnant, mais c'est aussi la vision la plus décriée que beaucoup ne partagent pas, car ils estiment que l'IA est encore très loin de ses super pouvoirs qu'on lui attribue, y compris quand on se projette dans le futur. Un modèle se veut donc lanceur d'alerte, et ce qu'il souligne surtout, [4:10] c'est le manque de préparation des sociétés pour faire face à cette véritable révolution. Alors que faire ? Eh bien, il évoque plusieurs pistes pour éviter le pire. D'abord, il parle de réglementation. D'abord, il n'hésite pas à parler de réglementation. Voilà qui fera plaisir à nos institutions européennes. Il suggère aussi d'évaluer les systèmes d'IA comme on évalue les avions ou les médicaments avant de les mettre sur le marché. Avant tout déploiement, il faudrait s'assurer que ces IA ne sont pas capables, par exemple, de produire des armes bactériologiques ou chimiques. Il plaide aussi pour un déploiement progressif et graduel de ces outils afin de ne pas mettre des systèmes trop puissants entre n'importe quelle main. Une démarche qui est plutôt contraire à ce qu'on voit aujourd'hui avec la généralisation d'outils chaque jour plus puissants. Enfin, il suggère d'instaurer des kill switch matériels, c'est-à-dire des boutons rouges, des boutons de sécurité permettant d'arrêter la machine d'un seul coup si elle va trop loin. [5:08] Système de sécurité qui pourrait prendre peut-être tout son sens sur les futurs robots humanoïdes appelés à se multiplier dans notre environnement. Enfin, il insiste sur l'importance de mener des recherches en matière d'alignement et de contrôle, c'est-à-dire pour mieux comprendre et interpréter comment fonctionnent les modèles d'intelligence artificielle et détecter par exemple les raisonnements dangereux ou encore entraîner des modèles à refuser certaines actions même si elles peuvent sembler efficaces. Et là, Dario Amodei reprend sa casquette de CEO d'Entropique, puisqu'il précise que c'est justement au cœur des recherches de son entreprise. Bref, un cri d'alarme important dans le contexte actuel, même s'il ne surprend pas véritablement par son contenu, car beaucoup d'arguments ont déjà été évoqués. Mais en tout cas, ce qui est intéressant, c'est que cela émane d'un acteur clé du système, même s'il ne s'agit pas du leader du secteur.
innovation,informatique,technologies,tech news,High-tech,numérique,actualités,tech,actu tech,