Une pétition internationale relance le débat sur les dangers d’une super-intelligence artificielle. Faut-il vraiment appuyer sur le frein ?
🤖 Une pétition qui fait du bruit
Signée par plusieurs centaines de personnalités — chercheurs, lauréats du prix Nobel, mais aussi célébrités comme Will.i.am ou le prince Harry —, cette pétition appelle à un moratoire sur le développement des systèmes d’intelligence artificielle les plus avancés. L’objectif : éviter qu’une hypothétique “super-IA” ne dépasse le contrôle humain. Un appel qui fait écho à des inquiétudes croissantes dans le monde scientifique, mais dont les signataires ne partagent pas tous les mêmes motivations.
⚠️ Les vraies menaces (et les fausses)
Derrière les discours alarmistes, il faut distinguer les risques concrets des fantasmes hollywoodiens. L’IA ne va pas “prendre le pouvoir” demain, mais elle soulève déjà des enjeux bien réels : désinformation, cybercriminalité, surveillance de masse, biais algorithmiques et impact écologique. Ces dérives existent et doivent être encadrées — sans pour autant céder à la peur d’un scénario de science-fiction.
🌍 Réguler sans freiner
La régulation internationale de l’intelligence artificielle est indispensable, tout comme l’était celle du nucléaire en son temps. Mais vouloir “arrêter” la recherche reviendrait à se tirer une balle dans le pied. L’IA transforme déjà la santé, le travail, l’éducation. Elle est une chance immense, à condition de garder la tête froide. L’enjeu n’est pas de freiner, mais de mieux comprendre, encadrer et utiliser cette technologie pour qu’elle reste au service de l’humain.
[0:01] Faut-il arrêter le développement de l'intelligence artificielle ? C'est un peu l'esprit de cette pétition signée mercredi 22 octobre par plusieurs centaines de personnalités pour mettre un haut-là au projet de super-intelligence artificielle. Une pétition qui fait suite à un appel qui avait été lancé en septembre par 200 personnalités politiques et scientifiques, parmi lesquelles 10 lauréats du prix Nobel, de nombreux chercheurs, dont Geoffrey Hinton, Joshua Benjo, qui alertent depuis un certain temps sur les risques d'une super IA. Et donc, tous ces gens-là réclament aujourd'hui des mesures internationales contraignantes pour, on va dire, empêcher que ça dégénère. Alors, à noter que parmi les signataires de la pétition d'il y a quelques jours, on trouve aussi le rappeur Will I Am.
[0:47] Steve Bannon, conseiller de Donald Trump, le prince Harry ou encore son épouse Meghan, qui ont tout à fait le droit de signer ce genre de pétition, mais qui ne sont pas, sauf erreur de ma part, de grands experts de l'IA. Il y a aussi Steve Wozniak, cofondateur d'Apple, qui est un gars bien sympathique et très compétent en électronique et en informatique, mais qui n'est pas non plus, il faut l'avouer, un grand visionnaire en matière de technologie. Alors bon, je ne dis pas ça pour essayer de décrédibiliser cette pétition, juste pour apporter un petit peu de contexte. On précisera aussi que la pétition émane d'une organisation qui s'appelle Future of Life Institute, un groupe à but non lucratif qui travaille depuis longtemps sur tous les risques majeurs, notamment l'intelligence artificielle, mais pas seulement. Une association qui avait été financée initialement par Elon Musk.
[1:32] Voilà, ça c'est pour camper le décor. Alors maintenant, revenons à la question de base. Faut-il arrêter l'IA ? Ou en tout cas, freiner le développement de cette super IA après laquelle courent aujourd'hui les géants de la tech, OpenAI, Meta et Google principalement ?
[1:50] Le sujet n'est pas nouveau, mais n'empêche, il est vraiment intéressant et c'est un sujet qui, c'est vrai, monte parce que ça devient une préoccupation chez beaucoup de gens. Et comme toujours, on ne va pas répondre par oui ou par non parce que la réponse, la bonne j'ai envie de dire, se situe dans la nuance. De quoi parle-t-on exactement ? Quelles sont tout d'abord ces menaces mortelles qui nous menaceraient avec l'intelligence artificielle, qui menaceraient l'humanité toute entière ? En fait, quand on creuse un peu et qu'on examine cette pétition, on s'aperçoit que les motifs évoqués sont assez variés et on peut parier d'ailleurs que tous les signataires ne sont pas forcément d'accord entre eux. De quoi a-t-on peur ? D'une super-intelligence artificielle hollywoodienne à la Terminator qui pourrait prendre le pouvoir pour finir par éradiquer les humains de la surface du globe.
[2:38] Alors, même si aujourd'hui, certains mettent en avant des expérimentations qui tentent à prouver que les IA pourraient faire preuve d'une certaine forme d'autonomie, sérieusement, il y a aussi beaucoup d'experts qui disent que tout ça, c'est du bullshit. Et ce n'est pas demain la veille que l'IA prendra le pouvoir parce que pour l'instant, l'IA, il faut encore un humain pour appuyer sur le bouton jusqu'à preuve du contraire. Deuxième risque de cette super-IA, de l'IA en général d'ailleurs, les utilisations malveillantes et malveillantes majeures, on va dire. Par exemple, des robots tueurs, la possibilité de fabriquer plus facilement des armes bactériologiques ou des armes tout court.
[3:19] La cybercriminalité, qui, c'est vrai, grâce à l'IA, est surmultipliée, offre encore plus de potentiel aux cybercriminels, ou encore plus simplement, j'allais dire, mais c'est un risque non négligeable, la désinformation massive, grâce à la génération de fausses informations, de fausses vidéos, de faux sites web, etc. Ça, c'est un risque évident, pas sûr que l'humanité sera détruite pour autant, mais on risque quand même de prendre un joli coup sur la tête si on ne fait pas attention. Troisième type de risque, on va dire des utilisations de l'IA contestables, mais pas forcément dans tous les systèmes de société. Typiquement, l'identification faciale. Alors, je ne parle pas de la reconnaissance faciale, mais l'identification, comme ça existe en Chine, des caméras qui vous filment et qui peuvent immédiatement dire à qui appartient ce visage, identifier le nom, etc. Oui, ce sont des choses qu'en Europe, avec nos valeurs, on n'a pas envie de voir arriver. Quatrièmement, désutilisation. Déviante, j'ai envie de dire. C'est-à-dire, eh bien, en fait, c'est nous qui risquons de faire une mauvaise utilisation de l'intelligence artificielle. Par exemple, si on ne comprend pas que l'IA peut se tromper, qu'elle peut halluciner, que l'IA a des biais et qu'il faut penser à les corriger pour ne pas reproduire les biais de genre, les biais ethniques, etc.
[4:40] Que l'IA n'est pas le meilleur des psychologues ou n'est pas notre meilleur ami, et que si on pense cela, et qu'on ne discute plus qu'avec des IA, on va juste devenir complètement idiot.
[4:52] Voire être victime d'une véritable soumission psychologique.
[4:55] Oui, oui, il y a un risque.
[4:57] Mais ces risques-là sont-ils vraiment des risques qui justifient qu'on renonce par ailleurs à l'innovation formidable que représente l'intelligence artificielle ? Chacun pensera ce qu'il veut, vous devinez un petit peu quel est mon avis.
[5:09] Enfin, il y a d'autres risques également qui sont intéressants à prendre en compte, bien sûr. C'est ce qu'on peut appeler les externalités environnementales, c'est-à-dire en fait tout l'impact écologique principalement de l'intelligence artificielle. Alors oui, l'IA, ça bouffe énormément d'énergie, on est en train de construire des data centers partout dans le monde, il faut trouver de l'énergie, si possible de l'énergie propre, mais ce n'est pas possible partout, ça consomme aussi beaucoup de matières premières pour fabriquer des serveurs, et il faut aussi beaucoup d'eau pour refroidir tous ces serveurs, donc un impact environnemental. Et enfin, on va dire de manière plus diffuse ce qu'on pourrait appeler l'impact sociétal, économique, voire politique, c'est-à-dire l'impact de l'IA sur l'emploi. Est-ce que ça va supprimer les emplois ? Est-ce que ça peut déclasser certaines nations qui n'adopteront pas l'intelligence artificielle par rapport à celles qui vont l'utiliser ? Et puis là-dedans, certains n'hésitent pas à glisser des revendications très personnelles, estimant que l'IA va renforcer le capitalisme, que l'IA va encourager la captation de la richesse par une oligarchie, en l'occurrence les grands groupes qui aujourd'hui fabriquent ces outils d'intelligence artificielle. Alors voilà, parmi toutes ces raisons pour lesquelles on peut craindre l'intelligence artificielle.
[6:29] On peut dire qu'elles sont toutes recevables à part probablement la première,
[6:34] celle de l'IA à la Terminator. Mais une fois qu'on a dit ça, qu'est-ce qu'on fait ? Arrêter l'IA, ça veut dire quoi ? Ça veut dire arrêter la recherche en intelligence artificielle ou ça veut dire arrêter le développement de nouveaux outils, comme par exemple OpenAI qui sort une nouveauté par semaine. Parce que le problème, c'est que si on commence à freiner ce genre de choses À certains endroits, dans certains pays, je ne sais pas, par exemple en Europe ou en France ou même aux États-Unis, ce qui paraît absolument impossible parce que l'IA aujourd'hui est un moteur de redynamisation de l'économie américaine. Donc il n'y a aucune chance qu'ils acceptent de faire un pas en arrière. Mais nous, gentils comme on est en Europe, on est encore capables de faire ça. Voilà, toute ironie mise à part. Et puis surtout, il y a une question aussi, c'est qu'on ne sait pas forcément bien de quoi on parle quand on parle de superintelligence. Il ne faut pas confondre l'AGI, ce qu'on appelle l'intelligence artificielle générale, c'est-à-dire une IA qui saurait tout faire, répondre à toutes les questions du monde, être aussi bien le meilleur médecin de la Terre, le meilleur expert comptable, le meilleur astrophysicien, le meilleur journaliste, Ou bien l'ASI, la super IA, qui, dans certains domaines très précis, serait plus intelligente qu'un être humain et surtout avec une possibilité de le devenir au fil du temps en apprenant beaucoup plus vite.
[7:59] En s'adaptant beaucoup plus rapidement à des situations réelles. Et ça, on en est encore très loin et on ne sait même pas comment appréhender ce problème-là qui reste encore un peu à l'échelle du mythe.
[8:12] Alors, en conclusion, qu'est-ce qu'il faut faire ? Je n'aurai surtout pas la prétention de vous le dire avec certitude, mais en gros, on peut se dire qu'il faut certes, oui, être attentif et tendre l'oreille à ce genre d'alerte et de signal d'alarme.
[8:27] Est-ce qu'il faut réguler l'intelligence artificielle comme on a régulé le nucléaire avec des accords internationaux pour éviter la prolifération ? Peut-être, sauf qu'aujourd'hui, on en est encore à la phase préliminaire. On n'a pas vraiment tous les outils d'IA. Ce n'est pas comme si on avait inventé la bombe atomique et qu'on sache à peu près où on en est. Non, on est en train de l'inventer. Donc qu'est-ce qu'on va empêcher de disséminer ? On va empêcher de disséminer un truc qui n'existe pas vraiment, ça paraît peu probable.
[8:56] Est-ce qu'il faut freiner des cas de fer ? Certainement pas, car l'IA, c'est aussi un outil absolument fantastique qui va changer la vie, qui a déjà commencé à changer la vie. Pas seulement l'IA générative, Tchadjipiti qui fait des images débiles, mais dans la santé, dans le travail, oui, dans la vie quotidienne aussi. Et d'ailleurs, un sondage récent montre que 42% des Américains pensent que l'IA va aggraver leur avenir, mais 44% d'entre eux estiment, au contraire, qu'elle va améliorer leur vie. Donc, cette mobilisation est louable, Mais le risque aussi, c'est qu'elles cristallisent tout un tas de craintes pas forcément justifiées et qu'elles servent de prétexte à des détracteurs, à des antitechnologies, parce qu'il y en a. Ce qui pourrait conduire même à des excès comme au temps de la 5G. On se souvient des saillies de certains politiques à propos du porno dans l'ascenseur et autres débilités. On avait complètement quitté le champ du rationnel pour entrer dans celui de la psychose instrumentalisée. Alors, par pitié, évitons cela, gardons la tête froide. Prise de conscience, oui, mais pas pour faire n'importe quoi. Et sans doute pas pour mettre tout de suite le pied sur le frein.













