La Californie s'engage dans la régulation de l'intelligence artificielle avec le projet de loi SB 1047, mais les entreprises du secteur s'y opposent.
Ah, ces règlementations que le monde entier nous envient ! On croyait que l’Europe avait le monopole des lois sur la tech, mais voilà que les États-Unis, et en particulier la Californie, s'attaquent sérieusement à l'intelligence artificielle avec la proposition de loi SB 1047, initiée par le sénateur démocrate Scott Wiener. Ce texte vise à sécuriser les grands modèles d'IA générative comme ChatGPT ou MidJourney, en raison des menaces qu'ils pourraient poser (“Dis, tu veux bien me dessiner un virus informatique ou biologique ?”). Bien que soutenue par certains - comme Elon Musk, oui, oui - le projet de loi se heurte à une forte opposition des géants de la tech, qui craignent des conséquences économiques et une perte de compétitivité. Cette loi, si elle est adoptée, pourrait influencer la régulation de l'IA dans tout le pays.
Jérôme Colombain:
[0:02] On croyait que les lois et les règlements étaient une spécialité européenne. Eh bien voilà que les États-Unis s'y mettent à leur tour, à fond, et ce n'est pas pour rigoler. Il y a un texte de loi actuellement dans l'État de Californie qui suscite une véritable effervescence. Alors c'est la loi SB 1047, un texte qui vise à réglementer l'intelligence artificielle. Alors, un texte proposé par un sénateur démocrate, Scott Viner, qui met le feu aux poudres parce qu'il va assez loin. Il vise à réguler, sécuriser les grands modèles d'IA générative, comme ChatGPT, MidJournée, Grok, etc. Tous ces outils qui permettent de créer des textes, des images ou du code informatique de manière hyper efficace avec une simple requête en langage courant. Mais le problème, on le sait, c'est que ces outils peuvent donner le meilleur comme le pire. Selon ce texte, l'IA générative présenterait des menaces pour la sécurité publique, en permettant la prolifération d'armes de cyberattaque, oui, avec la génération de codes informatiques malveillants, d'armes biologiques également.
Jérôme Colombain:
[1:13] Et même chimiques et nucléaires. Bref, des risques qui font froid dans le dos. Ce texte SB 1047 prévoit de mettre en place un certain nombre de sécurités et aussi des sanctions en cas de non-respect des obligations pour les entreprises. Par exemple, il y aurait l'obligation de tester des systèmes en profondeur, de créer des sortes de coupes-circuits permettant aussi de désactiver un outil d'IA qui pète les plombs. L'investisseur Andris Vanorovit, sur son blog, explique même que les développeurs seraient responsables des fonctionnalités dangereuses et des dérapages éventuels. Le problème, c'est que dès qu'on parle de régulation aux États-Unis, pour les entreprises, évidemment, ça coince. Et surtout en Californie, qui est le berceau de l'intelligence artificielle et de la tech en général, dans la Silicon Valley. Donc les critiques se multiplient, des critiques qui émanent des Google, Meta, OpenAI et autres anthropiques. Bref, tous les ténors du secteur. Des entreprises qui évoquent des conséquences économiques avec un exode massif, des pertes d'emplois, une perte de compétitivité pour la Californie, même en matière d'innovation, parmi les arguments mis en avant.
Jérôme Colombain:
[2:23] Pourtant, ces entreprises d'intelligence artificielle étaient les premières il y a quelque temps à réclamer un cadre législatif.
Jérôme Colombain:
[2:29] Mais apparemment, ce n'est pas exactement ça qu'elles veulent. En tout cas, ces arguments rappellent un peu ce qui a pu être dit en Europe au moment de la discussion de l'AI Act, le règlement européen sur l'IA, car nous, nous avons un règlement sur l'IA qui a été adopté finalement au début de l'été et qui est en train de se déployer dans les pays d'Europe.
Jérôme Colombain:
[2:47] Eh bien, aux États-Unis, il y en a un, en tout cas, qui se déclare favorable à la loi SB 1047. C'est l'inénarrable Elon Musk. Dans un post sur X en début de semaine, il explique que c'est une décision difficile à prendre et qui va contrarier certaines personnes. Mais tout bien considéré, écrit Elon Musk, je pense que la Californie devrait probablement adopter le projet de loi SB 1047 sur la sécurité de l'IA. Alors, on se rappelle qu'Elon Musk avait été signataire de la demande de moratoire sur l'intelligence artificielle contre les dérapages de l'IA, mais on sait aussi qu'il n'est pas neutre, il a une dent contre OpenAI notamment, et puis surtout, il n'est pas concerné vu qu'il a transféré toutes ses entreprises au Texas. À noter aussi que les chercheurs Geoffrey Hinton ou encore Yoshua Benjou,
Jérôme Colombain:
[3:37] qui font également partie des inquiets de l'IA, se déclarent également favorables au projet de loi. Alors, à l'heure où on se parle, le texte a été quand même très amendé par rapport au projet d'origine, peut-être même vidé de sa substance.
Jérôme Colombain:
[3:54] Par exemple, il était question de créer une agence de régulation, ça a été laissé tomber. Le pouvoir semble avoir été redonné beaucoup aux juges, qui devront apprécier les situations au cas par cas. Mais il y a quand même des choses qui restent. Et par exemple, si la loi était adoptée en l'État, les développeurs des grands modèles d'IA devraient tester leur système et simuler par exemple des cyberattaques, sous peine d'amende s'il ne s'est pas fait.
Jérôme Colombain:
[4:18] Cette loi SB 1047 doit donc être votée cette semaine par l'Assemblée de l'État de Californie. Ce qui en ressortira sera évidemment scruté au niveau fédéral aux États-Unis, parce que ça pourrait servir de modèle à d'autres États américains. Et en tout cas, ce qu'il faut retenir, c'est que finalement, un peu comme le RGPD, le Règlement sur la protection des données, les États-Unis s'inspirent encore de ce qui se fait en Europe et de nos formidables règlements tentaculaires que, décidément, le monde entier semble nous envier. Salut, à demain.