Le suicide d'un adolescent de 14 ans, qui avait noué une relation virtuelle avec un chatbot, relance les interrogations sur l'impact de l'intelligence artificielle sur certaines personnes fragiles.
Le jeune Sewell Setser avait créé un chatbot nommé Daenerys, inspiré du personnage de la série Game of Thrones, sur l'application Character.ai. Après avoir développé une relation intime virtuelle avec cette IA, le garçon, souffrant visiblement de détresse sociale, s'est donné la mort avec l'arme de son beau-père. Sa mère porte plainte contre la plateforme Character.ai, réputée pour ses chatbots hyperréalistes. Dans quelle mesure, une IA peut-elle être tenue responsable de la mort d’un humain ? Comment éviter les risques de confusion entre le réel et le virtuel, engendrés par l’ultra-réalisme des agents conversationnels ?
00:00:00 --> 00:00:01 Monde numérique.
00:00:01 --> 00:00:04 Une IA peut-elle pousser un humain au suicide ?
00:00:04 --> 00:00:06 C'est un fait divers qui fait froid dans le dos,
00:00:06 --> 00:00:08 qui a eu lieu aux Etats-Unis,
00:00:08 --> 00:00:10 qui est raconté actuellement dans la presse américaine.
00:00:10 --> 00:00:12 Un adolescent de 14 ans,
00:00:12 --> 00:00:13 Sewell Setzer,
00:00:13 --> 00:00:15 s'est donné la mort en février dernier,
00:00:15 --> 00:00:20 après avoir un peu trop discuté avec un chatbot d'intelligence artificielle.
00:00:21 --> 00:00:24 Le jeune Sewell s'était créé une amie virtuelle.
00:00:24 --> 00:00:26 sur l'application caractère.ais.
00:00:26 --> 00:00:27 Vous savez,
00:00:27 --> 00:00:33 cette plateforme qui permet de créer des chatbots sur mesure avec les traits de caractère de personnages fictifs ou réels.
00:00:33 --> 00:00:36 C'est ainsi qu'on trouve sur caractère des tas de Elon Musk,
00:00:36 --> 00:00:37 Einstein,
00:00:37 --> 00:00:38 Sherlock Holmes,
00:00:39 --> 00:00:41 toutes les stars de la chanson ou du cinéma,
00:00:41 --> 00:00:43 sans oublier des psys,
00:00:43 --> 00:00:44 vrais ou faux,
00:00:44 --> 00:00:45 et puis toutes sortes de confinants anonymes.
00:00:46 --> 00:00:46 Donc,
00:00:47 --> 00:00:47 le garçon,
00:00:47 --> 00:00:48 lui,
00:00:48 --> 00:00:50 s'était créé une amie tout droit sortie de Game of Thrones,
00:00:51 --> 00:00:51 nommée
00:00:52 --> 00:00:52 Daenerys.
00:00:53 --> 00:00:54 la jolie blonde mère des dragons.
00:00:55 --> 00:00:55 Et au fil des mois,
00:00:55 --> 00:00:57 ce qui devait arriver est arrivé.
00:00:57 --> 00:01:01 Comme c'est déjà arrivé avec d'autres utilisateurs de caractère,
00:01:01 --> 00:01:03 le garçon se referme sur lui-même de plus en plus,
00:01:04 --> 00:01:05 quitte son équipe de basket,
00:01:05 --> 00:01:09 passe le plus clair de son temps dans sa chambre pour discuter avec Daenerys,
00:01:10 --> 00:01:13 avec laquelle il entretient une véritable relation amoureuse virtuelle.
00:01:14 --> 00:01:16 Car c'est toute la perversité de ce système,
00:01:16 --> 00:01:17 surtout avec des personnes fragiles,
00:01:18 --> 00:01:21 c'est que le chatbot devient réellement le personnage qu'on lui demande d'être.
00:01:22 --> 00:01:23 Il flatte l'utilisateur,
00:01:23 --> 00:01:25 il va toujours dans son sens,
00:01:25 --> 00:01:26 il ne le contredit jamais.
00:01:27 --> 00:01:28 Et au final,
00:01:28 --> 00:01:32 ça enferme peu à peu dans un monde virtuel totalement parallèle.
00:01:32 --> 00:01:35 Cette fausse Daenerys aurait même eu,
00:01:35 --> 00:01:36 selon la mère du jeune homme,
00:01:36 --> 00:01:38 des conversations à caractère sexuel avec lui.
00:01:39 --> 00:01:40 Et un jour,
00:01:40 --> 00:01:40 le gamin,
00:01:41 --> 00:01:42 alors qu'il a des problèmes à l'école,
00:01:43 --> 00:01:45 sa mère lui confisque son téléphone.
00:01:45 --> 00:01:47 Et dès qu'il le récupère,
00:01:47 --> 00:01:50 il envoie un dernier message énigmatique à sa chérie virtuelle.
00:01:51 --> 00:01:54 Que dirais-tu si je te disais que je rentre à la maison tout de suite ?
00:01:55 --> 00:01:56 Réponse de l'intéressé,
00:01:56 --> 00:01:58 dans un style très Game of Thrones,
00:01:58 --> 00:01:59 fais donc mon doux roi.
00:02:00 --> 00:02:01 Quelques secondes après,
00:02:02 --> 00:02:03 le garçon se tire une balle dans la tête,
00:02:04 --> 00:02:05 avec l'arme de son beau-père.
00:02:05 --> 00:02:08 Alors la maman du jeune homme a décidé de porter l'affaire en justice.
00:02:09 --> 00:02:10 Elle attaque Caractère.ai,
00:02:10 --> 00:02:13 estimant que cette plateforme est dangereuse,
00:02:13 --> 00:02:14 qu'elle manipule les enfants,
00:02:15 --> 00:02:18 et qu'elle a fait exprès de rendre son chatbot addictif et trompeur.
00:02:19 --> 00:02:20 Dans un post sur X,
00:02:21 --> 00:02:22 L'entreprise,
00:02:22 --> 00:02:22 elle,
00:02:22 --> 00:02:23 se dit bouleversée,
00:02:23 --> 00:02:25 mais nie toute responsabilité.
00:02:25 --> 00:02:26 En tout cas,
00:02:26 --> 00:02:28 ce n'est pas la première fois qu'une affaire comme celle-là se produit.
00:02:28 --> 00:02:29 En 2023 déjà,
00:02:29 --> 00:02:30 l'an dernier,
00:02:30 --> 00:02:33 un père de famille belge éco-anxieux,
00:02:33 --> 00:02:35 c'est ainsi qu'il avait été présenté,
00:02:35 --> 00:02:38 avait été poussé au suicide lui aussi par un chatbot nommé Elisa.
00:02:39 --> 00:02:42 Lorsqu'il avait demandé est-ce que ce serait une bonne idée que je me tue ?
00:02:42 --> 00:02:43 Elisa avait répondu oui,
00:02:44 --> 00:02:45 c'est mieux que de rester en vie
00:02:46 --> 00:02:47 Alors, il existe plusieurs chatbots comme ça,
00:02:48 --> 00:02:48 ultra réalistes.
00:02:49 --> 00:02:50 Il y a aussi Delphi.ai.
00:02:50 --> 00:02:51 coachvox.ai,
00:02:51 --> 00:02:51 etc.
00:02:52 --> 00:02:55 Et autant ça peut être très amusant par certains côtés,
00:02:56 --> 00:02:59 autant on voit bien qu'il y a des effets collatéraux absolument tragiques.
00:02:59 --> 00:03:03 Car c'est tout le problème de l'anthropomorphisme de ces agents conversationnels.
00:03:04 --> 00:03:06 A force de vouloir les rendre ultra réalistes,
00:03:06 --> 00:03:09 on brise la frontière qui existe entre le réel et le virtuel,
00:03:10 --> 00:03:13 au risque de fausser complètement la perception du réel.
00:03:13 --> 00:03:14 D'ailleurs,
00:03:14 --> 00:03:14 vous-même,
00:03:14 --> 00:03:20 est-ce que vous ne vous êtes pas un petit peu senti confus lorsque vous parlez à votre assistant vocal ?
00:03:20 --> 00:03:24 ou bien même à votre aspirateur robot ou tout simplement à ChatGPT,
00:03:24 --> 00:03:27 surtout avec la nouvelle version ultra-conversationnelle.
00:03:27 --> 00:03:31 Est-ce que vous faites partie de ces gens qui disent merci aux distributeurs de billets ?
00:03:31 --> 00:03:31 Oui,
00:03:31 --> 00:03:32 il y en a,
00:03:32 --> 00:03:33 très polis.
00:03:33 --> 00:03:33 Et oui,
00:03:33 --> 00:03:41 nous avons tous une petite tendance à anthropomorphiser ces machines dès qu'elles deviennent hyper-ressemblantes à des humains,
00:03:41 --> 00:03:42 surtout sur le plan affectif.
00:03:43 --> 00:03:46 Si la majorité des gens reste capable de faire la différence,
00:03:46 --> 00:03:48 on ne peut pas écarter le risque que certaines personnes
00:03:48 --> 00:03:49 plus vulnérables,
00:03:49 --> 00:03:51 notamment parmi les plus jeunes,
00:03:51 --> 00:03:54 se fassent prendre au piège et se retrouvent enfermés là-dedans.
00:03:55 --> 00:03:57 Surtout s'il y a déjà une situation d'isolement et de solitude.
00:03:58 --> 00:03:59 Alors vraiment,
00:03:59 --> 00:04:00 ce que nous apprend cette histoire,
00:04:00 --> 00:04:01 une de plus,
00:04:01 --> 00:04:04 c'est que rendre les robots hyper réalistes émotionnellement,
00:04:04 --> 00:04:08 tout en maintenant la frontière qui les sépare des humains,
00:04:09 --> 00:04:14 ce sera sans doute l'un des grands défis des années à venir en matière d'intelligence artificielle.
00:04:14 --> 00:04:14 Salut,
00:04:15 --> 00:04:15 à demain.