Une étude montre comment un chatbot d'intelligence artificielle a permis de réduire les croyances complotistes parmi leurs adeptes.
Vous êtes conspi ? Ne discutez pas avec l’IA car elle risque de vous faire changer d'avis !
Une étude menée par des chercheurs du MIT et de l'université Cornell aux États-Unis, publiée dans la revue Science, révèle que l'intelligence artificielle pourrait jouer un rôle crucial dans la lutte contre les théories du complot. Plus de 2 000 personnes ont dialogué avec un chatbot, appelé DebunkBot, à propos de diverses théories complotistes concernant les attentats du 11 septembre, la supposée platitude de la Terre ou les Illuminati. Résultat : leur niveau de croyance a diminué de 20 %, et un quart d'entre eux ont même complètement abandonné leurs idées conspis. La force de l’IA ? Ne jamais s’énerver et surtout répondre point par point, argument factuel contre argument complotiste.
Tiens, l’IA pourrait-elle finalement nous rendre plus intelligents ?
Jérôme Colombain:
[0:02] C'est une étude étonnante publiée par la revue Science, une étude menée par des chercheurs du MIT et de l'université de Cornell aux Etats-Unis sur ce qu'on appelle les conspirationnistes. Vous savez, ces adeptes de théories un peu étranges selon lesquelles le 11 septembre serait un complot des Etats-Unis contre lui-même, ceux qui pensent que la Terre est plate ou qu'elle est déjà envahie par les Illuminati. Bref, toutes ces théories qui circulent ici et là sur les réseaux sociaux et qui font énormément d'adeptes. Des théories qui peuvent être néanmoins combattues grâce à l'intelligence artificielle. C'est ce que montre cette étude. Donc, les chercheurs ont soumis plus de 2000 personnes à un chatbot pour essayer de débunker, comme on dit, ces théories du complot. Un chatbot basé sur GPT-4 Turbo qui s'appelle DebunkBot. D'ailleurs, vous pouvez le tester. Il est en ligne. Vous trouverez le lien dans la description de cet épisode. C'est en anglais, malgré tout, il faut le savoir. Et donc, cette étude a montré qu'après avoir exposé leurs croyances au chatbot, les personnes en question ont changé d'avis. Ça s'est passé en plusieurs temps. D'abord, elles ont été interrogées sur leur niveau de croyance dans différentes théories du complot. Et ensuite, les personnes qui ont participé à l'étude ont donc répondu à trois séries de conversations avec le robot. Ils ont dialogué, comme on dialoguerait avec quelqu'un, en exposant leurs arguments.
Jérôme Colombain:
[1:29] A chaque fois, l'IA a répondu patiemment, point par point. Par exemple, si quelqu'un pensait que le 11 septembre était un coup monté de l'intérieur.
Jérôme Colombain:
[1:39] Pour preuve, le kérosène en feu d'un avion ne peut pas produire assez de chaleur pour faire fondre l'acier, le chatbot répond, sur la base d'un rapport scientifique très sérieux, qu'en fait, l'acier perd sa résistance à des températures beaucoup plus basses et suffisamment pour affaiblir les structures des tours et provoquer le refondrement. Voilà, ainsi de suite, point par point, etc. Et donc, à l'arrivée, en moyenne, les croyances des personnes qui ont participé à cette étude auraient diminué de plus de 20%. Et le plus étonnant, le plus étonnant surtout, c'est que cet effet se maintient dans le temps. Ces mêmes personnes ont été réinterrogées dix jours plus tard, puis deux mois plus tard, et elles restaient convaincues par les explications de l'intelligence artificielle.
Jérôme Colombain:
[2:24] 25% des participants avaient même complètement abandonné leur théorie complotiste. Alors comment expliquer ce phénomène ? L'avantage d'une intelligence artificielle, c'est qu'elle peut tenir une conversation indéfiniment, sans jamais s'énerver, contrairement à un être humain qui, au bout d'un moment, finit par devenir tout rouge avec une furieuse envie de mettre un coup de poing dans la figure de son interlocuteur. Mais surtout, l'efficacité réside dans la personnalisation des réponses. C'est-à-dire que vraiment, les contre-arguments sont adaptés à chaque personne, adaptée à chaque question est purement factuelle. Pourquoi ? Parce que l'IA a accès à énormément d'informations sourcées et donc elle peut argumenter très précisément point par point. Or justement, la particularité de ceux qui diffusent des théories du complot, c'est qu'ils ont tendance à inonder leur public sous des tonnes d'arguments, des dizaines de détails. Et du coup, c'est très compliqué pour un être humain qui essaierait de contrer ça tout seul parce qu'il ne peut pas répondre à toutes les questions, toutes les interrogations, point par point. Il reste forcément des zones d'ombre. Ce n'est pas le cas de l'IA. Qui a réponse à tout, ou presque. Alors presque parce que quand même les chercheurs ont été assez prudents et ils ont vérifié si l'IA n'était pas victime elle-même d'hallucinations, si elle ne racontait pas n'importe quoi. Eh bien non, à 99%, chaque fois c'était exact.
Jérôme Colombain:
[3:41] Conclusion, de nombreuses personnes qui croient fermement à ces théories du complot peuvent changer d'avis lorsqu'on leur présente des preuves convaincantes. Ce que montre aussi cette étude, c'est que l'aspect affectif, la relation, la personnalité, aussi bien de ceux qui transmettent des fausses informations qu'au contraire ceux qui tentent de les débunker, eh bien, ce ne serait pas très important, ces notions d'empathie et autres. Le style de communication aurait un effet minime, selon les chercheurs. Ceux qui comptent, ce sont les faits, les faits, les faits. C'est donc assez spectaculaire, plutôt encourageant quand on sait que, par exemple, aux États-Unis, 50% de la population serait adepte peu ou prou de ces théories du complot.
Jérôme Colombain:
[4:19] Le problème, c'est qu'est-ce qu'on fait après ça ? comment utiliser cet effet
Jérôme Colombain:
[4:24] de levier ? Eh bien, l'étude répond à ces questions. Elle suggère, par exemple, pourquoi pas d'aller sur des forums de conspirationnistes pour inviter les gens à faire leurs propres recherches, puisque c'est en plus l'expression qu'ils adorent employer eux-mêmes. Faites vos propres recherches. Eh bien là, ça consisterait à discuter avec le chatbot qui, lui, peut renvoyer toutes sortes d'informations point par point. De la même manière, pourquoi ne pas connecter les réseaux sociaux à des chatbots de ce genre pour qu'il y ait des réponses qui soient publiées automatiquement et qui viennent rectifier le tir lorsque les discussions s'égarent sur des théories du complot. Ou bien, pourquoi pas, même des publicités Google quand on fait des recherches sur états profonds, etc. Eh bien, des systèmes qui ressortiraient des contre-arguments pour essayer d'enrayer ce phénomène qui est absolument tragique. Voilà, une étude assez optimiste donc, et en plus qui est optimiste quant au au rôle social de l'intelligence artificielle, parce que finalement, on s'aperçoit que l'IA n'est pas seulement là pour nous anéantir, mais elle peut peut-être aussi nous tirer vers le haut. Salut, à demain.