David Chavalarias, de l’Institut des Systèmes Complexes (CNRS), explique comment les réseaux sociaux sont utilisés par des Etats pour attiser les tensions dans la population.
![]() |
Interview : David Chavalarias, directeur de l’Institut des Systèmes Complexes (CNRS)
Qu’avez-vous observés lors de vos travaux ?
Par exemple, lors des élections législatives de 2022 en France, nous avons détecté des actions russes cherchant à perturber l’espace informationnel en accentuant des sujets polarisants. Plus récemment, nous avons étudié des manipulations visant à modifier l'issue des débats publics en exploitant des sujets sensibles, comme le conflit israélo-palestinien. Ces stratégies fonctionnent parce qu’elles jouent sur des clivages préexistants et les amplifient.
Comment ces manipulations se manifestent-elles concrètement ?
Les manipulations passent par plusieurs méthodes. Par exemple, on va créer des faux profils sur les réseaux sociaux pour amplifier artificiellement certains sujets. On poste en masse pour faire croire qu’un débat prend de l’ampleur, et les algorithmes des plateformes vont recommander ces sujets parce qu’ils pensent qu’ils sont en train de monter. Ça peut être n’importe quel thème : la guerre en Ukraine, l’immigration, ou des désinformations comme les propos de Trump sur les immigrés qui mangeraient des animaux. En amplifiant ces débats, on oriente l’opinion publique et on modifie l’agenda médiatique, ce qui influence directement les votes.
Ces ingérences sont-elles réellement efficaces ?
Oui, ça a un impact considérable. Les réseaux sociaux touchent environ 70 % de la population en France, donc ces campagnes de manipulation atteignent beaucoup de gens. Même si tout le monde ne croit pas forcément aux fausses informations, l'exposition répétée à certains narratifs finit par influencer l’opinion, souvent de manière inconsciente. Par exemple, quelqu’un qui voit en permanence des messages toxiques contre un candidat peut finir par ne plus "sentir" ce candidat, même s'il ne croit pas aux accusations directes. Ce qui est préoccupant, c’est que ces manipulations jouent à la fois sur les émotions et la raison, et modifient la perception de la réalité sociale.
David Chavalarias :
[0:00] Pendant les dernières législatives en 2022, on a des faisceaux convergents d'actions d'États comme la Russie pour essayer effectivement de semer la division au sein de l'espace informationnel, surtout amplifiée.
Monde Numérique :
[0:16] Bonjour David Chavalarias.
David Chavalarias :
[0:17] Bonjour.
Monde Numérique :
[0:18] Vous êtes directeur de l'Institut des systèmes complexes de Paris-Île-de-France. Impressionnant cet intitulé. Il s'agit d'un laboratoire du CNRS qui travaille, comme son nom l'indique, sur les systèmes complexes. Mais ça veut dire quoi ?
David Chavalarias :
[0:31] Alors, le mot peut paraître intimidant, mais en fait, c'est quelque chose que tout le monde connaît. Il y a plusieurs types de systèmes. Il y a les systèmes qui sont, on va dire, organisés de manière centralisée. Votre télévision, vous voulez l'allumer, vous voulez qu'elle s'allume, vous changez de chaîne, vous voulez qu'elle change de chaîne. Et puis, il y a d'autres systèmes qui sont ce qu'on appelle auto-organisés, c'est-à-dire, par exemple, les cellules dans votre corps. Personne ne leur a dit où se mettre. Et pourtant, au cours de votre développement, ça a formé un être humain et c'est vous. Les embouteillages sur le périphérique, ils existent, personne ne les veut, on cherche à les éviter, pourtant ils arrivent. Et donc, il y a plein de systèmes où les entités qui composent le système, donc les voitures, les cellules, etc., interagissent de manière décentralisée, il n'y a pas de chef. Et pourtant, leurs interactions, en les composant dans l'espace et dans le temps, créent des structures globales. Un individu, un organe, un embouteillage, un réseau génétique, etc. Ça, ce sont des systèmes complexes. Donc l'étude des systèmes complexes, c'est un point de vue qu'on a sur ces grands systèmes pour comprendre comment des interactions qui semblent désorganisées ou en tout cas qui ne semblent pas avoir de chef, on va dire, créent néanmoins des structures globales, parfois des fonctions, etc. Ça, c'est comprendre les systèmes complexes. Et tous les systèmes vivants sont des systèmes complexes, par définition.
David Chavalarias :
[1:45] Et après, dans les systèmes sociotechniques, il y a des systèmes sociotechniques aussi qui sont des systèmes complexes. Par exemple, le réseau des serveurs Internet... Ce sont des machines physiques qui s'interconnectent de manière locale. Il n'y a pas quelqu'un qui dit à une machine où se connecter. Et au final, ça fait Internet. C'est-à-dire que le message passe d'un serveur à l'autre, passant par un chemin qui n'est pas calculé à l'avance. Et c'est un système qui est fonctionnel. Il permet de faire Internet. Et pourtant, il n'y a pas de plan d'Internet.
Monde Numérique :
[2:16] Donc, votre obsession, j'imagine, c'est d'essayer de modéliser un peu tout ça pour savoir comment ça fonctionne.
David Chavalarias :
[2:21] Voilà, on essaye à la fois de modéliser, de comprendre quels sont ces phénomènes dits émergents. On essaye aussi d'étudier déjà dans un premier lieu ces systèmes parce que quand vous avez énormément d'entités qui interagissent, si vous voulez comprendre comment elles interagissent et pourquoi ça produit des structures, il faut récolter des données sur les entités. Donc par définition, ce sont des grands systèmes, donc il y a beaucoup de données. Et après, il faut mettre en forme ces données pour voir quelles sont les structures intéressantes. Et donc ça, c'est déjà une première étape. Et après, une fois que vous avez des structures intéressantes, donc on va détecter l'embouteillage, on va détecter un organe ou des tissus, on va détecter, voilà. Une fois que vous avez ça, vous pouvez essayer de modéliser, c'est-à-dire essayer de produire un programme mathématique, informatique,
David Chavalarias :
[3:01] des concepts qui vont expliquer cette organisation-là.
Monde Numérique :
[3:04] Donc vous travaillez sur différents domaines, enfin plein de domaines différents, plus exactement, notamment sur l'information qui circule sur Internet.
David Chavalarias :
[3:12] C'est ça. Alors, moi, dans ce grand domaine interdisciplinaire, après il y a des thèmes et des objets qui ressortent, moi, un de mes objets de prédilection, c'est tout ce qui touche au social, Et en gros, à l'analyse des traces que nous laissons, notamment les traces numériques, qu'elles soient textuelles ou des traces d'interaction. Je relaie le message de quelqu'un. Et donc, j'analyse comment on fait société dans les mondes numériques, comment l'information circule, qu'est-ce qui favorise tel ou tel type d'information, quel est l'impact des infrastructures numériques sur cette circulation, et aussi comment les hommes et les femmes sur ces environnements font des groupes sociaux. Et donc, on peut, en analysant par exemple tous les échanges sur une plateforme comme Twitter ou d'autres réseaux sociaux qui permettent l'accès à ces données-là, on peut reconstituer les groupes de militantisme politique, par exemple, ou les groupes de croyances par rapport au climat, voir qu'est-ce qu'ils essayent de diffuser, comment ils s'organisent, etc. Et cela à quasiment toutes les échelles. On a des cartes sociales qui vont de l'échelle de l'individu jusqu'à l'échelle mondiale. Par exemple, sur le climato-scepticisme ou l'information sur le climat, on voit des groupes à l'échelle de pays, de centaines de milliers de personnes.
Monde Numérique :
[4:26] Et c'est comme ça que vous arrivez à détecter même des actions volontaires. On sait que certains pays sont très offensifs, très actifs. on parle souvent de la Russie ou de la Chine pour utiliser ces canaux pour ressemer un peu la pagaille en fait.
David Chavalarias :
[4:46] Alors tout à fait une des questions quand on analyse les systèmes complexes c'est, d'accord, ils sont auto-organisés, ils créent des structures, mais on peut intervenir dessus, on peut les perturber. Et donc...
Monde Numérique :
[4:57] Tout ça n'est pas très naturel.
David Chavalarias :
[4:58] Et donc, quel est l'effet de ces perturbations ? Quelle est la meilleure manière de manipuler ? Donc, quand on s'intéresse à ces choses-là, et notamment quand on s'intéresse aux espaces informationnels, il y a la question de, est-ce qu'il y a des acteurs qui essayent, par des comportements dits inauthentiques, c'est-à-dire on va se coordonner pour diffuser un type de message, etc., arrivent à perturber la circulation d'informations entre guillemets naturelles d'un pays. Et effectivement, on peut arriver comme ça a détecté des tentatives d'ingérence. Donc, par exemple, au moment des Macron-Leaks dans l'élection présidentielle de 2017, on a vu des groupes d'extrême-droite américaine se coordonner avec des groupes d'extrême-droite française pour essayer de diffuser ce narratif. Pendant les dernières législatives en 2022, on a des faisceaux convergents d'actions d'États comme la Russie pour essayer, effectivement, de semer la division au sein de l'espace informationnel français. Surtout, amplifier. C'est-à-dire que la division, elle peut exister, et ce n'est pas forcément mauvais. Mais quand on essaie de l'amplifier pour empêcher la résolution pacifique des différents, là, ça pose problème.
Monde Numérique :
[5:57] Et là, tout récemment, avec les élections qu'il y a eues en France, je crois que vous étiez sur le pont, notamment pour arriver à comprendre des ingérences étrangères. — Oui.
David Chavalarias :
[6:09] Alors j'ai documenté depuis pas mal de temps des actions d'interférence sur les réseaux sociaux. Et donc quand il y a eu les européennes plus législatives, dans mon laboratoire, il y a eu plusieurs personnes qui étaient un petit peu là-dessus. On regardait par exemple l'utilisation des publicités ciblées payantes, mais politiques, pour essayer de détourner les électeurs d'un vote Macron. Par exemple, la Russie a, dépenser beaucoup d'argent pour faire des publicités sur Facebook.
David Chavalarias :
[6:39] Vous achetez un truc qui dit que Macron veut nous entraîner dans la guerre en Ukraine et que donc on va tous mourir, donc il vaut mieux éviter de les lire, et vous ciblez sur toutes les personnes dont vous pensez qu'elles vont accepter ce discours-là. Donc on a pu documenter ça, mais on a pu aussi documenter le fait, par exemple, de la création de faux profils en ligne pour essayer de créer de la division, etc., dont on pense, enfin, il y a de très fortes probabilités qu'ils soient créés par des entités comme le Kremlin. Et aussi, on peut analyser comment ils essayent d'orienter le débat en ligne, parce que ce qu'il faut savoir, c'est que le résultat d'une élection dépend vraiment du thème du moment. Si on ne fait que parler d'écologie, on ne va pas voter pareil que si on ne fait que parler d'immigration ou que parler de la guerre en Ukraine. Et donc, l'orientation de l'agenda médiatique et de l'agenda de l'opinion publique est très importante. Et donc, il y a des actions sur les réseaux sociaux pour essayer de forcer l'agenda et le cadrage. Donc, par exemple, pendant les législatives, il y a eu a priori une amplification du conflit, la préunion du conflit israélo-palestinien, qui est une horreur absolue. Mais si vous voulez, il y a eu une amplification de ce débat-là pour qu'on se positionne par rapport à ce débat-là plutôt que par rapport à d'autres, par exemple la guerre en Ukraine.
Monde Numérique :
[7:50] Oui, c'est-à-dire pour faire remonter ce thème et polariser.
David Chavalarias :
[7:54] Voilà, c'est-à-dire qu'en fait, en fonction des débats, vous avez des lignes de fracture différentes. C'est-à-dire la guerre en Ukraine, en gros, l'extrême droite est plutôt pro-Poutine, et puis tout le reste est partant pour dire qu'il faut soutenir l'Ukraine. Sur le thème conflit israélo-palestinien, les lignes de fracture sont à des endroits complètement différents. Vous avez d'un côté, en gros, la gauche, et de l'autre côté, la droite et l'extrême droite, pour le faire rapidement. Donc si vous forcez cette ligne de débat-là pendant une élection, vous affaiblissez le Front républicain, puisqu'en fait vous faites ressentir à chacun des partis modérés de droite et de gauche que ça va être difficile de s'allier parce qu'ils ont des positions différentes sur cette question-là, qui au moment T est perçue comme la plus importante. Donc en modulant la perception du débat et la présence de certains thèmes dans l'opinion publique, on va influencer sur les ralliements et aussi notamment sur le Front républicain et aux dernières législatives. Étant donné que le Rassemblement national était en tête dans quasiment toutes les circonscriptions, la question du Front républicain était une question majeure.
David Chavalarias :
[8:56] Et donc faire échec à ce Front républicain, c'était faire ailleurs l'URN.
Monde Numérique :
[9:01] Oui, donc c'était l'objectif, clairement, des forces qui étaient derrière. Et comment ils font concrètement ? C'est quoi ? On va repérer les sujets d'actualité qui fâchent et puis on les fait monter, etc.
David Chavalarias :
[9:14] C'est ça. Donc très concrètement, on va utiliser les vulnérabilités des réseaux sociaux, c'est-à-dire que les réseaux sociaux vont, par exemple, se mettre à recommander un sujet s'ils pensent que c'est en train de monter. Donc on va faire croire qu'un sujet est en train de monter en se coordonnant sur la plateforme, en postant plein de messages.
Monde Numérique :
[9:27] Mais c'est quoi comme sujet ?
David Chavalarias :
[9:29] Ça peut être n'importe quel sujet. Ça peut être la désinformation. Récemment, Trump a dit que les immigrés mangeaient les animaux. Donc ça, vous avez certainement eu derrière une armée de robots qui a diffusé ça. Et ça a diffusé un petit peu dans la sphère informationnelle. Dès le lendemain du débat.
Monde Numérique :
[9:45] Trump-Harris effectivement on a vu plein de messages là-dessus avec même des vidéos etc.
David Chavalarias :
[9:50] Il y a une stratégie d'amplification de l'information qu'elle soit vraie ou fausse mais en fonction d'objectifs très précis qu'on va atteindre dans l'opinion publique, parfois ça marche, parfois ça ne marche pas et.
Monde Numérique :
[9:59] Sur Gaza c'était ?
David Chavalarias :
[10:01] Sur Gaza il y a eu par exemple j'ai repéré un compte qui a été on suit Twitter depuis plusieurs années c'est un compte qui était sur Twitter mais qui avait aussi des comptes sur Facebook, des plateformes un peu... Qu'on plotisse comme Odyssée, etc., qui, en gros, dans les années 2020, était anti-vax et positionné à l'extrême droite, et qui, au moment de la guerre en Israël et à Gaza, s'est switché, s'est mis à parler que de Gaza, et à relayer des images extrêmement violentes et insoutenables, qui étaient vraies, et qui étaient, dont le côté horrible était vrai, enfin, c'est pas le problème, mais qu'on ne peut pas montrer à des gens de non préparer. Ça peut créer des...
Monde Numérique :
[10:45] Ce qu'on ne voit jamais dans les médias.
David Chavalarias :
[10:46] Ce qu'on ne voit jamais dans les médias parce que ça peut créer des troubles post-traumatiques, des images d'horreur. Et donc, en bombardant avec ce genre d'images, notamment la communauté LFI, mon analyse, c'était qu'il a renforcé la sensibilité des LFI sur ce thème. Il a forcé ce groupe politique et les groupes à côté à le mettre tout le temps sur la table, sur tous les débats. Et en parallèle, on a vu, alors c'est toujours dur de savoir si c'est exactement les mêmes acteurs, mais en parallèle, il y avait aussi des comptes qui se faisaient passer pour, par exemple, des islamistes, qui n'étaient pas des islamistes, et qui allaient interpeller les comptes de droite en leur disant « l'islam est grand, on va tous vous tuer, etc., votre culture est décadente ». Donc, il y a comme ça une espèce de polarisation artificielle. Juste pour les énerver. On va amplifier les dissensus de manière à ce qu'il n'y ait plus d'accords possibles, notamment sur des choses comme, par exemple, le Front républicain.
Monde Numérique :
[11:46] Mais quelle est la perméabilité de l'internaute moyen à ces offensives ?
David Chavalarias :
[11:51] Alors, ça dépend vraiment déjà de la pratique des réseaux sociaux. Il y en a qui ont des plus ou moins sur les réseaux sociaux. Mais il y a quand même, en gros, la pénétration des réseaux sociaux, c'est autour de 70% en France. Donc, on est beaucoup à consulter au moins de temps les réseaux sociaux. Et après, ça dépend aussi beaucoup de sa propre vulnérabilité. Indépendamment du niveau d'éducation, on va être plus ou moins enclin à croire certaines choses ou à rentrer par exemple dans le complotisme, etc. Mais ce qu'il faut bien comprendre, c'est que, en gros, dans une population lambda, il y a toujours un pourcentage assez significatif de personnes qui sont prêtes à croire, ou même parfois par révolte, de croire à quelque chose, à un narratif qui va leur plaire. Et donc, si vous arrivez à convaincre même 5, 10, 15% de la population.
David Chavalarias :
[12:37] Qu'un faux narratif ou de se révolter, et que vous arrivez à les piloter comme ça de manière émotionnelle, sur la masse d'un pays, ça fait beaucoup, et vous pouvez créer même des mouvements sociaux, quasiment pas de toute pièce, mais vous pouvez facilement amplifier ou voir faire durer un mouvement social qui peut-être se serait épuisé s'il n'avait pas eu d'encouragement. Alors, constatez, par exemple, on sait que pour les Gilets jaunes, il y a eu de l'amplification côté Kremlin. Est-ce que c'est ça qui a fait qu'il a duré longtemps ? C'est difficile à dire, parce qu'on ne peut pas faire de AB testing, comme on veut, on ne peut pas faire la France sans et la France avec. Mais en tout cas ma conviction c'est que ça a un rôle assez significatif, et d'ailleurs si jamais on prouvait que ça n'en avait pas ça serait pas mal parce qu'on pourrait dire aux publicitaires qui investissent 1,5 milliard de dollars 1,5 milliards, 1 000 milliards de dollars par an ou je sais pas combien des centaines de milliards de dollars par an on pourrait dire à ces publicitaires qu'ils pouvaient les réinvestir dans autre chose puisque ça ne sert à rien de fait il y a quand même un truc de bon sens que si vous arrivez à agir sur les réseaux sociaux de manière assez massive et à rabâcher, à utiliser ce qu'on appelle le biais de répétition, c'est-à-dire une fois, vous ne croyez pas, deux fois, quand vous voyez la même information de plusieurs personnes différentes et plusieurs fois, au bout d'un moment, ça commence à...
Monde Numérique :
[13:52] Et puis tout le monde n'a pas, ne serait-ce que le temps, d'aller se poser la question, de chercher, voilà, il voit passer ça, hop, ça rentre, et on fait à peine attention, mais ça frappe...
David Chavalarias :
[14:02] Tout à fait, c'est-à-dire qu'il faut prendre en compte aussi le fait qu'on est touché à la fois de manière rationnelle et émotionnelle, C'est-à-dire que ce n'est pas parce qu'on ne croit pas à une information que le jour du vote, on ne va pas se dire celui-là, finalement, je ne le sens pas, je vais voter sur l'autre. Ça peut jouer sur des infos ambitionnelles. Donc, on a un vrai problème, ça c'est d'autres études où on montre ça, un vrai problème de qualité des infrastructures numériques qui nous permettent de faire société en ligne. Et pareil, juste pour ne sauter qu'un exemple, on a montré que les algorithmes de recommandation qui vous alimentent en information dans votre fil d'actualité sur n'importe quelle plateforme, que ce soit Facebook, Instagram, Snapchat, etc. Donc, ces algorithmes de recommandation, en fait, sont biaisés. Et par exemple, sur Twitter, il enrichit votre fil d'information en contenu dit toxique, c'est-à-dire polémique, avec des insultes.
Monde Numérique :
[14:52] Des obscenités, etc. — On l'a clairement constaté quand on utilise X depuis l'arrivée d'Elon Musk.
David Chavalarias :
[14:57] — Voilà. Mais ce qui est important de comprendre, c'est que, quelles que soient les personnes qui vous vous abonner, donc quelle que soit ce que vous cherchez comme information, ce que vous allez recevoir en moyenne est 50% plus toxique. Et donc, à l'échelle d'un pays, sachant que c'est une moyenne, c'est-à-dire qu'il y en a, c'est plus 30% et d'autres, c'est plus 200%. Mais donc, à l'échelle d'un pays, ça veut dire que vous distordez complètement la perception du social, de l'actualité, de leur environnement social. Et donc, ça crée des dysfonctionnements.
Monde Numérique :
[15:29] On crée une post-réalité.
David Chavalarias :
[15:31] On crée une post-réalité. Une réalité parallèle. On crée aussi une espèce de névrose collective.
Monde Numérique :
[15:36] – Mais ça s'appuie souvent, vous le disiez, sur des clivages et des choses qui existent déjà. Par exemple, Gaza, il y avait un parti pris très clair de l'FI de capitaliser sur ce drame à des fins électorales.
David Chavalarias :
[15:52] — Bien sûr. Non, non, mais c'est-à-dire qu'en fait, parfois, il y a des choses créées de toutes pièces, mais c'est assez rare. Et puis c'est assez rare que ça marche. Mais par exemple, il y a un faux narratif comme quoi c'est les Américains qui ont ramené le Sida en Afrique. C'était un narratif qui était a priori construit de toutes pièces à l'époque par les services russes. Et puis ça continue de temps en temps à ressortir. Donc il y a des choses comme ça qui ont été créées de toutes pièces. Mais la plupart, et d'ailleurs c'est le plus efficace, c'est que vous prenez un conflit existant et vous l'amplifiez. Vous prenez la manif des agriculteurs et vous rajoutez des informations en disant « mais en fait, on veut vous déclasser, c'est exprès qu'on monte le prix de l'essence, etc. L'écologie, ça ne sert à rien, etc. » Vous avez les gilets jaunes, on va amplifier ça. Vous avez le conflit israélo-palestinien, on va amplifier des deux côtés. Donc certains, on va les pousser plus pro-Israël, d'autres pro-Palestine, en disant « chacun, il faut choisir votre camp ». Il n'y a pas de... En faisant toujours des choses binaires. Alors que, par exemple, sur le conflit israélo-palestinien, en fait, il y a au moins quatre acteurs. Il y a les Palestiniens, les Israéliens et les gouvernements palestiniens et le gouvernement israélien, qui sont des entités différentes.
Monde Numérique :
[16:55] Et puis, on pourrait même ajouter les autres pays.
David Chavalarias :
[16:57] Les États-Unis, les pays arabes.
Monde Numérique :
[16:59] Etc.
David Chavalarias :
[16:59] Donc, en fait, à chaque fois, ça procède d'une simplification en disant il n'y a que deux acteurs. Il faut vous positionner. Et du coup, si vous êtes d'un camp, forcément, vous êtes en train de vous battre contre l'autre camp. Et donc ça, c'est une stratégie globale, récurrente en fait, pour en gros créer du dissensus social à large échelle.
Monde Numérique :
[17:17] À la source de tout ça, ça veut dire quoi ? Ça veut dire qu'il y a, je ne sais pas où, à Saint-Pétersbourg, là où on dit qu'il y a les usines à trolls, ou ailleurs, des analystes, des anti-David Chavallarias qui suivent l'actualité et qui disent, tiens, il y a ça qui monte en France, il y a ça qui monte en Espagne ou en Allemagne, c'est là qu'il faut appuyer, qu'il faut faire mal, et qui envoient leurs instructions.
David Chavalarias :
[17:40] Oui, tout à fait. Donc, on sait qu'il y a des acteurs organisés, que ce soit des États comme la Russie, la Chine et l'Iran, ou des lobbyistes comme les industries fossiles, qui utilisent très largement ce genre de manipulation d'opinion à large échelle. Et il y a un côté scientifique. Ça, c'est David Collomb qui le décrit très bien dans son livre « La guerre de l'information ». Les Russes ont, enfin le Kremlin, a répliqué l'expérience Cambridge Analytica de manière à mieux connaître l'héctor américain et de savoir comment disrupter, enfin, dédisloquer le tissu social américain. Donc, il y a une science, d'une certaine manière, aussi, il y a les ingénieurs du chaos, donc, en poli, il y a une sorte de science du social qui peut être utilisée à des fins positives ou des fins négatives.
Monde Numérique :
[18:28] Eh bien, vous avez du pain sur la planche encore pour décrypter tout ça. Merci beaucoup, David Chavarrias, directeur de l'Institut des systèmes complexes.