✍️ Edito - Chat Control : les messageries bientôt toutes sur écoute ?
10 octobre 202508:48

✍️ Edito - Chat Control : les messageries bientôt toutes sur écoute ?

Bruxelles s’apprête à examiner un texte qui pourrait autoriser l’analyse automatique de nos conversations de messageries pour lutter contre la pédopornographie. Les défenseurs des libertés numériques s'inquiètent.

Bruxelles s’apprête à examiner, le 14 octobre, un texte qui pourrait autoriser l’analyse automatique de nos conversations de messageries pour lutter contre la pédopornographie. Les défenseurs des libertés numériques s'inquiètent.

Qu’est-ce que le “Chat Control” ?

Le projet de règlement surnommé “Chat Control” entend obliger les plateformes comme WhatsApp, Signal, Messenger ou Telegram à analyser les messages, images et vidéos échangés par leurs utilisateurs. Objectif : repérer les contenus liés à la pédopornographie et signaler automatiquement les cas suspects aux autorités.
Mais pour y parvenir, il faudrait installer un logiciel espion directement sur nos appareils, capable de scanner les messages avant même leur envoi — un mécanisme qui remet en cause le principe du chiffrement de bout en bout.

Une intention louable, un outil controversé

Personne ne conteste la nécessité de lutter contre les abus sexuels sur mineurs, un fléau qui explose avec le numérique : plus de 100 millions d’images d’abus détectées en 2023.
Mais les défenseurs des libertés numériques alertent sur une surveillance de masse déguisée, contraire à la Charte des droits fondamentaux de l’Union européenne. Ils redoutent aussi les faux positifs, les dérives et l’extension possible du dispositif à d’autres crimes, comme le terrorisme ou l’activisme politique.

L’Europe divisée

Le projet fracture l’Union européenne. L’Allemagne, les Pays-Bas, la Belgique et plusieurs autres pays s’y opposent fermement. La France, elle, adopte une position prudente, reconnaissant la nécessité d’agir sans valider pour autant la méthode.
Le texte pourrait être bloqué une nouvelle fois, faute d’accord, ou revenir plus tard sous une autre forme. En attendant, le débat pose une question fondamentale : quand la sécurité devient-elle une menace pour la liberté ?

🎧 Ecouter sur votre app de podcast


[0:01] C'est un texte qui commence à faire beaucoup de bruit, qui doit être examiné le 14 octobre prochain, mardi prochain, par la Commission européenne, le fameux chat control. [0:11] Chat control, vous en avez peut-être déjà entendu parler, alors qu'est-ce que c'est ? Bon déjà, ce mot, chat control, c'est un surnom. [0:19] Officiellement, il s'agit d'un texte qui s'appelle « Règlement établissant les règles en vue de prévenir et de combattre les abus sexuels sur enfants ». Surnommé Chat Control, car il s'agit de contrôler précisément les chats, en l'occurrence les échanges dans les messageries privées, style WhatsApp, Messenger, Signal, Telegram, Facebook, TikTok, etc., pour lutter contre les contenus pédopornographiques. [0:43] Alors ce texte, Chat Control, en fait, il ne date pas d'hier, il a été initié en 2022, mais ça fait trois ans que ça patauge joyeusement, c'est bloqué, parce que ça touche à un sujet très sensible qui est celui de la confidentialité des communications sur les réseaux numériques et donc de la vie privée. La particularité de ce chat control, c'est qu'il repose sur l'idée d'une vérification a priori de tout ce qu'on publie sur ces messageries. Comment ? Eh bien, en installant en fait une sorte de petit mouchard directement dans votre smartphone ou votre ordinateur. Car vous le savez, en principe, ces applications, WhatsApp, Signal, etc., sont chiffrées. C'est-à-dire que le contenu est codé et on ne peut pas le décoder. Les plateformes font suffisamment de publicité autour de ça pour dire que notre vie privée est préservée, car c'est chiffré. Ça veut dire qu'il n'est pas possible du côté des serveurs ou même du côté des tuyaux entre l'émetteur et le receveur de savoir exactement ce qui se dit. Mais il y a quand même un petit moment dans une communication. [1:49] Par l'une de ces applications, il y a un petit moment où ce n'est pas chiffré, c'est tout simplement au moment où vous écrivez votre message, lorsqu'il sort de votre clavier, juste avant d'être envoyé sur les serveurs. Et l'idée, c'est de mettre un petit mouchard à cet endroit-là, précisément. Alors concrètement, ça voudrait dire qu'il faudrait une mise à jour de toutes les applications, Facebook, Telegram, Messenger, WhatsApp, etc., pour pouvoir instaurer ce système de vérification. Ce petit outil serait capable d'analyser les images, mais aussi les textes, pour repérer les contenus suspects. En fait, on ferait appel à l'intelligence artificielle, bien sûr, et ça permettrait de scanner tous les messages, y compris les vidéos aussi, pour faire plusieurs choses, détecter des contenus pédopornographiques, donc des images, mais également des tentatives de grooming, c'est-à-dire de rendez-vous, le fait de vouloir approcher des enfants à des fins sexuelles, ou encore d'autres types de contenus et d'échanges liés à ce genre de crimes. Si un contenu suspect est détecté, le fournisseur de services, donc la plateforme, serait tenu de le signaler d'une part à une autorité européenne compétente et d'autre part aux forces de police, aux forces de l'ordre du pays, ce qui pourrait déboucher sur une enquête, [3:07] des perquisitions, et évidemment plus éventuellement. Alors ce texte, il pose problème, on va voir pourquoi, Mais d'abord. [3:14] Examinons un peu les arguments pour, car la motivation, elle est évidemment louable. Il s'agit de lutter contre le fléau de la pédophilie qui, avec les réseaux numériques, a explosé. Avec des chiffres qui font froid dans le dos, plus de 100 millions d'images ou de vidéos d'enfants victimes d'abus détectés sur Internet. Ça, c'était en 2023. Entre 2021 et 2023, la sollicitation en ligne d'enfants pour des activités sexuelles aurait augmenté de plus de 300%. Donc, on comprend bien la nécessité de faire quelque chose. Et c'est donc tout naturellement qu'on se tourne vers les outils numériques eux-mêmes, avec cette idée d'instaurer un filtrage qui, toutefois, ne serait pas une écoute systématique, mais un système pour détecter, supprimer et éventuellement alerter les forces de l'ordre. C'est un peu comme le système des assistants vocaux à la maison, c'est-à-dire qu'ils nous écoutent tout le temps, mais sans nous écouter. Ils nous écoutent pour pouvoir détecter le wake word, le mot d'éveil, donc au moment où on l'appelle Alexa ou Google Home, etc. [4:17] Et à ce moment-là, ils vont enregistrer notre demande et envoyer notre demande sur les serveurs. Mais tout ce qui se passe avant n'est pas enregistré, ça n'enregistre pas toutes les communications à la maison. [4:28] Il n'empêche, ce tchat de contrôle, ça passe mal, très mal, auprès des défenseurs des libertés individuelles sur Internet. Alors, il y a pas mal d'associations qui existent et qui veillent au grain et qui régulièrement s'opposent à ce type de dispositions. Et là, elles sont vent debout contre tchat de contrôle. Pourquoi ? Parce qu'en fait, ça reviendrait quasiment à lire notre courrier avant qu'on le poste pour vérifier qu'on n'est pas un pédophile. C'est donc à priori une atteinte à la protection de la vie privée, à la protection des données à caractère personnel qui sont pourtant inscrits dans les textes européens comme la Convention européenne des droits de l'homme ou encore la Charte des droits fondamentaux de l'Union européenne. Et puis, il y a d'autres risques également. Il y a des risques de faux positifs, c'est-à-dire que si on confie à l'intelligence artificielle cette tâche de contrôle, elle pourra très bien se tromper. Il y a eu des cas déjà de parents qui avaient des enfants malades et qui dialoguaient avec des médecins. Le médecin leur demande d'envoyer une photo de l'enfant. et là, ils envoient une photo d'un petit bébé. S'il y a un système qui détecte les photos des petits bébés déshabillés. [5:38] Ils peuvent tout à fait se faire avoir et il y a des gens dont les comptes ont été suspendus. Donc ça, c'est le problème des faux positifs, en gros, du fait que les outils automatiques ne sont jamais fiables à 100%. Ensuite, il y a la question du contournement. Est-ce que véritablement ces outils seront efficaces à 100% ? Est-ce qu'il n'y aura pas un moyen de les contourner ? Et on sait que les criminels, quels qu'ils soient, font toujours preuve d'imagination débordante quand il s'agit de contourner les systèmes automatiques de surveillance, ou pas automatiques d'ailleurs. [6:10] Enfin, il y a aussi un autre motif d'inquiétude, principalement défendu par les associations qui s'intéressent aux libertés individuelles, c'est le fait que lorsque le système de surveillance sera en place, on puisse l'étendre à d'autres activités qui seront considérées comme criminelles. [6:26] Mais qui ne relèveront pas forcément de la pédophilie comme le terrorisme ou [6:30] ce qu'on pourrait appeler l'activisme violent de la part de certains groupuscules. Alors en fait, c'est toujours un peu la même question. Ce n'est pas la première fois qu'un texte qui touche à la confidentialité des données pose problème. Comme ça, on se rappelle la loi sur le renseignement de 2015 après les attentats de Charlie Hebdo et du Bataclan. toute la question est de savoir où mettre le curseur entre le respect des libertés individuelles et les impératifs de sécurité. Et ce sera toujours un affrontement sur le terrain des principes, avec inévitablement des positions parfois radicales de part et d'autre. On a souvent tendance à penser soi-même que tant qu'on n'a rien à cacher, finalement, ce genre de mesure n'est pas très grave. Le problème, c'est que si aujourd'hui on n'a rien à cacher, rien ne dit que plus tard, en fonction d'un régime politique qui pourrait être instauré dans un pays de l'Union et qui serait peut-être moins respectueux par principe des libertés individuelles, n'importe qui pourrait se retrouver en difficulté et finalement avoir certaines [7:33] choses à cacher, même s'ils ne sont pas des choses très graves aujourd'hui. Alors qu'est-ce qui va se passer concrètement ? Les pays de l'Union Européenne ne sont pas d'accord entre eux. [7:42] D'un côté, on a par exemple l'Allemagne, le Luxembourg, l'Autriche, la Belgique, la République Tchèque, la Finlande, les Pays-Bas ou la Pologne qui sont opposés à « tchats de contrôle ». Et puis de l'autre côté, il y a une quinzaine de pays qui, eux, soutiennent le projet plus ou moins fermement. [7:58] La France est un peu entre les deux, où elle est favorable, mais en même temps assez prudente sur la mise en œuvre. Donc pour l'instant, aucun accord n'a été trouvé. On ne sait pas trop ce qui va se passer ce 14 octobre au Conseil de l'Union européenne. À voir si le Parlement va trouver un compromis pour que ça puisse satisfaire les opposants. La portée, évidemment, serait énorme, puisque ça concernerait toute l'Europe. Et si aucun compromis n'est trouvé, ce qui risque de se passer, en fait, c'est que le texte risque de retomber dans les oubliettes des textes législatifs européens, mais avec possibilité qu'il refasse surface un jour ou l'autre sous une forme ou sous une autre.
tech,innovation,informatique,technologies,tech news,actu tech,high-tech,numérique,actualités,