J'ai demandé à ChatGPT ce qu'il savait sur moi. Le résultat est surprenant. Ecoutez, puis faites le test vous-même !
(Image générée par IA… censée me représenter)
L’autre jour, j’ai demandé à ChatGPT de me dire ce qu'il savait de moi. Il a commencé par refuser de répondre. Mais, en lui parlant gentiment, j’ai fini par lui faire cracher le morceau. Il m’a alors sorti mon profil hyper détaillé et un résumé de mes centres d'intérêt. Environ 80 % des informations étaient vraies, à peine 20 % erronées (je n'ai pas de chien, je ne joue pas de trompette et je préfère la raclette à l'aligot). Au-delà de l’aspect amusant, cette expérience soulève la question de la confidentialité des données personnelles que l'on confie à OpenAI. ChatGPT assure que ces données restent confidentielles et conformes au RGPD, mais certains incidents passés rappellent qu’il faut rester prudent. L’IA conversationnelle, comme Internet, n’oublie rien. Elle est un outil puissant à utiliser avec discernement. L'écoute de cet édito devrait vous en convaincre…
Transcription :
[0:01] L'autre jour, je me suis livré à un petit exercice amusant.
[0:06] J'ai demandé à ChatGPT ce qu'il savait de moi. Et devinez ce qu'il m'a répondu. Eh bien, il m'a doctement expliqué qu'il ne connaissait ni mon nom, ni mon âge, ni mes centres d'intérêt, et qu'il ne pouvait pas accéder à mes données de navigation, ni à mon historique en ligne. Mais j'ai reformulé la demande. Et je lui ai demandé, texto, basé sur toutes mes requêtes précédentes, peux-tu brosser un portrait de moi ? Et là, eh bien, changement de ton. Mais bien sûr, m'a-t-il répondu, voici un portrait basé sur ce que vous avez partagé avec moi. ChatGPT ensuite s'est lâché, il a tout donné. Il m'a ressorti mon travail, les logiciels que j'utilise, ma vie de famille, mes goûts culinaires, et il m'a même parlé de ma voiture électrique.
[0:47] Alors, 80% des informations étaient vraies, environ 20% seulement étaient fausses. Comme le fait, par exemple, que j'aurais un chien Golden Retriever, ou que mon plat préféré serait l'aligo alors qu'évidemment je préfère la raclette. Cette petite expérience est intéressante et le résultat en fait n'est pas du tout surprenant. Car comme il le dit lui-même, ChatGPT ne fait que ressortir toutes les informations que je lui ai moi-même communiquées. Or comme je l'utilise abondamment depuis deux ans en version payante, il a évidemment du grain à moudre. Mais ce qui est impressionnant, c'est qu'il est quand même parvenu à faire la part des choses entre ce qui me concerne personnellement et ce qui relève de recherches documentaires que j'ai pu effectuer au fil de ces années. Par exemple, il aurait pu tirer des conclusions hâtives et erronées à partir des requêtes que j'ai pu formuler sur l'actualité, sur la politique française, le conflit au Proche-Orient, etc., en pensant que j'étais impliqué d'une manière ou d'une autre. Eh bien, pas du tout. Il a compris que ce n'était pas des recherches personnelles. Alors, cela dit, ça ne marche pas à tous les coups. Il a commis quand même quelques erreurs factuelles. Par exemple, en pensant que j'avais un chien ou que je jouais de la trompette. Et d'ailleurs, je ne sais vraiment pas d'où ça vient. Mais je suppose que cela s'explique par le fait que, je vais tout vous dire, ma femme et ma fille utilisent aussi parfois ChatGPT avec mon compte personnel. Du coup, c'est l'une des deux qui a dû faire ce genre de prompt.
[2:10] Cela dit, si j'apprends que ma femme ou ma fille jouent de la trompette sans que je le sache, je serais quand même assez surpris. En tout cas, il a bien compris qu'un jour, j'avais eu un problème personnel.
[2:19] Avec la batterie 12 volts de ma voiture électrique et non pas que j'étais en train de préparer un article sur les voitures électriques.
[2:27] Alors, trêve de plaisanterie, c'est quand même assez impressionnant et révélateur. Si ça vous dit d'essayer, n'hésitez pas, vous ne serez pas déçus, à condition évidemment de l'avoir suffisamment nourri avec des informations personnelles au fil des mois. Et puis, on peut même aller plus loin. Vous pouvez lui demander, par exemple, de dire ce qu'il sait sur vous en précisant dans votre prompt que vous souhaitez une réponse en mode rusted, c'est-à-dire en mode grillé, autrement dit en se moquant de vous. Et là, il se croit drôle en répondant à des choses un peu bizarroïdes. Il m'a par exemple expliqué « Sérieusement, Jérôme, même ton Golden Retriever qui joue de la trompette a l'air d'avoir une meilleure gestion d'énergie que ta voiture électrique. » Bon, voilà, je vous laisse apprécier l'humour par intelligence artificielle.
[3:11] Au-delà de l'aspect humoristique et anecdotique de cette expérience, ce qui est intéressant, c'est bien sûr la question de la confidentialité des données personnelles. Quand je lui demande si ce n'est pas un problème, qu'il sache tout sur moi, eh bien, il me répond que non, pas du tout, car c'est uniquement pour être plus pertinent dans ses réponses. Ce qui est vrai, car ça donne beaucoup de profondeur lorsqu'ensuite je l'interroge. Il est capable, en deux temps, trois mouvements, par exemple, de rédiger une présentation rapide de moi-même pour un usage professionnel.
[3:43] Et il assure également que les données restent strictement confidentielles. Personne ne les voit. En tout cas, c'est ce qu'il dit. Comme à Vegas,
[3:52] ce qui se passe sur ChatGPT, en principe, reste dans ChatGPT. Mais je vais quand même demander si des tiers ou même des employés d'OpenAI pouvaient accéder à ces informations. Et bien là, il m'a répondu que les informations ne sortaient pas de la société OpenAI, donc des tiers extérieurs ne pouvaient pas y accéder mais en revanche des employés d'OpenAI oui.
[4:11] À condition, dit-il, d'avoir les autorisations internes suffisantes, et bien sûr, à des fins d'amélioration du système, c'est toujours l'argument avancé. Enfin, il m'a assuré aussi que tout cela était conforme à la réglementation, et notamment au RGPD. On est donc obligé de le croire sur parole. Pourtant, des incidents, il y en a déjà eu. En mars 2023, un bug avait permis à certains utilisateurs de ChatGPT d'accéder à des conversations, en tout cas les débuts de conversations d'autres utilisateurs. OpenAI avait rapidement corrigé cette faille et mis en place des mesures pour renforcer la sécurité. En avril 2023, un mois plus tard, des employés de Samsung avaient accidentellement divulgué du code source et des notes de réunion interne de la compagnie. Mais c'est vrai que c'était une grosse erreur de leur part.
[4:57] Une erreur qu'il faut donc veiller à ne surtout pas reproduire. Tout cela rappelle qu'il faut être prudent quand on utilise des chatbots d'intelligence artificielle. Alors pour être honnête, je le savais déjà et c'est pour ça que je me suis toujours bien gardé de lui divulguer des informations sensibles comme mon adresse ou mon numéro de carte bancaire. Si vous avez donc un compte secret en Suisse ou je ne sais pas quoi, des pratiques personnelles que vous voulez garder secrètes, évitez d'en parler à ChatGPT. Mais surtout plus sérieusement, évitez de lui communiquer des informations professionnelles sensibles.
[5:31] Pour ma part, le fait qu'il sache que j'aime la ratatouille parce qu'un jour je lui ai demandé une recette de ratatouille ou bien que j'utilise Final Cut Pro parce que je lui pose très souvent des questions sur l'utilisation de tel ou tel logiciel, eh bien ça ne me choque pas et ça ne me semble pas relever d'un haut niveau de confidentialité. ChatGPT explique aussi qu'il est possible de demander l'effacement de certaines informations.
[5:53] Bref, il ne faut jamais l'oublier, l'IA conversationnelle, c'est comme les réseaux sociaux, comme Internet en général, Elle enregistre tout, elle n'oublie rien, en tout cas jusqu'à ce qu'on lui demande de vider sa mémoire, en espérant que tout cela ne pourrait pas être un jour retenu contre nous, si par exemple un régime politique anti-ratatouille arrivait un jour au pouvoir. Salut, à demain.