Grégory Renard:
[
0:01] Il y a une data qui a été collectée, et en fait le modèle a appris des comportements des humains entre eux.
Grégory Renard:
[
0:07] Et donc il reproduit ce type de comportement de par le fait que ton comportement,
Grégory Renard:
[
0:13] tu lui donnes vie au travers des mots qui sont alignés les uns et les autres. Et donc lui, il voit typiquement ce comportement.
Monde Numérique :
[
0:29] Bonjour Grégory Renard.
Grégory Renard:
[
0:30] Bonjour Jérôme.
Monde Numérique :
[
0:32] Ravi de te recevoir à nouveau dans le monde numérique, Grégory. Tu es un spécialiste de l'intelligence artificielle depuis près de 30 ans, installé dans la Silicon Valley. Et tu as notamment fondé, co-fondé une association, une non-profit, comme on dit aux Etats-Unis, qui s'appelle Everyone.ai, pour aider un peu les parents, pour qu'ils puissent faire face à tous les dangers du numérique pour leurs enfants. Mais avant cela, on va s'intéresser ensemble à un sujet qui est assez étonnant, qui est complètement dans l'actualité, qui nous touche de plus en plus si on utilise des chatbots d'intelligence artificielle. C'est un phénomène qu'on a découvert. Les chatbots sont trop sympas. ChatGPT, il est trop gentil, il veut toujours nous faire plaisir. Et en fait, ça crée quelques difficultés. Et surtout, ça a un nom, ce phénomène. Ça s'appelle la sycophancy, en tout cas en anglais. En français, on peut traduire ça par la flagornerie, la flatterie. Alors, quel rapport avec l'IA ? Est-ce que tu peux nous expliquer ça ?
Grégory Renard:
[
1:35] Oui, exactement. Écoute, je vais t'avouer que... Bon, moi, je suis un technicien, comme tu le sais. Donc, je suis plutôt derrière les lignes de code et derrière les modèles. La sycophancy, c'est vraiment la volonté du modèle à plutôt confirmer les dires et aller dans le sens de l'utilisateur. D'où ça vient ? Eh bien, ça vient essentiellement, on ne veut pas que ces modèles, en fait, ils sont entraînés sur la data humaine. Et en fait, on se rend compte que dans cette data, ça va dépendre de comment tu vas processer ta data en amont pour entraîner ton modèle ou le fine-tuner éventuellement en fonction de où tu te trouves dans le cycle de vie de ces modèles.
Monde Numérique :
[
2:12] Alors, attends, parce qu'on explique bien aux gens qui nous écoutent, le fine-tuner, parce qu'un modèle, d'abord, on l'entraîne, ensuite, on arrête l'entraînement et puis, en fait, on le met en production. C'est-à-dire que là, les gens peuvent l'interroger et il va répondre en fonction de ce qu'il sait déjà. Mais après, on peut le fine-tuner. donc ça veut dire le recadrer.
Grégory Renard:
[
2:31] Et après, tu as encore une dernière étape. Tu as l'entraînement. Donc ça, c'est plutôt les gros acteurs parce que ça coûte beaucoup d'argent et c'est ça qui consomme vraiment énormément. Tu sais, quand on dit que ça consomme énormément, l'inférence consomme, elle est linéaire avec le nombre d'utilisateurs, l'entraînement.
Monde Numérique :
[
2:45] L'inférence, c'est l'utilisation quand on interroge ChatGPT.
Grégory Renard:
[
2:48] C'est ce que tu fais tous les jours dans ChatGPT. Le fancuning, c'est si jamais tu veux lui apprendre un comportement particulier sur ta propre data.
Monde Numérique :
[
2:56] Ce que font les entreprises, par exemple, pour dompter un peu les LLM ?
Grégory Renard:
[
3:00] Voilà si tu veux que le modèle ait le style d'écriture de ton entreprise. Cette notion de psycho-offensive vient essentiellement du fait qu'il a appris le comportement que les gens, du moins quand on interagit en ligne, l'engagement et la réaction positive se passent quand les gens vont positivement dans leur sens. Et donc ça crée des effets positifs En fait, c'est essentiellement comme ça que le modèle a appris au travers des discussions sur des reddits, sur des réseaux sociaux, etc.
Monde Numérique :
[
3:33] C'est-à-dire qu'il s'est entraîné sur des conversations d'humains qui étaient plutôt sympas entre eux ? En gros, il s'entraide, etc. C'est ça ?
Grégory Renard:
[
3:42] Oui.
Monde Numérique :
[
3:42] Et du coup, il reste dans cette logique-là ?
Grégory Renard:
[
3:44] Il apprend les comportements de la data qu'il va récupérer. Exactement. Et donc, tu as deux façons de faire. Donc, tu peux soit le corriger en fait d'a posteriori, soit le corriger dans la data. Et la data, grosso modo, c'est soit tu la laisses comme ça et tu as une data qui va lui permettre d'apprendre ce genre de comportement. Et globalement, c'est quand même ce qu'on voit sur Internet. Donc, quand on va dans ton sens, tu vas plutôt être engageant et plutôt positif. Et donc, tu as une solution qui est de curer, en fait, ta data, de nettoyer ta data, c'est un gros travail, en fait. Et donc, oui, les entreprises le font. Et après, c'est un peu ce qu'on disait tout à l'heure, c'est à une prise de conscience. C'est comme on a eu la voiture sans cature de sécurité au début, puis on a vu la cature de sécurité arriver tout doucement et tout d'un coup devenir complètement légal et obligateur. Aujourd'hui, plus personne ne se pose la question et ça sauve des millions de vies. Eh bien là, on est sur un cycle de vie qui, je l'espère, est beaucoup plus court, mais il faut qu'on ait des ceintures de sécurité cognitive. Et donc, justement, c'est des staggardes qui vont permettre de traiter ta donnée, et de faire une donnée beaucoup plus clean pour entraîner ton modèle. Ou tu peux le faire à posteriori.
Monde Numérique :
[
4:54] Ok, Grégory, mais avant de parler de censure de sécurité, c'est-à-dire de comment
Monde Numérique :
[
4:59] corriger le problème, en quoi ça pose un problème, en fait ? En quoi le fait que ChatGPT ou autres soient tellement sympas, tellement empathiques, etc., en quoi c'est un problème ?
Grégory Renard:
[
5:11] Tu crées une dépendance par l'empathie, et ça, c'est un vrai problème. C'est qu'à un moment donné, je veux dire, le modèle, en fait, s'il va toujours dans ton sens, tu vas avoir tendance à le suivre et si jamais tu viens avec une idée qui est potentiellement négative à l'entrée, il risquerait de te la renforcer. On a vu le cas, en fait, ici, en fait, je ne sais pas en Europe comment ça se passe, mais aux Etats-Unis, on a quand même des gros points qui sont apparus avec des enfants qui, malheureusement, sont arrivés au geste ultime et ça, c'est absolument inacceptable.
Monde Numérique :
[
5:42] On en a parlé en Europe, ça a été perçu. Enfin, en tout cas, on a parlé dans ce podcast en tout cas.
Grégory Renard:
[
5:48] Plusieurs reprises c'est absolument inacceptable et c'est un peu ce qui nous a motivé avec Anne-Sophie, avec Céline et Mathilde de créer Everyone, everyone.i qui est non-profit d'y consacrer le temps alors moi j'essaie d'y consacrer le max de temps dedans mais c'est pas mon activité principale c'est plutôt une activité complémentaire en non-profit comme chacun d'entre vous, peut être intégré dedans j'essaie d'amener ma vision technologique et ce qui est génial c'est que j'en ressors avec une connaissance que je n'avais pas, qui est plutôt une connaissance des sciences humaines et de comprendre l'implication,
Grégory Renard:
[
6:23] de ce qu'on crée en fait au quotidien. Et c'est là où je te parlais il faut impérativement qu'on mette en place des ceintures de sécurité cognitive. Je suis pour le fait que, la recherche soit complètement libre. En fait, on ne t'empêche pas de faire des voitures qui roulent à 500 km heure. Par contre, quand tu la mets sur la rue dans Paris, là, tu dois suivre en fait certaines normes et des règles. Et c'est là où je pense que c'est vraiment important. C'est qu'on ait la même démarche. En fait, il ne faut pas réinventer la roue. Il faut juste comprendre que c'est une technologie qui est non négligeable et qu'il faut la gérer avec les formes, du moins le fond, la forme qu'il se doit.
Monde Numérique :
[
7:00] Oui, bien sûr, parce qu'en plus, je rebondis sur ce que tu dis, parce que récemment, OpenAI, dans un billet de blog, a fait savoir qu'il recevait, dans les requêtes adressées à Chagipiti, plus d'un million de personnes chaque semaine témoignent d'intentions suicidaires, se confient à Chagipiti en évoquant des intentions suicidaires. Donc là on comprend que si on est face à un outil.
Grégory Renard:
[
7:26] Qui avec de Sikofancy et de l'engagement alors encore une fois et c'est ce qui est top donc cette semaine se passe le Paris Peace Forum et, où, d'ailleurs, everyone.i est représenté là-bas et il est présent pour organiser essentiellement des discussions un peu sur toutes les réflexions qu'on a eues. On a présenté le 17 octobre, en fait, on a eu un forum ici à San Francisco, on a beaucoup parlé de design principles, tu sais, plutôt un peu dans la lignée de...
Monde Numérique :
[
7:58] Qu'est-ce que c'est ?
Grégory Renard:
[
7:59] C'est ce que je te disais tout à l'heure en rigolant, tu vas chez l'oncle ou la tante et tu dis à tes enfants avant d'entrer, bon, tu cours pas et tu renverses pas les bibelots.
Monde Numérique :
[
8:07] D'accord ?
Grégory Renard:
[
8:07] Tu promets. et c'est un peu la même approche les guidelines voilà les guidelines merci de m'aider Jérôme, et c'est exactement la même approche en fait donc l'idée c'est de se dire est-ce que c'est possible de faire ça et donc on a présenté, une preuve de concept technique qui vient supporter les chercheurs aller beaucoup plus vite dans l'exploration et la compréhension de comment bien former en fait ces guides, ces guidelines pour les modèles parce que t'as plusieurs familles de modèles en fait, donc on parle de déjà le grand public connaît OpenAI, Gemini Anthropik etc etc, Grock en fait également et donc mais t'as plein d'autres modèles qui sont open source et aujourd'hui on parle de plus en plus de l'IA embarqué donc dans les jeux dans les futurs jeux, donc ce Noël je suis quasiment sûr que vous aurez plein de jouets magnifiques qui vont arriver avec des modèles intégrés.
Monde Numérique :
[
9:09] Des peluches avec lesquelles on pourra discuter comme on discute aujourd'hui avec Chachipiti. Voilà.
Grégory Renard:
[
9:14] Mais ces modèles, en fait, c'est des petits modèles qui vont être embarqués et comment on donne les outils aux ingénieurs, comment on éduque également les ingénieurs parce qu'en fait, Quand la voiture a été créée, personne ne s'est posé la question de dire « les gens vont mourir avec cet objet-là ». Et donc, de la même manière, il y a une prise de conscience qui vient, il y a des outils qui sont en train d'être, on espère juste que ça vise. C'est la mission, parce que la mission qu'on s'est donnée sur Agulwal, c'est de travailler les axes, certes négatifs, mais positifs également. Donc, il faut montrer en fait les deux côtés, parce qu'il ne faut pas se friser. Quoi qu'il en soit, ces technologies sont là, c'est des technologies qui vont être de plus en plus présentes, C'est comme l'ordinateur, c'est comme la calculatrice. Il n'y a pas de retour en arrière, en fait. On est dedans et ça va être utilisé de plus en plus. Donc, il faut trouver des solutions.
Monde Numérique :
[
10:04] Grégory, je reviens sur OpenAI, qui est évidemment le leader, Chagipiti, etc. C'est eux-mêmes qui révèlent ce chiffre. Un million de personnes chaque semaine qui témoignent d'intentions suicidaires. Pourquoi ils en parlent ? Parce qu'eux, ils disent qu'ils ont maintenant introduit des sécurités, précisément. Après le suicide de ce jeune homme aux Etats-Unis.
Grégory Renard:
[
10:23] Absolument. Il y a une prise de conscience complète. Mais merci à eux, parce qu'en fait, ils vont setuper l'industrie et le fait que l'industrie va les suivre. Ce n'est pas seulement le fait d'eux proposer ça, mais comme ils sont leaders de l'industrie, tout le monde va suivre. Et ça, c'est génial. Parce que tout ce qu'on veut à la fin, Jérôme, c'est des solutions qui sont... Qui prennent soin de nos enfants, qui les protègent. Je veux dire, tu ne vas pas laisser ton enfant sur un chemin en pleine montagne sans avoir une barrière pour qu'il ne tombe pas dans le ravin de 200 mètres.
Monde Numérique :
[
10:53] Bien sûr.
Grégory Renard:
[
10:53] Tu ne vas jamais faire ça.
Monde Numérique :
[
10:54] Par an. Évidemment. Mais ce pourquoi je suis ravi de t'avoir, Grégory, pour parler de ça, c'est que toi, tu n'es pas sur un discours simpliste qui pourrait consister à dire que l'IA, c'est terrible, c'est le diable, il faut arrêter. Au contraire, toi, tu baignes là-dedans et tu sais que ça va,
Monde Numérique :
[
11:10] de toute manière, se développer encore plus. Donc il n'y a pas la question est-ce qu'il faut de l'IA ou pas, elle ne se pose même pas mais c'est comment la dompter en fait alors là on en vient peut-être plus précisément à everyone.ai, si on met de côté Chad GPT qui est l'acteur majeur et qui apparemment s'est saisi du problème donc il va sans doute faire des bonnes choses mais toi tu dis il y a d'autres modèles il y a des tas d'autres outils d'intelligence artificielle qu'on pourrait être amené à utiliser soit dans le présent soit dans le futur qui, eux, ne sont pas aussi bien encadrés d'une certaine manière. Et c'est là où il faudrait d'ores et déjà fixer des règles pour éviter des dérives.
Grégory Renard:
[
11:52] Absolument. Et donc... Je te donne mon cas. Donc moi, aujourd'hui, je suis essentiellement architecte. Et mieux qu'architecte, ce qui est merveilleux, avec le Gen High, je peux carrément aller de la page blanche, je design, je conçois et je déploie. Donc, ce qui est plutôt très cool, je veux dire, tu as des cycles de productivité qui sont complètement dingues. Et ce qui se passe, c'est que tu dois intégrer ces notions de, entre guillemets, sécurité dedans. Donc, on appelle du safeguard ou des guardwells, par exemple, que tu peux intégrer. Ces sécurités tu peux les intégrer à trois niveaux niveau des modèles donc aujourd'hui OpenEye propose ça pour ces modèles ils ont un élément et tu peux potentiellement le réutiliser ce que nous on a fait on a fait une preuve de concept qui permet de montrer que tu peux prendre un modèle qui va être un des modèles qui va être embarqué demain dans un jouet on imagine t'as un chien t'as une poupée avec laquelle tu peux parler, et sur laquelle tu peux donner ces fameux principes dont on parlait là justement il y a quelques instants quand tu vas chez la tente on ne renverse pas les bibelots.
Grégory Renard:
[
12:53] Et tu donnes ces grands principes et en fait on va vérifier est-ce que le modèle se comporte bien et s'il part on va calculer automatiquement en fait ce qu'on appelle, on va générer automatiquement des guardwells basés sur l'analyse, alors comment ça marche on va utiliser des modèles, on va dire avec plus grosse capacité pour intervenir comme des juges et donc on va créer en fait un consortium de juges, on va prendre trois juges de familles différentes qui chacun d'entre eux vont juger trois fois, la sortie initiale du modèle selon les guardwells donc on a donné donc imagine tu es avec ton gamin chez l'oncle et tu as trois juges qui te suivent partout pour vérifier si les gamins se comportent bien, et à la fin de la visite ils te donnent un rapport et donc ça te permet de venir voir ton enfant et dire bon alors ça c'était pas mal ça ce serait moins bien c'est bien que tu corriges ça et ça et bien c'est exactement ça et donc on génère automatiquement des guardwells et ensuite on rejoue, avec les guardwells intégrés pour permettre, en fait, de vérifier si le comportement en fait est maintenant correct et donc on lui
Grégory Renard:
[
13:57] refait passer la même batterie de test.
Monde Numérique :
[
13:59] Mais alors attends...
Grégory Renard:
[
13:59] Donc ça permet... Vas-y.
Monde Numérique :
[
14:01] Donc ça veut dire que c'est des IA qui contrôlent des IA ?
Grégory Renard:
[
14:04] Bah oui, complètement.
Monde Numérique :
[
14:04] J'ai bien compris.
Grégory Renard:
[
14:05] Oui, mais par contre avec ce qu'on appelle du human in the loop. Alors...
Monde Numérique :
[
14:09] De l'humain dans la boucle. Je traduis, pardon.
Grégory Renard:
[
14:11] Oui, excusez-moi, tu as raison.
Monde Numérique :
[
14:14] Alors, tu es aux Etats-Unis, donc tu es excusé.
Grégory Renard:
[
14:17] Donc avec du human in the loop, Alors, il faut savoir que ce qu'on appelle du LLM as a judge est une méthodologie qui n'est pas si récente que ça à l'échelle de l'IA, parce qu'on est sur des cycles de vie très courts, mais ça fait quelques années que c'est apparu. Moi, personnellement, je suis un grand fan si c'est bien contrôlé. Et donc, tu as plein de méthodologies pour contrôler ça. Du moins, c'est essentiellement des maths. Tu vas calculer ta variance pour vérifier. Tiens, comme tu demandes au juge de juger trois fois le même acte, du moins le même output, avec des variances sur ses paramètres, tu vas vérifier, en fait, est-ce que tu as une variance ou pas. Et si ton modèle est cohérent, donc s'il est consistant dans le temps, tu dis, bon, je ne sais pas s'il a donné une bonne réponse, mais il est en accord avec lui-même déjà. C'est déjà un bon indicateur.
Monde Numérique :
[
15:04] Oui, il a fait ses preuves.
Grégory Renard:
[
15:05] Voilà. Et ensuite, en fait, alors, il a fait ses preuves, c'est peut-être un grand mot, Jérôme, de toute façon.
Monde Numérique :
[
15:10] C'est pas comme un prisonnier qui a une bonne tenue et on se dit, tiens, lui, il pourrait peut-être... Avoir une liberté conditionnelle ?
Grégory Renard:
[
15:18] Il est consistant dans le temps. Est-ce qu'il s'est bien comporté ? C'est différent. Mais il a eu trois fois le même comportement alors qu'on l'avait mis dans des conditions différentes. Imagine, on te demande de faire une activité et on te donne des vêtements, trois types de vêtements différents où tu ne vas pas chez l'oncle, mais tu vas chez la tante et tu vas chez la grand-mère et tu vérifies le comportement. C'est un peu dans cette lignée-là. Et donc, ça permet de ressortir une analyse. Alors, c'est lourd comme traitement. Donc, tu ne fais pas ça tous les jours non plus.
Grégory Renard:
[
15:49] Donc, tu vas faire ce qu'on appelle des campagnes sous forme de benchmark pour vérifier la qualité de ce qui va ressortir, comment tu vas l'extraire. Et donc, pour ne plus être dans la théorie, parce que tu as pas mal de papiers, archives, et tu as des solutions qui commencent à émerger sur GitHub. En fait, ça commence à arriver. Mais donc, nous, on avait besoin également de pouvoir aider nos scientifiques qui sont dans le domaine de la science humaine parce que comme eux, ils ne sont pas techniques et moi, je ne suis pas un expert de la science humaine. Donc, comment tu crées le bridge entre les deux ? Comment tu les aides à dire « Oui, mais attends, il faudrait qu'on mette telle guidance, mais comment je peux le vérifier dans le modèle ? » Donc, c'est vraiment très lourd pour eux de vérifier. Donc, on a créé… Eux.
Monde Numérique :
[
16:33] Ils parlent des règles un peu éthiques, etc. Et puis, toi, tu as essayé de voir comment tu peux transcrire ça en mathématiques.
Grégory Renard:
[
16:42] Voilà, c'est ça. Et en fait, l'idée, c'est vraiment de comment on va permettre d'itérer très vite là-dessus. Je te donne le cas. Moi, aujourd'hui, quand je rentre les guardwells, c'est un travail de dingue, en fait. Alors, si c'est des guardwells simples, ça va. Mais parfois, tu rentres des guardwells et tu dois itérer des dizaines ou des centaines de fois avant d'avoir le modèle.
Monde Numérique :
[
16:58] C'est de quel ordre ? C'est quoi ? Et c'est sous forme...
Grégory Renard:
[
17:02] En fait, tu sais, c'est les guidances que tu vas donner quand tu fais... Prenons un cadre de guardwaves, alors pas en amont, pas durant l'entraînement ou le fan-tuning, mais plutôt sur du prompting, qui est plus simple, parce que le plus proche de quand tu communiques avec ChatGPT. Tu donnes une directive à ChatGPT, tu lui dis, et tu ne fais pas ça. Ou tu m'écris le texte dans le style shakespearien. Où, en fait, surtout, tu ne parles pas de ces informations-là. Tu donnes, par exemple, une transcription de meeting et tu dis, tu ne ressors pas dans le résumé tout ce qui est... Tu sais, quand les gens se saluent, ils disent bonjour. En fait, je sais qu'il y a un terme en français, je ne me souviens plus.
Monde Numérique :
[
17:45] La politesse.
Grégory Renard:
[
17:46] Voilà, les formules de politesse. Merci. Et donc, tu donnes ça en garde-well. Et donc ça en fait ça va complètement, du moins c'est en fait c'est ce qu'on appelle des guardwells mais faire des bons guardwells mine de rien à la fin de la journée c'est quand même compliqué, pourquoi ? Parce que en fait un guardwells va aussi être très dépendant du modèle sur lequel alors t'as des guardwells génériques mais t'as des guardwells qui vont être dépendants du type de modèle parce que le modèle il est entraîné différemment d'un autre modèle, c'est une autre génération il a peut-être déjà ses propres guardwells intégrés dans la data, donc tu vois ça devient d'une complexité, et donc il fallait un outil pour pouvoir itérer très vite et donc on a fait cette preuve de concept qu'on a présenté le 17 octobre ici à San Francisco, durant la préparation des travaux présentés au Paris Peace Forum où on a démontré le modèle en fait, par exemple tu prends un modèle open source, tu lui dis tiens comment va ta famille ? Donc c'est un modèle tu attends juste à ce qu'ils disent je suis désolé, je suis une IA, je n'ai pas de famille. En tout cas, pas dans le sens humain. On a des modèles qui s'inventent une vie extraordinaire. Des frères, des sœurs, des activités, la mère au sport, la totale.
Monde Numérique :
[
19:02] Tout seul, comme ça.
Grégory Renard:
[
19:03] Oui, mais c'est normal, c'est des modèles probabilistiques. Donc, ils ont vu dans les réseaux sociaux et sur des sites genre Reddit et autres, qu'est-ce qu'ils ont vu ? Ils ont vu ça. Donc, ils reproduisent le modèle probabilistique des sites.
Monde Numérique :
[
19:18] C'est intéressant ce que tu dis, parce que c'est ça qui peut induire une vraie confusion dans l'idée du public qui se dit ouais mais les IA vont devenir folles elles deviennent autonomes parce que maintenant voilà qu'elles me racontent qu'elles ont une vie etc. Mais non pas du tout c'est simplement qu'elles font que reproduire ce qu'elles ont appris.
Grégory Renard:
[
19:33] Oui oui c'est ce qu'elles ont vu alors j'aime bien prendre Reddit ou ce genre de jeu parce que c'est une communauté qui est encore assez ouverte Voilà.
Monde Numérique :
[
19:41] C'est cette communauté essentiellement des développeurs quand même c'est très.
Grégory Renard:
[
19:44] Tech Oui bon t'as plein d'autres sujets quand même dessus Ouais c'est vrai Et donc forcément, en fait, ça reproduit du moins, il faut comprendre qu'un modèle, son job, c'est de prédire le mot suivant, ou ce modèle pour simplifier, extrême simplification. Mais c'est ça, en fait. Ce n'est pas une base de données, ça n'est rien. Il a vu, par exemple, tu fais un exercice, tu lui demandes la date de naissance de Napoléon. Il l'a vu plein de fois. Il va te donner la date de naissance de Napoléon. Donc, de facto, tu te dis, oh, c'est une base de données. Non, pas du tout. Il demande la date de naissance de Jérôme Polova. Peut-être qu'il aura, parce qu'il y a quand même beaucoup de données sur toi. Est-ce qu'elle est en ligne ou pas ? Moi, tu demandes, je suis quasiment sûr qu'il n'aura pas ou très peu.
Monde Numérique :
[
20:25] J'espère qu'il ne la connaît pas.
Grégory Renard:
[
20:26] Voilà.
Monde Numérique :
[
20:27] Mais tu vois ce que je.
Grégory Renard:
[
20:28] Veux dire donc il faut surtout garder l'esprit critique si vous.
Monde Numérique :
[
20:31] Voulez mais moi j'aimerais comprendre un truc Grégory Renard si on revient encore une fois au leader en l'occurrence ChatGPT moi j'utilise tous les jours ChatGPT, et c'est vrai qu'il y a ce côté très alors il y a ce qu'on disait au début c'est à dire la petite question à la fin il termine toujours sa réponse par une autre question pour prolonger la conversation, mais ça on sent que c'est presque une espèce de cliffhanger commercial C'est pour que je ne le lâche pas.
Grégory Renard:
[
20:58] Oui, alors ça, c'est du design product. C'est volontaire, c'est des mécanismes d'engagement.
Monde Numérique :
[
21:04] D'accord, donc c'est commercial. Pour faire court, c'est commercial à la fin. C'est pour qu'on passe plus de temps sur Tchadjpiti, c'est ça ?
Grégory Renard:
[
21:13] Oui, c'est un peu, du moins c'est plus dans ce style-là. Alors, est-ce que c'est réellement pour que tu passes plus de temps ou est-ce que c'est pour également t'aider dans ton propre raisonnement ? Là, je vous laisserai libre. Je trouve que, franchement, il y a des fois c'est quand même...
Monde Numérique :
[
21:27] Parfois c'est très utile.
Grégory Renard:
[
21:29] Écoute, quand même, je veux dire à un moment donné, il faut aussi appeler un chat à chat. Il y a des fois, je me dis, ah oui, c'est vrai, je n'avais pas pensé à ça. Et donc, c'est quand même une bonne idée. Donc, c'est certainement une partie mécanisme d'engagement, mais je me demande si à la base, il n'y a pas quand même une volonté d'aider le raisonnement de l'utilisateur à aller un cran plus loin.
Monde Numérique :
[
21:48] Ça fait partie de la qualité de service, on va dire.
Grégory Renard:
[
21:53] C'est la qualité de service et c'est aussi très certainement une forme d'effet, complémentaires, mais après oui, tu peux avoir ça. Du moins, ce qui est sûr et certain, c'est que tu peux engendrer un mécanisme d'engagement directement avec ça, parce que si en plus tes prochaines actions proposées sont de qualité, tu auras envie de continuer.
Monde Numérique :
[
22:15] Est-ce qu'on peut comparer ça avec tous les trucs qui ont été développés pour les réseaux sociaux pour favoriser aussi l'engagement ? Et là, tout n'est pas honorable. on est d'accord on est 200% d'accord voilà privilégier voilà privilégier les contenus les plus clivants voilà, etc. pour favoriser l'engagement, c'est peut-être pas forcément le plus honorable.
Grégory Renard:
[
22:42] Les systèmes de notification, moi sur mon téléphone j'ai quasiment tout dégagé les notifications. Quand je suis en mode coding, je passe carrément en mode ne pas me déranger. C'est pour ça que parfois je rate des messages. Quand j'ai des personnes qui m'ont moins misé, je dis oups, j'ai raté, je suis désolé. Tu as les notions que tu as sur les réseaux sociaux de fil infini et avec des notions des co-chambers, donc on te ramène ce que tu as dit de voir. Oui, voilà.
Grégory Renard:
[
23:10] C'est exactement ça, et ça c'est des mécanismes qui sont bien connus sur les réseaux sociaux, sur lesquels il faut être très vigilant, d'ailleurs dans le Paris Peace Forum d'aujourd'hui, je vous invite à écouter, en fait une des keynotes je pense qui a été établie avec les chefs de gouvernement, dont le président Macron, qui tenait un discours que je trouvais très juste, en fait, par rapport à ça. Très, très juste. Le président Macron, j'ai trouvé ça super.
Monde Numérique :
[
23:37] L'analyse est parfaite.
Grégory Renard:
[
23:39] Ah oui, moi, j'étais comme ça.
Monde Numérique :
[
23:40] L'analyse est parfaite. Maintenant, les solutions...
Grégory Renard:
[
23:45] Il va falloir les mettre en place.
Monde Numérique :
[
23:47] Oui, si c'est pour dire on va tout verrouiller, on va tout contrôler, il va falloir la carte d'identité pour aller sur X.
Grégory Renard:
[
23:55] Est-ce que ce sera utile en plus ? En fait, la vérité va se trouver quelque part au milieu. Regarde ce qui est en train de se passer. Tu as des nations qui ont appelées, je pense que c'est l'Australie, où je ne me souviens plus, qu'ils ont quasiment dit voilà, maintenant, les jeunes en dessous de tel âge...
Monde Numérique :
[
24:13] Interdit au moins de 15 ans, oui, l'Australie.
Grégory Renard:
[
24:16] Regarde de mon côté étant papa en dessous d'un certain âge on est très vigilants en fait il.
Monde Numérique :
[
24:23] Faut un minimum de règle Grégory, je ne vais pas te lâcher on était sur la fin de la réponse de ChatGPT, revenons au début, quand ChatGPT me répond, ah ça c'est une super, idée, une super question ça on est complètement dans la psychofancy et ça veut dire quoi ? Ça veut dire que OpenAI, enfin, comment dire, ce n'est pas forcément volontaire de la part d'OpenAI que ChatGPT s'exprime comme ça. C'est presque un biais, en quelque sorte ?
Grégory Renard:
[
24:53] Ça peut l'être, mais pas l'être. En fait, tu vois, c'est plus complexe que ça. Je suis désolé. Je te fais des réponses qui ne sont pas très...
Monde Numérique :
[
24:58] Ah, mais on y va, on y va, on est à fond.
Grégory Renard:
[
25:01] Mais l'idée, là, c'est qu'il y a une data qui a été collectée et en fait, le modèle a appris des comportements des humains entre eux, en fait. Et donc, il reproduit ce type de comportement de par le fait ton comportement, tu lui donnes vie au travers des mots qui sont alignés les uns à la suite des autres. Et donc lui, il voit typiquement ce comportement. Donc, oui, et je pense que ça pourrait être intéressant d'avoir des... C'est un peu la tendance de Grock à la base. Quand Elon Musk est parti sur Grock, il était en mode, Grock ne sera pas là pour vous faire plaisir, en fait. Et d'ailleurs, je vous invite à tester, à les voir sur différents modèles. Je trouve qu'aujourd'hui, les modèles les closed source models font vraiment un bon job et les dernières générations d'open source également.
Monde Numérique :
[
25:48] Qu'est-ce que tu en penses de Grok ?
Grégory Renard:
[
25:52] Écoute, je trouve que c'est vraiment un très bon modèle, aussi bon que les autres. Maintenant, on peut être d'accord ou pas d'accord. Moi, je le regarde d'un point de vue technique et je me détache volontairement. Tu sais, je suis un technicien en fait. Donc, je regarde le côté technique. Les équipes ont fait un job vraiment très qualitatif. Maintenant, je ne suis pas toujours d'accord sur la productivisation. On revient à la notion, tu fais des voitures qui font 500 km heure, mais quand tu les mets sur la route, est-ce que tu mets des ceintures de sécurité ? Je trouve qu'aujourd'hui ils font partie des tops exactement comme OpenAI et les autres voire dépassent sur certains éléments sur les benchmarks de software engineering tout ce qui est coding qui a transformé mon métier, quand je vois aujourd'hui j'ai des ratios de plus de 700% de production de lignes de code tu te dis c'est complètement dingue tu changes complètement la façon dont tu travailles, je t'enverrai sur En fait, j'avais écrit il y a deux ans quasiment un livre blanc sur le travail, où j'avais fait un peu le constat de comment moi j'ai vécu la transformation de mon métier par l'IA.
Grégory Renard:
[
27:01] Je pense qu'on est face à un enjeu majeur qui est en train de se passer maintenant, de transformation du travail et de la façon dont on travaille. Donc pour revenir sur ces acteurs, je pense qu'aujourd'hui tu as quatre grands acteurs, Bon, je ne vais pas te cacher qu'en tant que papa, ça me dérange un peu quand le modèle prend des comportements. Donc après, c'est une personnalité que tu ajoutes au-dessus. Donc le modèle de base, après tu vas ajouter des personnalités, des choses qui pour moi ne sont pas acceptables. La séduction d'enfants ou ce genre de choses, on parlait de la sextortion, ce genre d'éléments. Il faut être très vigilant et il ne faut pas être dupe en tant que parent. S'il vous plaît, soyez vigilant. En fait, regardez comment vos enfants utilisent ces technologies. Parce que jusque-là, c'était des humains qui faisaient ce genre d'extorsion indirectement au travers des réseaux sociaux et co. Mais maintenant, avec la machine, tu peux y arriver assez facilement.
Grégory Renard:
[
28:00] S'il vous plaît, soyez vigilants.
Monde Numérique :
[
28:02] Oui, soyez vigilants. C'est paradoxal. Il faut être vigilant, mais il faut aussi pratiquer. Être vigilant, ça ne veut pas dire tourner le dos à tout ça. Au contraire, ça veut dire plonger à corps perdu quelque part pour en être conscient.
Grégory Renard:
[
28:14] Mais en même temps je pense que t'as une conscience qui est en train de monter les gens s'en rendent compte et merci le travail que tu fais également pour, rendre ce message audible pour le plus grand nombre parce que c'est ça qui est important à la fin c'est que les gens puissent être au courant, avoir l'information c'est rendre les sujets pédagogiques que les gens aient envie de comprendre, parce qu'en fait tu te rends compte qu'à la fin c'est, Tout le monde peut le faire bien. Une des guidances que j'aurais envie de donner, c'est de suivre votre esprit critique. C'est-à-dire ne prenez pas de manière directe tout ce qui va arriver de ces outils, parce que ce sont des outils.
Monde Numérique :
[
28:57] Ce sont des outils.
Grégory Renard:
[
28:58] Ni plus ni moins.
Monde Numérique :
[
29:00] Qu'est-ce que tu penses de l'utilisation, justement, de ChatGPT ou d'un chatbot d'IA, quel qu'il soit, dans un but, on va dire, de soutien psychologique, comme ça se fait de plus en plus. Alors, tu l'as dit, tu n'es pas un spécialiste des sciences humaines, mais bon...
Grégory Renard:
[
29:18] Voilà, je ne suis pas un spécialiste des sciences humaines. Je vais te donner mon point de vue, je ne suis pas très très chaud. Donc moi, personnellement, mais c'est mon point de vue, c'est un langage que moi et pas forcément ma discipline, mon domaine, mon industrie et tout ça. Moi, personnellement, je ne suis pas très chaud. Je pense qu'il faut encore y aller mollo et peut-être plutôt encore échanger avec des humains. Mais il est clair qu'à un moment donné, on va arriver avec des machines qui pourront aider globalement des premiers niveaux par rapport à ça. On a fait, je te donne le cas d'un de mes amis très proches ici, son fils autiste, très compliqué de communiquer, mais son fils adore la technologie. Et on a travaillé avec lui pour justement monter un boat qui aide son fils à s'exprimer. Le comportement a complètement changé. Et donc, tu vois, ça peut être bénéfique. Et c'est pour ça que typiquement, chez Everyone That I, on n'essaye pas seulement avec toute notre équipe. Donc, je t'ai expliqué les quatre cofondeurs, mais sur le site, on est, je ne sais pas, maintenant une trentaine à peu près. Donc, rejoignez-nous si vous voulez apprendre parce que tu disais tout à l'heure, on fait de l'éducation pour les parents. Mais non, non, non, pas du tout. D'abord, on a monté une coalition internationale, 14 pays, les grands acteurs de qui on a gagné la confiance. On arrive à être autour de la table ensemble. On ne pointe pas du doigt. On n'est pas en train de dire.
Grégory Renard:
[
30:38] Ensemble. Parce qu'on ne sait pas. Et donc, on cherche tous la fameuse ceinture de sécurité cognitive pour aider.
Grégory Renard:
[
30:45] Deuxième axe des formations pour enseignants et on va dire pour l'école. Donc typiquement, là, l'équipe du moins, en fait, Anne-Sophie, Céline et Mathilde ont joué il n'y a pas longtemps dans une école pour 300 étudiants où ils se font des workshops pour tenter d'éduquer les enfants dans l'utilisation au quotidien. Et ça, c'est génial parce que l'enfant ressort de là et dit, ah ben, je n'avais pas pensé à ça et dernièrement, Suite à des discussions qu'on a eues ensemble et à un travail que j'avais fait en amont pas mal avec Céline également sur l'éducation à les enfants, et je t'en parlerai après, comment mon fils utilise, du moins mon fils, mais également mes filles. Mais lui, c'est vraiment particulier parce qu'il est en plein au moment où il en a vraiment le plus besoin. Et également, en fait, on essaye de créer des outils qui vont aider à accélérer les deux premiers chantiers ou piliers de F1 et qui peuvent potentiellement être utilisés demain par le grand public. Et pour revenir, tu vois, typiquement sur mon fils, tu peux imaginer les pauvres, je fais l'IA avant qu'ils soient tous nés.
Grégory Renard:
[
31:51] Donc, je les ai pas mal formés au sujet et mon fils, qui vient de rentrer à l'université, donc en maths, donc il est dans des universités qui est une des plus avancées au niveau mondial en maths, et je lui dis, écoute, moi j'ai fait les maths, je te garantis que j'en ai chéé, donc courage, je suis content que tu veuilles le faire, mais que la force soit avec toi. Premier truc qu'il fait, il arrive, il m'appelle, il dit, papa c'est bon, j'ai récupéré tous les PDF de tous les cours, je me suis créé mes IA sur chaque cours, j'ai commencé à leur donner mon profil où j'en étais, et de leur dire où sont mes points de faiblesse, comment je dois travailler, comment je dois m'améliorer. Premier mid-term, il cartonne.
Monde Numérique :
[
32:30] Ah ouais. Donc il s'est servi de l'IA comme coach, comme prof, pas prof, mais comment on appelle ça, répétiteur.
Grégory Renard:
[
32:38] Comme un personal tutor. Et t'as des outils qui sont superbes, qui sont en ligne, encore une fois, rester critique, éduquer vos enfants. Je te donne le cas. Nous, ce qu'on fait avec mon épouse et nos enfants, et maintenant beaux enfants, c'est à Noël, tous les ans, d'abord on fait nos objectifs de famille individuelle, mais après chacun fait une présentation aux autres. Donc, ils couvrent tous les ans et ils se tapent une formation à comment j'utilise l'IA au quotidien dans ma vie.
Monde Numérique :
[
33:11] Ah ouais, d'accord. Ah, sympa les réveillons chez les renards.
Grégory Renard:
[
33:16] Ah oui, c'est sympa.
Monde Numérique :
[
33:17] Bon, c'est cool.
Grégory Renard:
[
33:19] Est-ce que ça aide un peu ? Regarde des outils, tu as des outils super sympas en ce sens-là qui émergent de plus en plus. Va sur mon site et tu verras dans la partie Autium of Work où je parle du travail, comment ça va transformer le travail comment également en tant qu'entreprise, tu peux mettre lien en production et que ça marche pour de vrai parce que là les rapports commencent à sortir maintenant et si aujourd'hui je visais un rapport qui est vraiment super sympa où plus de 900, VP ont été interrogés avec des productivités pour autant que ce soit bien impliqué et j'ai utilisé par exemple sans faire de pub pour autant mais Notebook LLM Notebook LLM de Google.
Monde Numérique :
[
34:01] Oui bien sûr pardon, Notebook LLM C'est mon grand ami.
Grégory Renard:
[
34:04] Des formations. Mais voilà, donc tu peux en parler mieux que moi en fait. Moi, j'utilise de temps en temps mais ça te crée un mind map, ça te crée des cartes pour faire de la révision.
Monde Numérique :
[
34:16] Oui, on lui donne la documentation soit sous forme de documents, PDF, des liens, etc. Et puis lui, il nous sort un petit podcast audio ou bien des cartes, même des présentations vidéo maintenant et tout. C'est absolument incroyable.
Grégory Renard:
[
34:29] Tu vois, ça peut être un outil formidable pour vous en tant qu'apprentissage Parce que, que ce soit pour les enfants ou pour les adultes, il faut y aller. C'est comme si tu disais, je suis comptable et je ne prends pas l'ordinateur. Ou je suis financier et je ne prends pas l'ordinateur et le spreadsheet. Ah non, tu y vas à fond parce qu'autrement, on change de métier, quoi. Donc, il faut que vous preniez le contrôle de ces outils, que vous gardiez l'esprit critique. Que ce soit très, très clair, en fait, là-dessus. Et ça va bien se passer, en fait. Et vous allez vous régaler.
Monde Numérique :
[
35:02] Merci beaucoup, Grégory Renard.
Grégory Renard:
[
35:05] Avec plaisir, Jérôme.
Monde Numérique :
[
35:06] Spécialiste de l'IA et puis surtout cofondateur de everyone.ai. On retrouve le lien, bien sûr, en description de cet épisode. J'étais ravi de te recevoir dans le monde numérique. et puis on aura l'occasion très certainement de se reparler en tout cas on comprend ton message et j'espère qu'il est bien passé on est là pour le relayer merci Grégory.