[
0:01] Alors que l'intelligence artificielle générative s'installe partout,
[
0:05] eh bien, il y a un énorme problème. Nous avons un gros problème, c'est que les IA ne sont pas fiables. Elles sont même de moins en moins fiables, et on peut même craindre qu'elles ne le deviennent jamais. On appelle ça les hallucinations. Alors, hallucination, c'est le mot poli pour dire que les IA racontent n'importe quoi. Par exemple, quand elles inventent une citation ou une bataille historique qui n'a jamais existé, ou qu'elle vous parle d'une actualité qu'elle a inventée de toutes pièces. Le problème est connu depuis l'avènement de Chagipiti. Au début, ça faisait rire, mais aujourd'hui, ça commence carrément à devenir inquiétant, car l'intelligence artificielle s'immisce partout, à la fois dans nos vies personnelles et dans nos vies professionnelles. Alors pourquoi les IA hallucinent-elles ? Eh bien, il y a plusieurs raisons techniques. D'abord, par exemple, des divergences dans les données d'entraînement qui conduisent le modèle à faire des associations incorrectes. Ou bien encore une modélisation imparfaite, c'est-à-dire que les modèles génératifs, comme ceux de GPT.
[
1:04] Qui sont conçus pour prédire le mot suivant dans une séquence de mots, peuvent être amenés à deviner des informations qui ne sont pas disponibles, c'est-à-dire à les inventer. Ou encore d'autres raisons techniques, comme la mauvaise qualité ou l'absence carrément de données suffisantes pour l'entraînement. Le pire, c'est que plus les intelligences artificielles sont puissantes et plus elles hallucinent. C'est ce qu'a mis en évidence récemment le New York Times, qui a publié un rapport détaillé montrant à quel point on en était arrivé. Par exemple, le modèle O3 de Chagipiti atteint un taux d'hallucination de 33%, et le modèle O4 Mini hallucinerait lui à 48%. Une véritable machine à mensonges. C'est d'autant plus dramatique alors que les IA commencent à remplacer petit à petit les moteurs de recherche. Alors quels sont les risques ? Eh bien, ils sont nombreux et ils sont liés à toutes les applications de l'IA. Ça peut être en matière d'information, les médias qui peuvent être amenés à publier de fausses citations, dans le domaine de la justice, des avocats se sont fait piéger avec des argumentaires inventés ou en tout cas basés sur des lois qui n'existaient pas.
[
2:14] Des médecins qui se servent de l'IA et qui pourraient être amenés à effectuer des diagnostics erronés l'IA pourrait être une super machine à engendrer des conspirationnistes Face à ce problème, les entreprises concernées tentent de réagir. OpenAI et Google reconnaissent qu'il y a un souci et elles travaillent activement pour tenter de trouver des solutions. OpenAI a mis en place des techniques telles que l'apprentissage par renforcement avec Retour Humain pour aligner les réponses du modèle avec les attentes humaines et donc réduire les hallucinations. Google estime que la réduction des hallucinations est une tâche fondamentale pour ces modèles, comme Gemini, et dans tous les cas, une petite mise en garde figure toujours en bas de la page, en petit caractère, pour nous inciter à être prudents. Le problème, c'est que ces hallucinations pourraient bien être un mur impossible à surmonter. Selon certains experts, comme Yann Lequin de Meta, ça ne va pas s'arranger, car en fait, l'hallucination, c'est inhérent à la technologie même des IA génératives. Alors, l'industrie de l'IA serait-elle carrément en train de foncer dans le mur sans que personne ne sache appuyer sur le frein.
[
3:24] Quant à nous, pauvres utilisateurs, que faire ? Eh bien, pour minimiser les risques liés aux hallucinations, bien sûr, toujours vérifier les informations.
[
3:33] Croiser les réponses de l'IA avec des sources fiables et reconnues, être particulièrement prudent lorsqu'il s'agit de domaines sensibles comme la santé, le droit, la finance, etc.
[
3:44] Et puis avoir une utilisation responsable, être conscient des limites des modèles d'IA, Ça ne veut pas dire qu'il ne faut pas les utiliser, elles sont notamment très utiles pour brasser des données qu'on leur fournit directement. Mais en revanche, et on l'a toujours dit dans ce podcast, Chajipiti n'est pas une source fiable d'informations et il n'est pas dit qu'il puisse le devenir un jour. Bref, alors que l'IA donne l'impression de nous rendre toujours plus intelligents jour après jour, en réalité, elle est peut-être en train de nous rendre de plus en plus bêtes.