La dernière IA d'OpenAI : un pas de plus vers le futur de l'intelligence artificielle

OpenAI dévoile une nouvelle version de ChatGPT encore plus réaliste. Cependant, l'usage d'une telle technologie risque de nous entraîner vers de nouveaux problèmes. 

"Hum... oui, pourquoi pas... Ah ah !". Demain, votre assistant personnel vous parlera comme ça et vous le trouverez sympathique. D'ailleurs, ce n'est pas pour demain mais c'est une réalité depuis hier, 13 mai 2024, avec la dernière version de l'intelligence artificielle d'OpenAI, ChatGPT 4o ("o" signifie omnium). Cette nouvelle version du célèbre assistant intelligent est capable de converser oralement en fournissant des réponses extrêmement rapidement, avec une voix hyper réaliste, qui reproduit même les intonations et les hésitations d'un être humain. Il est possible de l'interrompre, comme on le ferait avec une personne réelle. L'IA peut générer des réponses qui tiennent compte de subtilités linguistiques et de nuances, offrant des dialogues qui ressemblent davantage à des échanges humains. Ce n'est pas tout, ChatGPT 4o intègre des capacités multimodales en entrée, ce qui signifie qu'il peut comprendre ce qu'on lui "montre" via la caméra du smartphone. 

Une impression troublante

On pouvait déjà converser oralement avec ChatGPT via l'application mobile, mais cette nouvelle version du modèle va bien plus loin en termes de réalisme et d'anthropomorphisme. Si l'on en croit les vidéos de démonstration, on a vraiment l'impression de dialoguer avec un humain qui répond au quart de tour. Imaginez un truc comme ça au téléphone sans être prévenu qu'il s'agit d'un robot ! On ne peut s'empêcher de penser au film "Her", dans lequel le héros s'amourache de son assistant vocal. L'impression est troublante et le risque de confusion avec une personne réelle parait immense.

Nous entrons pour de bon dans une nouvelle dimension en matière de relations avec les IA. Ce ne sera pas sans conséquence. 

Interagir avec une IA très réaliste peut avoir un impact émotionnel significatif, surtout si l'utilisateur développe un attachement ou une dépendance émotionnelle envers l'IA, même s'il s'agit d'une machine. C'est toute la question risques liés aux avatars hyper réalistes, évoquée notamment par la chercheuse Laurence Devillers dans cette interview

Vallée de l'Étrange

Au-delà, il y a un risque d'effet pervers. Nous risquons d'être confrontés au phénomène psychologique connu sous le nom de vallée de l'étrange (uncanny valley en anglais). Ce concept, introduit par le roboticien japonais Masahiro Mori en 1970, décrit une réaction de malaise ou de répulsion que les gens ressentent face à des robots ou des représentations humanoïdes qui ressemblent presque, mais pas tout à fait, à de véritables êtres humains. 

Lorsque l'IA atteint un niveau de réalisme élevé mais n'arrive pas à reproduire parfaitement les comportements humains, cela peut créer une dissonance cognitive. et générer un sentiment de malaise. En effet, si les utilisateurs commencent à percevoir l'IA comme trop humaine mais avec, pourtant des imperfections évidentes, cela peut mener, paradoxalement, à une perte de confiance envers la technologie. Les attentes élevées, non satisfaites, risquant de provoquer une frustration et une méfiance accrues. 

Conclusion

La sortie de ChatGPT 4o est une avancée majeure dans le domaine de l'intelligence artificielle conversationnelle mais elle soulève un nouveau coin de la couverture qui recouvre l'inconnu de l'IA. Une fois de plus, cette avancée montre à quel point l'avenir de l'IA, aussi prometteur soit-elle, requiert une réflexion éthique et une gestion prudente des attentes et des expériences utilisateur. Il est important de demeurer conscients des implications psychologiques et sociétales qui en découlent. 

Partager cet article

Jérôme Colombain
Author
Jérôme Colombain
Journaliste