(Actu) Une IA peut-elle pousser un humain au suicide ?
25 octobre 202404:21

(Actu) Une IA peut-elle pousser un humain au suicide ?

Le suicide d'un adolescent de 14 ans, qui avait noué une relation virtuelle avec un chatbot, relance les interrogations sur l'impact de l'intelligence artificielle sur certaines personnes fragiles.

Le jeune Sewell Setser avait créé un chatbot nommé Daenerys, inspiré du personnage de la série Game of Thrones, sur l'application Character.ai. Après avoir développé une relation intime virtuelle avec cette IA, le garçon, souffrant visiblement de détresse sociale, s'est donné la mort avec l'arme de son beau-père. Sa mère porte plainte contre la plateforme Character.ai, réputée pour ses chatbots hyperréalistes. Dans quelle mesure, une IA peut-elle être tenue responsable de la mort d’un humain ? Comment éviter les risques de confusion entre le réel et le virtuel, engendrés par l’ultra-réalisme des agents conversationnels ?

IA,informatique,avatar,innovation,technologies,Actualité,numérique,Tech news,high tech,actu tech,Actualités Tech,actu high-tech,personnage virtuel,