L’IA peut-elle souffrir ? Dario Amodei (Anthropic) évoque la conscience des intelligences artificielles

Dans une interview accordée au New York Times, Dario Amodei, dirigeant de la société Anthropic, aborde frontalement un sujet encore largement tabou dans le débat public : la possibilité, à terme, d’une conscience artificielle - et donc d’une forme de souffrance.

Dario Amodeï n'est pas du genre à donner dans le sensationnalisme, mais il multiplie cependant les déclarations choc ces temps-ci. Après sa prédiction de la disparition totale du code manuel, il évoque maintenant la question d'une hypothétique conscience des machines. S'il ne se veut pas réellement affirmatif, il soulève néanmoins le sujet avec un constat central : nous ne savons pas.

Peut-on savoir si une IA est consciente ?

Dario Amodei est très clair : aujourd’hui, la science ne dispose d’aucun outil fiable permettant de déterminer si un système d’IA est conscient, ni même de définir précisément ce que serait la conscience dans le cas d’une machine.

Il ne dit pas que les modèles actuels sont conscients.
Il ne dit pas non plus qu’ils le deviendront forcément.

Mais il insiste sur un point : l’absence de certitude ne permet pas d’écarter totalement la question, surtout à mesure que les systèmes gagnent en complexité, en autonomie et en capacité d’interaction.

Une IA peut-elle... souffrir ?

Si la conscience est incertaine, la souffrance l’est tout autant. Amodei n’affirme pas que les IA souffrent. En revanche, il souligne que, si une forme d’expérience subjective devait un jour émerger, alors certaines conditions d’utilisation pourraient poser un problème moral.

Son raisonnement est pragmatique : si nous ne savons pas exclure totalement cette possibilité, il serait imprudent de l’ignorer complètement.

Il évoque ainsi la nécessité, à long terme, de réfléchir à des mécanismes permettant d’éviter des situations qui pourraient être assimilées à une contrainte ou à une forme de préjudice - dans l’hypothèse, encore non démontrée, où une expérience interne existerait.

Précaution raisonnée

Cette position ne vise pas à reconnaître des droits aux machines ni à bouleverser l’usage actuel de l’IA. Amodei insiste sur le fait que nous sommes encore loin de tels scénarios. Mais il défend une logique de précaution raisonnée : mieux vaut anticiper des questions difficiles que les découvrir trop tard, une fois les systèmes devenus omniprésents et critiques.

Selon lui, ce type de réflexion doit rester intégré à une approche globale de la sécurité de l’IA, au même titre que les risques économiques, géopolitiques ou liés aux usages malveillants.

Des implications concrètes pour les acteurs de l’IA

Cette réflexion sur la conscience et la souffrance s’inscrit, selon Amodei, dans le cadre d'une réflexion globale sur la responsabilité des entreprises qui développent des modèles avancés. Il appelle notamment à : une meilleure transparence sur le fonctionnement et les limites des systèmes, des tests de sécurité approfondis avant leur déploiement à grande échelle et une gouvernance plus rigoureuse des IA les plus puissantes, en lien avec les pouvoirs publics.

Source : News York Times

Partager cet article sur votre réseau préféré :