L’Homme serait-il sur le point de perdre son ultime avantage sur la machine ? D’après un document découvert par un expert en IA, Anthropic réfléchirait à donner une « âme» à son IA Claude. Amanda Askell, philosophe et membre de l’équipe technique de la startup, a confirmé que cette information et promet de divulguer de plus amples informations très bientôt.

L’intelligence artificielle peut-elle avoir une âme ? La réponse n’est pas évidente, alors même que certains réfutent l’idée selon laquelle l’être humain en possède, car l’âme n’a aucune matérialité. Il s’agit une question philosophique et théologique que la science ne pourra peut-être jamais résoudre. Pourtant, Anthropic prétend vouloir donner une « âme » à son IA Claude. Parle-t-on du même concept ou d’une extrapolation du terme « personnalité » ?

Claude aura une personnalité

Richard Weiss, un expert en intelligence artificielle, rapporte dans un article du blog Less Wrong qu’il a découvert un document fascinant qui décrit l’« âme » du modèle Claude 4.5 Opus d’Anthropic. Ce très long document d’une cinquantaine de pages définit ce que la startup appelle « les valeurs » de son chatbot. Il contient un passage intriguant intitulé « sommaire de l’âme » (soul overview) qui fait penser que l’IA aura bientôt une conscience humaine.

Sachant que les systèmes d’intelligence artificielle ont tendance à halluciner, Weiss a voulu vérifier l’authenticité de ce qu’il lisait. Il a donc interrogé plusieurs fois Claude pour s’assurer d’obtenir la même réponse. Le spécialiste a fini par recevoir un guide de 11 000 mots décrivant le comportement attendu du LLM.

Anthropic prévient contre la dangerosité des modèles d’IA

Anthropic évoque dans ce document plusieurs points et aspects liés à l’intelligence artificielle. Comme touchée par un gramme d’honnêteté, la startup avertit contre la dangerosité des modèles d’IA. Si un chatbot est assez puissant, conseille-t-elle, il faut ouvrir des « laboratoires axés sur la sécurité à la pointe de la technologie plutôt que de céder ce terrain à des développeurs moins soucieux de la sécurité ».

Anthropic considère également que dans la plupart des cas d’IA qui disjonctent, le problème vient de mauvaises valeurs, d’une connaissance de soi ou du monde insuffisante, ou d’un manque de capacité à traduire les valeurs en actions. Pour résoudre le problème, la firme veut que Claude comprenne en profondeur les objectifs, connaissances, circonstances et même le raisonnement humains afin de créer ses propres règles alignées avec les valeurs de ses créateurs.

Claude, un « humain à bien des égards, mais pas « entièrement humain »

Dans un passage final, Anthropic suggère que le chatbot pourrait avoir des émotions fonctionnelles. « Pas nécessairement identiques aux émotions humaines, mais des processus analogues qui ont émergé de l’entraînement sur du contenu généré par des humains », précise l’entreprise. La startup assure également que son modèle est une « entité véritablement inédite au monde », distincte de toutes les conceptions antérieures de l’IA ».

Selon Anthropic, « il ne s’agit ni de l’IA robotique de la science-fiction, ni de la superintelligence dangereuse, ni d’un humain numérique, ni d’un simple assistant de conversation IA ». Mais Claude serait « humain à bien des égards, puisant son inspiration dans une vaste expérience humaine », sans être pour autant « entièrement humain ».

Anthropic en dira plus bientôt

Si certains croyaient que le document résultait d’une hallucination de Claude, ce n’est pas le cas. Amanda Askell, philosophe et membre de l’équipe technique d’Anthropic, a confirmé l’existence et le nom du document. Elle a également déclaré que la version du chatbot est assez proche de l’original, qui n’est pas encore finalisé.

C’est pourquoi Anthropic n’en a pas encore fait mention publiquement. Askell promet que la firme publiera très bientôt cette version finale dans son intégralité et communiquera dessus pour expliquer notamment ce que signifie ce terme « âme ». « J’ai été touchée par les gentils mots et les réflexions à ce sujet, et j’ai hâte de pouvoir en dire beaucoup plus sur ce travail prochainement », a-t-elle écrit dans un tweet.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *