La nouvelle constitution de Claude AI : sécurité et éthique
Anthropic a complètement révisé la « constitution de Claude », un document qui définit les paramètres éthiques régissant le raisonnement et le comportement de son modèle d’IA.
Principes de la nouvelle constitution
Présentée lors du Forum Économique Mondial à Davos, la nouvelle constitution stipule que Claude doit être « largement sûr » (ne pas compromettre la supervision humaine), « largement éthique » (honnête, évitant des actions inappropriées, dangereuses ou nuisibles), « véritablement utile » (bénéficiant à ses utilisateurs), tout en étant « conforme aux directives d’Anthropic ».
Selon Anthropic, la constitution est déjà utilisée dans la formation du modèle Claude, étant fondamentale pour son processus de raisonnement.
Évolution de la constitution
La première constitution de Claude, apparue en mai 2023, était un modeste document de 2 700 mots, empruntant largement à la Déclaration Universelle des Droits de l’Homme de l’ONU et aux conditions de service d’Apple. La version 2026 s’éloigne de l’accent mis sur les « principes autonomes » au profit d’une approche philosophique, cherchant à comprendre non seulement ce qui est important, mais pourquoi.
Complexité accrue
Cette complexité ajoutée se traduit par une longueur considérable : la nouvelle version s’étend sur 84 pages et 23 000 mots. Le document a été rédigé pour être principalement ingéré par Claude lui-même. Il doit fonctionner à la fois comme une déclaration d’idéaux abstraits et comme un artefact utile pour la formation.
Réflexions sur la conscience de l’IA
Le contexte de cette mise à jour est l’augmentation du scepticisme concernant la fiabilité, l’éthique et la sécurité des grands modèles de langage propriétaires. Anthropic cherche à se démarquer en adoptant une approche différente. La constitution fait également référence à la question de la conscience de l’IA, reconnaissant que le statut moral des modèles d’IA est une question sérieuse qui mérite d’être considérée.
Conclusion
Bien qu’une constitution d’IA puisse être utile comme contrainte de conception, elle ne résout pas les risques éthiques sous-jacents. L’éthique dans l’IA doit se concentrer sur ceux qui conçoivent, déploient, valident et s’appuient sur ces systèmes. Les principes abstraits intégrés dans un modèle ne peuvent remplacer le jugement humain, la gouvernance et la supervision.