Anthropic vise la transparence avec la Constitution de Claude
La révision par Anthropic de son document constitutionnel pour Claude vise à renforcer sa position en tant que fabricant de modèles d’IA responsables et axés sur la sécurité, tout en soulignant l’importance de la transparence et de l’ouverture pour les entreprises.
Le 21 janvier, le fabricant de modèles d’IA générative a introduit une nouvelle Constitution de Claude, qui diffère de l’ancien document sur l’IA constitutionnelle publié en 2023. La constitution originale fournissait un ensemble de règles à suivre pour la famille de modèles fondamentaux Claude.
Principes généraux et hiérarchie des priorités
La nouvelle constitution établit des principes généraux, met l’accent sur le raisonnement et introduit un système de priorités à quatre niveaux qui hiérarchise la sécurité, l’éthique, la conformité et l’utilité. Ce document justifie les raisons pour lesquelles Claude doit suivre certaines règles et laisse entendre qu’il pourrait y avoir une forme de conscience derrière les modèles.
Transparence et confiance
Avec la Constitution de Claude, Anthropic vise à offrir une plus grande transparence, rassurant ainsi les entreprises sur le fait que le fournisseur se soucie de maintenir son modèle dans des limites appropriées. Cela est particulièrement important dans un contexte où certains fournisseurs de modèles n’ont pas empêché leurs modèles d’agir de manière inappropriée.
Selon des experts, la volonté d’Anthropic de livrer des IA avec un ensemble de principes est quelque chose sur lequel les entreprises peuvent construire leur confiance pour développer leurs logiciels.
Raisonnement et jugement
Les modifications apportées à la nouvelle constitution visent à donner à Claude une raison d’agir d’une certaine manière, plutôt que de simplement lui dicter quoi faire. L’objectif est d’aider le modèle à faire preuve de bon jugement dans des situations nouvelles et imprévues en appliquant des principes généraux, plutôt qu’en suivant des règles spécifiques.
Cela pourrait conduire à un comportement plus fiable dans des cas extrêmes et rares où les résultats du modèle ne sont pas prévisibles, ce qui est crucial pour les déploiements en entreprise, où des scénarios inattendus sont inévitables.
Implications et risques
Malgré les principes offerts par Anthropic, il est essentiel que les entreprises ne voient pas cela comme une garantie que le modèle ne déviera jamais de son chemin. Quel que soit le cadre éthique, l’expertise spécifique au domaine reste nécessaire. De plus, les principes d’Anthropic pourraient limiter la liberté créative, laissant les entreprises confrontées à une vision restreinte de Claude.
Conclusion
La Constitution de Claude d’Anthropic représente un pas significatif vers une plus grande transparence et responsabilité dans le domaine de l’IA. Alors que les entreprises continuent de naviguer dans les défis liés à l’éthique et à la sécurité des modèles d’IA, il sera crucial de suivre ces développements pour comprendre comment les principes de Claude peuvent influencer l’avenir des déploiements d’IA.