Rivalité en IA : Anthropic et OpenAI s’affrontent au Super Bowl
Lorsque Anthropic et OpenAI ont porté leur rivalité au Super Bowl LX la semaine dernière, cela a marqué un tournant dans la saga de l’intelligence artificielle dans la vie américaine — non seulement en tant que technologie, mais aussi comme un point de friction culturel, politique et réglementaire. Pendant des années, les entreprises technologiques ont discrètement pénétré l’arène politique, mais la nuit de dimanche à la télévision nationale a signalé quelque chose de plus : la bataille pour la perception publique est devenue entièrement politisée.
Anthropic, surtout connu pour sa famille de modèles de langage Claude et sa mission déclarée d’étudier les propriétés de sécurité à la pointe de la technologie, a diffusé une série de publicités lors du Super Bowl qui étaient difficiles à manquer. Dans un spot largement commenté, un assistant IA change brusquement de sujet en plein milieu d’une conversation pour vendre des produits — une parodie ludique visant directement la décision controversée d’OpenAI d’introduire de la publicité dans ChatGPT. Le message de la publicité était clair : « Il y a un temps et un lieu pour les annonces. Vos conversations avec l’IA ne devraient pas en faire partie. »
OpenAI a réagi. Son président a qualifié les publicités d’Anthropic de reflet d’une « différence fondamentale dans nos visions respectives de l’IA », cadrant le différend davantage comme un affrontement entre des visions philosophiques de la technologie.
Publicité et message
Pour sa part, OpenAI a choisi un ton différent dans sa propre publicité du Super Bowl. Plutôt que de se moquer d’un rival, sa publicité était centrée sur Codex — son outil de codage IA — et l’idée que « tout le monde peut construire des choses ». Ce message était sincère, axé sur les créateurs, la créativité et l’agence économique.
Ce qui s’est déroulé sur une scène regardée par plus de 100 millions d’Américains n’était pas simplement un branding. C’était un cadrage stratégique du contrat social de l’IA : un côté avertissait contre la monétisation intrusive dans des espaces de conversation sensibles ; l’autre célébrait l’utilité et l’innovation larges. À ce stade, il est juste de dire qu’Anthropic est en avance sur les points, sinon sur la part de marché et l’impact d’image.
Implications politiques
Ce conflit d’entreprise a immédiatement débordé sur la politique. Quelques jours après le Super Bowl, Anthropic a annoncé un don de 20 millions de dollars à un groupe politique soutenant la réglementation de l’IA au niveau des États, avant les élections de mi-mandat de 2026. Ce groupe se présente comme un contrepoids à un super-PAC rival soutenu par des dirigeants d’OpenAI, qui a levé environ 125 millions de dollars pour plaider en faveur d’une réglementation moins stricte. Ce groupe soutient déjà des candidats républicains, illustrant que le concours sur la politique de l’IA traverse les lignes partisanes traditionnelles.
Tensions internes et défis
Les tensions internes au sein des laboratoires d’IA reflètent une inquiétude plus large concernant le rythme et la direction du changement technologique. Anthropic n’est pas à l’abri de critiques. Au début de février, un ancien responsable de l’équipe de recherche sur la sécurité d’Anthropic a démissionné avec un avertissement public selon lequel « le monde est en péril ». Dans sa lettre, qui a circulé largement sur les plateformes sociales, il a écrit que l’humanité approche « d’un seuil où notre sagesse doit croître en proportion de notre capacité à affecter le monde, sinon nous devrons faire face aux conséquences ».
Cette démission, visant autant la culture interne de l’entreprise que la conversation publique sur le risque lié à l’IA, a souligné un décalage. Elle a mis en évidence la tension entre les pressions concurrentielles et les valeurs de sécurité explicites que les laboratoires d’IA prétendent défendre — précisément la question à laquelle les régulateurs sont désormais confrontés.
Conclusion
Le problème est que toutes les entreprises construisant l’IA ont des incitations à avancer aussi rapidement que possible. En partie pour atteindre cet objectif mythique d’AGI, mais plus important encore, pour sécuriser le capital, l’énergie et les ressources nécessaires pour maintenir leur croissance fulgurante. Elles sont conçues pour faire exactement cela. Elles ne peuvent pas, ne veulent pas et ne s’arrêtent pas.
Gagner une bataille dans l’opinion publique peut déplacer une part de marché, mais cela ne changera pas le cours de l’avenir. Pour cela, nous aurions besoin d’un public qui soit organisé, habilité et capable de travailler dans le meilleur intérêt de ses membres. Ou, comme on l’appelait autrefois, un gouvernement fonctionnel. Ou vous pourriez simplement construire quelque chose et voir ce qui se passe.