Catégorie : Régulation de la sécurité IA

L’Institut de Sécurité de l’IA en Chine : Un Nouveau Chapitre

L’Association chinoise pour la sécurité et le développement de l’IA (CnAISDA) a été créée pour représenter la Chine dans les discussions internationales sur les risques liés à l’intelligence artificielle. Elle souligne la volonté de la Chine de s’engager sur des questions de sécurité IA tout en poursuivant ses objectifs de croissance économique.

Read More »

New York impose des règles strictes pour la sécurité des IA avancées

New York est sur le point d’introduire l’un des premiers lois réglementant les modèles d’IA avancés aux États-Unis. La loi RAISE (Responsible AI Safety and Education) exigerait des développeurs d’IA, tels qu’OpenAI et Google, qu’ils publient des protocoles de sécurité avant de rendre leurs modèles disponibles au public.

Read More »

Agents de garde : La clé pour une IA autonome sécurisée

Les agents gardiens émergent comme des outils essentiels pour surveiller et gérer le comportement des IA autonomes. Gartner prédit une adoption croissante de ces agents dans les environnements d’entreprise, soulignant la nécessité d’une gouvernance solide pour atténuer les risques associés.

Read More »

Les risques invisibles de l’IA : une législation inadaptée

L’objectif de la loi RAISE de l’État de New York, qui vise à protéger les personnes contre les dangers de l’IA, est louable. Cependant, en supposant que les modèles d’IA sont le principal point de levier pour garantir la sécurité, la loi risque de transformer un défi technique en un fardeau bureaucratique.

Read More »

Risques de sécurité croissants liés à l’IA agentique

L’IA agentique, qui fonctionne avec un haut degré d’autonomie, présente des risques de sécurité croissants en raison de son interaction sans supervision humaine. Les organisations doivent renforcer leurs contrôles de sécurité pour suivre le rythme de l’innovation en matière d’IA.

Read More »

L’incertitude juridique autour de la loi sur l’IA du Colorado

La loi sur l’intelligence artificielle du Colorado, qui a été adoptée en 2024, vise à établir des obligations de conformité pour les systèmes d’IA à haut risque. Cependant, l’échec de l’adoption du projet de loi SB318 laisse de nombreuses incertitudes pour les employeurs en matière de conformité.

Read More »