Catégorie : Régulation de la sécurité IA

New York impose des règles strictes pour la sécurité des IA avancées

New York est sur le point d’introduire l’un des premiers lois réglementant les modèles d’IA avancés aux États-Unis. La loi RAISE (Responsible AI Safety and Education) exigerait des développeurs d’IA, tels qu’OpenAI et Google, qu’ils publient des protocoles de sécurité avant de rendre leurs modèles disponibles au public.

Read More »

Agents de garde : La clé pour une IA autonome sécurisée

Les agents gardiens émergent comme des outils essentiels pour surveiller et gérer le comportement des IA autonomes. Gartner prédit une adoption croissante de ces agents dans les environnements d’entreprise, soulignant la nécessité d’une gouvernance solide pour atténuer les risques associés.

Read More »

Les risques invisibles de l’IA : une législation inadaptée

L’objectif de la loi RAISE de l’État de New York, qui vise à protéger les personnes contre les dangers de l’IA, est louable. Cependant, en supposant que les modèles d’IA sont le principal point de levier pour garantir la sécurité, la loi risque de transformer un défi technique en un fardeau bureaucratique.

Read More »

Risques de sécurité croissants liés à l’IA agentique

L’IA agentique, qui fonctionne avec un haut degré d’autonomie, présente des risques de sécurité croissants en raison de son interaction sans supervision humaine. Les organisations doivent renforcer leurs contrôles de sécurité pour suivre le rythme de l’innovation en matière d’IA.

Read More »

L’incertitude juridique autour de la loi sur l’IA du Colorado

La loi sur l’intelligence artificielle du Colorado, qui a été adoptée en 2024, vise à établir des obligations de conformité pour les systèmes d’IA à haut risque. Cependant, l’échec de l’adoption du projet de loi SB318 laisse de nombreuses incertitudes pour les employeurs en matière de conformité.

Read More »

Niveaux de sécurité de l’IA : Où en sommes-nous ?

Récemment, j’ai eu un débat engageant avec mon équipe sur les niveaux de sécurité de l’intelligence artificielle (ASL). Chaque ASL marque un niveau différent de capacité et de risque de l’IA, allant de l’ASL-1, où des modèles plus petits avec un risque minimal existent, à l’ASL-4, où les choses deviennent spéculatives.

Read More »