Catégorie : Conformité IA pour la sécurité

Loi californienne sur la transparence de l’IA : un tournant majeur

Le 29 septembre 2025, le gouverneur de Californie, Gavin Newsom, a signé la loi sur la transparence en intelligence artificielle de pointe. Cette loi établit un cadre juridique complet pour garantir la transparence, la sécurité et la responsabilité dans le développement et le déploiement des modèles d’intelligence artificielle avancés.

Read More »

Nouvelle législation californienne pour une IA responsable et transparente

La Californie a récemment adopté la première loi complète sur la sécurité et la transparence de l’IA aux États-Unis, connue sous le nom de loi sur la transparence de l’IA de pointe (TFAIA). Cette législation vise à établir un cadre de transparence, de sécurité et de responsabilité pour le développement et le déploiement des modèles d’IA avancés.

Read More »

Anthropic présente Petri, l’outil d’audit automatisé pour la sécurité des IA

Anthropic a lancé Petri, un outil d’audit de sécurité AI open source conçu pour tester automatiquement les modèles de langage de grande taille (LLM) pour des comportements risqués. Cet outil utilise des agents autonomes pour identifier des tendances telles que la tromperie et la divulgation d’informations sur des comportements organisationnels perçus comme répréhensibles.

Read More »

Californie adopte une loi pionnière pour la sécurité de l’IA

La Californie a franchi une étape historique en adoptant la Loi sur la transparence dans l’intelligence artificielle de pointe (SB 53), la première loi d’État aux États-Unis entièrement consacrée à la sécurité et à la responsabilité de l’IA. Cette loi exige des développeurs d’IA majeurs qu’ils publient des cadres de sécurité, rapportent les incidents graves et protègent les employés qui signalent des violations.

Read More »

Risques de sécurité liés à l’IA : les entreprises face à l’inévitable

La sécurité de l’IA dans les entreprises est mal gouvernée et fragmentée, laissant les risques critiques non gérés et les incidents liés à l’IA considérés comme inévitables. Selon le rapport d’Acuvity AI, 50 % s’attendent à des pertes de données via des outils d’IA générative dans l’année à venir, tandis que 70 % admettent ne pas avoir une gouvernance optimisée de l’IA.

Read More »

Sécuriser l’IA : Allier cybersécurité et éthique

Ces temps sont passionnants pour l’IA, alors que les entreprises intègrent les capacités de l’IA avec leurs données pour offrir de meilleurs résultats. Cependant, à mesure que les organisations intègrent l’IA dans leurs systèmes, ces données deviennent des cibles de plus en plus attrayantes pour les cybercriminels.

Read More »

Sécuriser l’IA Générative pour les Dirigeants : Stratégies Essentielles

La sécurité de l’IA générative nécessite une gouvernance solide de la part de la direction pour atténuer les risques tels que les violations de données et les échecs de conformité. Il est impératif que la sécurité de l’IA soit priorisée au niveau du conseil d’administration pour éviter les outils non autorisés et garantir une supervision adéquate.

Read More »