Catégorie : IA

De zéro à l’IA responsable : déployer Gemini sur Google Cloud

Cet article Medium est un tutoriel sur le déploiement d’une application FastAPI sur Google Cloud Run qui invoque des modèles Gemini via Vertex AI tout en mettant en œuvre des principes d’IA responsable. Il démontre comment configurer des filtres de sécurité pour quatre catégories de préjudice, garantissant ainsi la modération et la sécurité du contenu dans les applications d’IA.

Read More »

Sécuriser l’IA : Guide de l’éthique des modèles linguistiques

L’essor des grands modèles de langage (LLM) a révolutionné notre interaction avec la technologie, mais ce pouvoir immense s’accompagne de responsabilités significatives. Ce guide explore les concepts fondamentaux de la sécurité des LLM, notamment les garde-fous proactifs, les risques critiques et le paysage réglementaire qui façonne notre domaine.

Read More »

La loi italienne sur l’IA entre en vigueur

Le 10 octobre 2025, l’Italie deviendra le premier État membre de l’UE à mettre en vigueur une loi nationale sur l’intelligence artificielle, devançant l’Acte sur l’IA de l’UE. La loi n° 132 de 2025 introduit des mécanismes de conformité nationaux et des pénalités criminelles pour l’utilisation nuisible de l’IA, tout en soutenant le développement local avec un fonds d’innovation de 1 milliard d’euros.

Read More »

Agentic AI révolutionne les enquêtes sur le blanchiment d’argent

Les analystes en LBC (lutte contre le blanchiment d’argent) se heurtent souvent à des processus inefficaces et à des alertes constantes, ce qui nuit à la qualité des enquêtes. Agentic AI propose une approche plus efficace en réduisant les faux positifs et en permettant aux analystes de se concentrer sur les menaces réelles.

Read More »

Comprendre la réglementation européenne sur l’IA

La loi sur l’IA de l’Union européenne est la première réglementation complète de l’intelligence artificielle au monde, introduisant un cadre à plusieurs niveaux pour classer et régir les systèmes d’IA en fonction de leur niveau de risque. Elle vise à minimiser les risques potentiels liés aux systèmes d’IA qui prennent des décisions à fort impact dans des domaines tels que l’embauche et les services publics.

Read More »

Intégration efficace des cadres NIST AI RMF et ISO 42001

Ce guide pratique montre comment intégrer le cadre de gestion des risques d’IA du NIST et la norme ISO 42001 pour construire un programme de gouvernance de l’IA cohérent. En combinant ces deux cadres, vous pouvez améliorer votre posture de risque et assurer la conformité tout en rationalisant vos opérations internes.

Read More »

Réglementations sur l’IA et emploi en Californie : ce que vous devez savoir

Le Conseil des droits civils de Californie et l’Agence de protection de la vie privée de Californie ont récemment adopté des réglementations imposant des exigences aux employeurs utilisant des systèmes de décision automatisés dans les décisions d’emploi. Les employeurs doivent se préparer à ces nouvelles lois en comprenant les technologies utilisées dans leurs départements RH et en développant des politiques pour respecter les exigences légales pertinentes.

Read More »

Modèles opérationnels : l’alliance entre gouvernance et valeur de l’IA

Les capacités de ModelOps permettent une gouvernance responsable de l’IA, une conformité réglementaire et un déploiement évolutif des modèles. Alors que l’IA continue d’évoluer, la distinction entre les organisations qui expérimentent simplement l’IA et celles qui génèrent une valeur durable dépendra de leurs capacités ModelOps.

Read More »

Normes et enjeux de la conformité en intelligence artificielle

La conformité à l’IA décrit l’adhésion aux normes légales, éthiques et opérationnelles dans la conception et le déploiement des systèmes d’IA. Avec l’adoption croissante de l’IA, il est essentiel de garantir que les systèmes d’IA sont non seulement légaux mais aussi sécurisés, équitables et transparents.

Read More »