Jour : avril 24, 2025

Régulation de l’IA : Vers une responsabilité accrue dans les services financiers

Le Chartered Insurance Institute (CII) a appelé à des cadres de responsabilité clairs et à une stratégie de compétences à l’échelle du secteur pour guider l’utilisation de l’intelligence artificielle (IA) dans les services financiers. Il a souligné que les professionnels doivent être prêts à assumer la responsabilité des résultats des applications d’IA, que ce soit par leur conception ou par un suivi continu.

Read More »

L’essor de la réglementation de l’IA dans la santé en APAC

La réglementation de l’intelligence artificielle (IA) dans la région Asie-Pacifique est encore naissante et repose principalement sur des cadres réglementaires existants. Les techniques d’IA, telles que l’apprentissage automatique et le traitement du langage naturel, posent des défis liés aux biais, à la sécurité et aux questions éthiques.

Read More »

Nouveaux défis législatifs pour l’IA à New York

Au début de 2025, New York a rejoint d’autres États pour réglementer l’intelligence artificielle (IA) au niveau de l’État, en introduisant le projet de loi NY AI Act. Ce projet de loi vise à prévenir la discrimination algorithmique en régulant l’utilisation de certains systèmes d’IA, notamment dans l’emploi.

Read More »

Gérer les Risques de l’Intelligence Artificielle

L’article discute des risques associés aux systèmes d’intelligence artificielle et de l’importance d’une gouvernance responsable. Il souligne que les modèles d’IA doivent être gérés efficacement pour éviter des erreurs qui pourraient avoir des conséquences juridiques et éthiques graves.

Read More »

La Loi Fondamentale sur l’IA en Corée : Un Nouveau Cadre Réglementaire

La Corée du Sud se positionne en tête de la réglementation de l’IA en Asie avec l’adoption de la loi sur le développement de l’intelligence artificielle et l’établissement de la confiance, ou la loi fondamentale sur l’IA, le 26 décembre dernier. Cette législation révolutionnaire fait de la Corée du Sud le premier marché asiatique à établir un cadre juridique complet pour l’IA.

Read More »

Défis réglementaires de l’IA et résilience opérationnelle

Le règlement sur l’IA de l’UE et la DORA imposent une nouvelle complexité aux entités financières, nécessitant une approche basée sur les risques pour évaluer l’impact financier. Il est essentiel de comprendre comment ces réglementations interagissent et d’être prêt à quantifier les risques associés à l’utilisation de l’IA.

Read More »

Réguler l’IA : Défis et Perspectives Transatlantiques

L’intelligence artificielle (IA) est devenue l’une des forces technologiques les plus conséquentes de notre époque, capable de redéfinir les économies et les sociétés. Les gouvernements démocratiques sont confrontés à un défi déterminant : comment tirer parti des avantages potentiels de l’IA tout en préservant les libertés civiles et les valeurs démocratiques.

Read More »

Révolutionner l’IA en Europe : Vers des Gigafactories Innovantes

La Commission européenne souhaite réduire les obstacles au déploiement de l’intelligence artificielle (IA) afin de mieux préparer les entreprises européennes à la concurrence mondiale. Dans sa nouvelle stratégie, elle prévoit de simplifier les règles, de promouvoir les investissements et d’élargir massivement le développement de ses propres centres de données.

Read More »

Gestion proactive des risques de confidentialité dans l’IA

BigID a lancé la gestion des risques de confidentialité liés à l’IA pour aider les organisations à gérer les risques de confidentialité des données tout au long du cycle de vie de l’IA. Grâce à des évaluations automatisées et des contrôles de confidentialité actionnables, BigID permet aux entreprises de gouverner l’IA de manière responsable tout en restant en avance sur les réglementations en évolution rapide.

Read More »