Jour : janvier 29, 2026

Gestion des risques liés à l’IA en milieu professionnel

Les outils d’intelligence artificielle, notamment l’IA générative, sont de plus en plus couramment utilisés en milieu professionnel, souvent de manière non encadrée par les employeurs. Malgré l’absence d’une réglementation claire, il est essentiel pour les employeurs de mettre en place des politiques et des pratiques pour gérer les risques juridiques, éthiques et opérationnels liés à cette utilisation.

Read More »

Partenariat stratégique pour l’innovation en santé numérique

Home Control s’associe à NTU Singapour pour renforcer la technologie de base et la collaboration en R&D, accélérant le déploiement de solutions AIoT dans le secteur des soins de santé à domicile. Cette collaboration vise à explorer des solutions de santé activées par l’IA et à établir une plateforme de soins personnels sécurisée.

Read More »

Lois sur l’IA en Corée du Sud : Un premier pas vers la régulation mondiale

La Corée du Sud a lancé un ensemble de lois sur l’IA, considéré comme le plus complet au monde, visant à réglementer le contenu généré par l’IA. Cependant, ces lois ont rencontré des résistances de la part des start-ups technologiques locales et des groupes de la société civile, qui critiquent leur portée, jugée insuffisante ou excessive.

Read More »

Intelligence artificielle au service de la protection des océans

Une équipe européenne dirigée par AZTI—Marine and Food Research (Espagne) a développé un cadre établissant trois piliers pour que l’IA marine soit fiable, éthique et scientifiquement robuste. Ce cadre propose des critères pratiques pour garantir que l’IA renforce les preuves scientifiques et la confiance dans le secteur marin.

Read More »

Transparence du contenu généré par IA : le nouveau code de pratique de l’UE

Le Bureau de l’IA de l’UE a publié son premier projet de code de pratique sur la transparence du contenu généré par l’IA, proposant des lignes directrices volontaires pour le marquage et l’étiquetage des sorties d’IA. Ce code vise à garantir que les utilisateurs sachent quand un contenu est généré ou manipulé par l’IA, conformément aux obligations de l’article 50 de la loi sur l’IA, applicable dès août 2026.

Read More »

La fracture de conformité : Qui peut suivre la loi sur l’IA en Corée ?

L’ère de la réglementation de l’IA en Corée est passée d’un principe à une pratique concrète, révélant une division entre les équipes capables de structurer la gouvernance en processus et celles qui en souffrent. La nouvelle loi impose transparence des étiquettes et gestion des risques pour les systèmes d’IA à fort impact, mais seulement 2 % des startups en IA se préparent réellement à la conformité.

Read More »