Les Directives de l’Oregon sur l’IA : Anciennes Lois Applicables à la Nouvelle IA

Le Bureau du Procureur Général de l’Oregon, en collaboration avec le Département de la Justice de l’État, a récemment publié des directives sur la manière dont les lois de l’État s’appliquent à l’utilisation de l’IA par les entreprises. Bien que ces directives aient été émises il y a deux mois, les avertissements qu’elles contiennent restent très pertinents.

Ces directives visent à fournir aux entreprises une direction sur les cas où l’utilisation de l’IA pourrait être régulée par les lois existantes de l’État. Parmi les lois de l’État qui pourraient s’appliquer à l’utilisation de l’IA par une entreprise, on trouve plusieurs lois de protection des consommateurs, notamment :

  • La loi sur la vie privée complète de l’État (Consumer Privacy Act)
  • L’Acte des pratiques commerciales illégales (Unlawful Trade Practices Act)
  • L’Acte sur l’égalité (Equality Act)
  • La loi sur la sécurité des données (Consumer Information Protection Act)

Points Clés des Directives

Voici quelques éléments clés à retenir des directives :

  • Notification : Les entreprises doivent veiller à ne pas violer la loi sur la vie privée complète de l’Oregon en ne divulguant pas comment elles utilisent les informations personnelles avec leurs outils d’IA. De plus, le Procureur Général pourrait considérer qu’il y a violation de l’Acte des pratiques commerciales illégales si elles ne signalent pas un « défaut matériel » d’un outil d’IA.
  • Choix : Selon la loi sur la vie privée de l’Oregon, le consentement est requis avant de traiter des informations sensibles, ce qui pourrait se produire lors de l’utilisation d’outils d’IA. Les entreprises doivent également permettre aux consommateurs de retirer leur consentement et de se désinscrire du profilage par IA pour des décisions significatives.
  • Transparence : Les directives soulignent que certaines utilisations de l’IA pourraient violer l’Acte des pratiques commerciales illégales. Par exemple, ne pas être clair sur le fait qu’une personne interagit avec un outil d’IA ou induire en erreur sur les capacités de l’IA.
  • Biais : Utiliser l’IA d’une manière qui discrimine sur la base de la race, du sexe ou d’autres caractéristiques protégées violerait l’Acte sur l’égalité de l’Oregon.
  • Sécurité : Les entreprises doivent respecter les obligations de la loi sur la sécurité des données. Si un outil d’IA intègre des informations personnelles, ou si une entreprise utilise des informations personnelles en lien avec cet outil, elle doit mettre en place des « safeguard raisonnables » pour protéger ces informations.

Ces directives sont essentielles pour les entreprises qui cherchent à intégrer l’IA dans leurs opérations tout en respectant les lois en vigueur. La compréhension de ces réglementations peut aider à éviter des violations potentielles et à garantir que l’utilisation de l’IA reste éthique et conforme aux lois de l’État.

Articles

Renforcer la sécurité des LLM : l’alignement responsable de l’IA

Ce document traite de l'alignement responsable de l'IA dans le développement de phi-3, mettant l'accent sur les principes de sécurité adoptés par Microsoft. Des méthodes de test et des ensembles de...

Contrôle des données dans l’ère des clouds IA souverains

Les nuages d'IA souverains offrent à la fois contrôle et conformité, répondant aux préoccupations croissantes concernant la résidence des données et le risque réglementaire. Dans un environnement où...

L’Alliance Écossaise de l’IA : Vers une Intelligence Artificielle Éthique

L'Alliance écossaise de l'IA a publié son rapport d'impact 2024/2025, révélant une année de progrès significatifs dans la promotion d'une intelligence artificielle éthique et inclusive en Écosse. Le...

UE AI Act : Préparez-vous au changement inévitable

L'annonce de la Commission européenne vendredi dernier selon laquelle il n'y aura pas de retard concernant la loi sur l'IA de l'UE a suscité des réactions passionnées des deux côtés. Il est temps de...

Fiabilité des modèles linguistiques : un défi à relever avec la loi sur l’IA de l’UE

Les modèles de langage de grande taille (LLM) ont considérablement amélioré la capacité des machines à comprendre et à traiter des séquences de texte complexes. Cependant, leur déploiement croissant...

Pause ou avancée : l’avenir de la réglementation de l’IA en Europe

Le Conseil européen a maintenu le calendrier de l'Acte sur l'IA malgré les pressions, affirmant qu'il n'y aura pas de pause dans sa mise en œuvre. Le Premier ministre suédois a appelé à un...

Nouvelles restrictions sur l’IA : impacts et opportunités

L'administration Trump prépare de nouvelles restrictions sur les exportations de puces AI vers la Malaisie et la Thaïlande pour empêcher que des processeurs avancés n'atteignent la Chine via des pays...

Gouvernance de l’IA : Garantir l’éthique et la transparence dans les entreprises modernes

La gouvernance de l'IA et la gouvernance des données sont essentielles pour garantir le développement de solutions d'IA éthiques et fiables. Ces cadres de gouvernance sont interconnectés et vitaux...

LLMOps : Optimisez l’IA Responsable à Grande Échelle avec Python

Dans un paysage hyper-compétitif, déployer des modèles de langage de grande taille (LLM) n'est pas suffisant ; il faut un cadre LLMOps robuste pour garantir la fiabilité et la conformité. Python, avec...