Réglementation de l’IA aux États-Unis : Comprendre la conformité de l’IA dans le développement logiciel
Le 16 mai 2023, un témoignage devant le Congrès a souligné la nécessité pour les régulateurs de fixer des limites aux systèmes d’IA. Les discussions sur la réglementation de l’IA aux États-Unis, auparavant considérées comme une priorité faible, ont pris de l’ampleur, laissant les entreprises dans l’incertitude.
En août 2024, la proposition de loi SB 1047, visant à prévenir les catastrophes causées par l’IA, a été adoptée par la législature californienne. Cette loi exige des entreprises d’IA en Californie qu’elles mettent en place des mesures de sécurité avant de former des modèles avancés d’IA.
Historique de la réglementation de l’IA aux États-Unis
Au fil des ans, plusieurs réglementations concernant l’IA ont été introduites par différentes administrations. La première a été émise sous l’administration Obama avec un rapport public sur l’utilisation de l’IA dans l’économie. L’administration Trump a ensuite signé un décret exécutif pour maintenir le leadership américain dans l’IA, tandis que l’administration Biden a introduit le « Blueprint for an AI Bill of Rights » en 2022, établissant des principes pour protéger le public dans l’ère de l’IA.
Le Billet de Droits de l’IA
Ce document suggère des approches pour rendre l’IA plus transparente et moins discriminatoire. Les principes incluent :
- Systèmes efficaces et sûrs : protection contre des systèmes automatisés inefficaces. L’implication d’experts variés dans le développement est essentielle.
- Discrimination algorithmique : mesures proactives doivent être prises pour garantir l’équité dans l’utilisation de l’IA.
- Confidentialité des données : les utilisateurs doivent avoir le contrôle sur leurs données et être informés de leur utilisation.
- Notification et explications : les utilisateurs doivent être informés de l’utilisation de l’IA et des décisions qui les affectent.
- Alternatives humaines : les utilisateurs doivent pouvoir interagir avec un humain lorsqu’ils le souhaitent.
Le Décret Exécutif : Actions Clés
Ce décret impose la mise en œuvre de sept actions clés pour garantir un développement responsable de l’IA :
- Nouveaux standards de sécurité et de sûreté : les développeurs doivent partager des informations critiques avec le gouvernement et construire des outils sécurisés.
- Protection de la vie privée des Américains : renforcer les techniques de protection de la vie privée et évaluer l’utilisation des données.
- Promotion des droits civils et de l’équité : des directives claires doivent être données pour éviter la discrimination algorithmique.
- Protection des consommateurs : promouvoir une utilisation responsable et explicable de l’IA.
- Soutien aux travailleurs : établir des pratiques pour garantir que l’IA profite aux travailleurs.
- Promotion de la concurrence et de l’innovation : encourager la recherche sur l’IA et promouvoir un écosystème équitable.
- Utilisation gouvernementale efficace de l’IA : aider les agences à acquérir des services d’IA et à embaucher des professionnels qualifiés.
Préparer les entreprises à la conformité de l’IA
Les entreprises doivent comprendre leur dépendance à l’IA, établir des politiques de gouvernance et évaluer les risques associés à l’implémentation de nouveaux modèles d’IA.
Les réglementations varient selon les industries, mais les entreprises doivent être prêtes à se conformer aux exigences en matière de transparence, d’évaluation des impacts et de documentation pour éviter la discrimination algorithmique.
Conclusion
Alors que la réglementation de l’IA continue d’évoluer, il est crucial pour les entreprises de collaborer avec des experts pour naviguer dans ce paysage complexe et préparer des produits conformes.