Proposition d’un cadre fédéral pour l’IA par l’administration américaine
Washington vise à remplacer les systèmes disparates des États par une seule politique fédérale en matière d’intelligence artificielle (IA). Cette initiative promet une uniformité, mais laisse les mécanismes de responsabilité peu clairs.
Objectifs du cadre proposé
L’administration américaine a dévoilé un cadre pour une politique unifiée sur l’IA. L’objectif est de centraliser l’autorité à Washington et de limiter la capacité des États à réglementer de manière indépendante l’utilisation et le développement de l’IA, ce qui pourrait affecter les initiatives réglementaires existantes au niveau des États.
La déclaration de la Maison Blanche souligne l’importance d’appliquer ce cadre de manière uniforme à travers le pays. Sinon, un mosaïque de lois étatiques divergentes pourrait freiner l’innovation américaine et sa capacité à mener la course mondiale à l’IA.
Principales directives et rôle du fédéralisme
Selon le cadre, sept objectifs principaux sont identifiés, avec une priorité sur l’innovation et l’échelle rapide de l’intelligence artificielle. Il propose également une approche fédérale centralisée qui pourrait réexaminer les normes réglementaires strictes au niveau des États. La responsabilité en matière de sécurité des enfants incombe principalement aux parents, et les exigences de responsabilité pour les plateformes restent modestes et volontaires.
En guise d’exemple, le document propose que le Congrès exige des entreprises qu’elles mettent en œuvre des mécanismes pour « réduire les risques d’exploitation sexuelle et de préjudice aux mineurs », bien que des exigences concrètes et obligatoires ne soient pas spécifiées.
Réactions et critiques
Des opposants notent que les États agissent comme des « laboratoires de la démocratie », adoptant rapidement des lois qui obligent les entreprises à respecter la sécurité et à documenter publiquement les protocoles régissant leurs systèmes d’IA. En particulier, des initiatives dans certains États exigent des grandes entreprises qu’elles soient responsables de la sécurité et de la transparence dans l’utilisation de l’IA.
Les critiques soulignent également que le cadre limite la capacité des États à réglementer les risques à l’avance et concentre la gouvernance de l’IA à Washington. Des questions se posent également quant à l’absence de mécanismes de responsabilité clairs ou de surveillance indépendante pour les dommages potentiels causés par les systèmes d’IA.
Conclusion
Les auteurs du cadre politique cherchent à formuler une « norme nationale minimale peu contraignante » qui soit favorable aux entreprises et facilite le déploiement plus rapide de l’IA dans divers secteurs. Cependant, des questions concernant la responsabilité pour les dommages potentiels et les limites de la réglementation restent des points de désaccord majeurs entre le gouvernement fédéral et les États.