Les États en tête de l’implémentation de l’IA

A futuristic, multi-layered cityscape model with AI-driven infrastructure, where roads and buildings adapt and evolve in real-time.

Les États peuvent mener l’implémentation de l’IA, voici comment

Imaginez que vous êtes un leader technologique au niveau des États. Les récentes avancées en matière d’intelligence artificielle promettent d’accélérer l’approbation des licences pour les petites entreprises, d’améliorer l’apprentissage des élèves de K-12, ou même de standardiser la conformité entre les agences. Toutes ces promesses visent à améliorer l’expérience des citoyens de votre État.

Souhaitant déployer cette nouvelle technologie de manière responsable, vous cherchez des conseils auprès de vos pairs dans d’autres États. Cependant, les réponses varient considérablement, et en l’absence de directives fédérales, il devient rapidement évident qu’il n’existe pas de manuel standardisé. Vous devez tracer votre propre chemin avec des ressources beaucoup plus limitées.

Agilité réglementaire des États

Cette situation devient de plus en plus courante alors que les systèmes d’IA se déplacent rapidement vers des services orientés vers le consommateur. Sans action fédérale sur l’IA, les leaders des gouvernements des États portent de plus en plus la responsabilité de protéger les consommateurs contre les éventuels dommages algorithmiques tout en soutenant l’innovation responsable pour améliorer la prestation de services à leurs citoyens. Les États possèdent des avantages structurels qui les positionnent pour expérimenter des approches réglementaires.

Les cycles législatifs plus courts permettent des corrections de cap rapides, l’autorité de piloter des programmes et l’utilisation de dispositions d’expiration facilitent la révision ou le retrait de modèles de gouvernance à un stade précoce. Cela place souvent les États en tant que régulateurs les plus agiles, capables de mettre rapidement en place des garde-fous pour les technologies d’IA en évolution rapide.

Défis d’implémentation

Cependant, cette agilité réglementaire doit être accompagnée d’une capacité gouvernementale nécessaire pour réussir. Le manque actuel d’action fédérale oblige les États non seulement à adopter de nouvelles lois sur l’IA, mais également à relever d’énormes défis d’implémentation, sans l’expertise en IA généralement trouvée dans les agences fédérales ou les grands employeurs privés. Construire cette capacité au sein des gouvernements des États nécessitera des ressources et une expertise technique.

Transparence pour renforcer la confiance publique

Une des façons les plus immédiates pour les législatures des États d’améliorer la transparence est de mettre en place des inventaires d’utilisation des cas. Un inventaire d’utilisation des cas est une publication publique des outils algorithmiques et de leurs usages spécifiques. Ils divulguent quand et où les gouvernements des États utilisent des outils algorithmiques dans des transactions orientées vers le consommateur, comme les demandes de programmes sociaux.

Les bénéfices de ces inventaires sont nombreux : ils augmentent la transparence gouvernementale, fournissent des informations précieuses aux fournisseurs de produits privés, facilitent l’audit tiers et même augmentent le partage inter-agences des meilleures pratiques.

Étude de cas : défis en Californie

Bien que l’expérience fédérale démontre que les inventaires d’utilisation des cas peuvent fonctionner, elle révèle également une limitation importante : les mécanismes de transparence dépendent de l’expertise technique. En 2023, la législature de Californie a adopté un projet de loi demandant à l’État de réaliser un inventaire exhaustif de tous les systèmes de décision automatisée à haut risque utilisés par les agences d’État. Cependant, le délai initial d’implémentation a été dépassé, et le rapport fourni au public était incorrect.

Combler le déficit de capacité technique

L’expérience de la Californie n’est malheureusement pas unique. À travers le pays, des lois bien intentionnées sont souvent adoptées, mais échouent lors de l’implémentation. Sans investissement délibéré dans ces domaines, la responsabilité de réglementer correctement les technologies émergentes est confiée à des employés gouvernementaux mal équipés.

Conclusion

Sans cadre fédéral en place, les gouvernements des États seront les principaux moteurs de la responsabilité et de la transparence nécessaires pour s’assurer que l’IA serve le public. Cela ouvre une fenêtre cruciale pour les décideurs des États afin d’établir des processus qui favorisent la transparence et des pipelines de talents robustes pour gérer le déploiement responsable de l’IA.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...