Californie : première étape vers une réglementation de l’IA

A digital lock

La Californie devient le premier État américain à adopter une loi dédiée à la sécurité de l’IA

La discussion mondiale sur la gouvernance de l’intelligence artificielle (IA) a franchi une nouvelle étape, la Californie devenant le premier État des États-Unis à adopter une loi dédiée à la sécurité de l’IA.

La loi sur la transparence dans l’intelligence artificielle de pointe

La Loi sur la transparence dans l’intelligence artificielle de pointe (TFAIA) exige des entreprises telles que Google, Meta et OpenAI, ainsi que d’autres grands développeurs, qu’elles signalent les incidents à haut risque, divulguent les mesures de sécurité et protègent les lanceurs d’alerte. La loi impose également aux entreprises de publier des cadres montrant comment elles intègrent les normes de sécurité et de créer un mécanisme de signalement des incidents critiques de sécurité aux autorités étatiques.

Bien que cette loi puisse être un pas significatif vers la responsabilité, des experts soulignent qu’en l’absence de coordination fédérale, cela pourrait également entraîner « plus de confusion que de clarté ».

Un contraste avec l’approche de l’Inde

Alors que les grandes économies s’efforcent d’établir des garde-fous pour l’IA, l’approche de l’Inde se distingue. L’Inde n’a pas encore mis en œuvre de cadre spécifiquement dédié à l’IA. Les principales initiatives actuelles, telles que la mission IndiaAI et le projet de Loi sur le numérique, visent à développer des infrastructures et à faciliter l’innovation, mais ne traitent pas spécifiquement de la responsabilité des modèles, de l’utilisation éthique ou de la sécurité de l’IA.

Les entreprises utilisant des modèles d’IA dans des systèmes publics vulnérables, tels que la santé, les finances et l’éducation, ne sont toujours pas soumises à des exigences claires en matière d’audit, de test ou de divulgation.

Les lacunes dans les cadres réglementaires indiens

Selon Arjun Goswami, directeur des politiques publiques dans un cabinet d’avocats, « les cadres actuels de l’Inde se concentrent sur la facilitation de l’IA, et non sur sa réglementation ». Il souligne qu’en l’absence d’obligations de sécurité ou de responsabilité contraignantes, il n’y a que peu de clarté sur la manière dont les entreprises devraient gérer les risques dans des secteurs critiques tels que la santé ou les finances.

La situation actuelle laisse la question de la responsabilité en cas de préjudice causé par un système d’IA sans réponse claire. Qui est responsable : le développeur, le déployeur ou l’utilisateur final ?

Les directions variées des pays du monde

À l’échelle mondiale, les pays adoptent des approches différentes. La Loi sur l’IA de l’UE, prévue pour être mise en œuvre l’année prochaine, adopte une stratégie basée sur le risque et impose les exigences les plus strictes sur les systèmes présentant un risque significatif. En Chine, les évaluations de sécurité et les dépôts d’algorithmes sont déjà obligatoires.

Alors que certains gouvernements se sont réunis lors du Sommet sur la sécurité de l’IA au Royaume-Uni en 2023 pour formuler des lignes directrices uniformes sur les tests, l’Inde privilégie une approche sectorielle et volontaire, permettant à des ministères ou régulateurs spécifiques de publier des conseils sur l’IA dans leur domaine.

Appel à une gouvernance nationale de l’IA

Des experts mettent en garde contre le fait qu’une supervision fragmentée pourrait rendre l’Inde vulnérable. Varun Singh, partenaire fondateur d’un cabinet d’avocats, affirme qu’il faudra un cadre national de gouvernance de l’IA qui aligne innovation et sécurité, surtout à mesure que l’utilisation de l’IA dans le secteur public s’étend.

Il suggère que l’Inde pourrait commencer par des divulgations obligatoires, des signalements d’incidents et des audits pour les secteurs à haut risque comme la santé, les finances et les services gouvernementaux. Ces normes pourraient ensuite être élargies progressivement, équilibrant innovation et responsabilité.

Conclusion

Le dilemme auquel les gouvernements sont confrontés est de demander de la transparence sans limiter la croissance, comme le montre l’expérience de la Californie. Cette décision est cruciale pour l’Inde alors que l’IA est intégrée dans les programmes et services gouvernementaux qui interagissent avec les citoyens. L’absence de mécanismes clairs de sécurité et de recours pourrait augmenter les risques avant même que des protections nécessaires soient établies.

« Attendre trop longtemps pour définir la responsabilité signifie que nous finirons par réagir aux crises plutôt que de les prévenir », prévient Singh. L’Inde a besoin d’un cadre modulaire et par niveaux de risque qui impose la transparence, la sécurité et l’explicabilité tout en laissant place à l’innovation et à l’expérimentation.

Alors que la Californie établit un précédent et que d’autres juridictions emboîtent le pas, l’Inde se trouve à une fenêtre critique pour établir sa propre approche équilibrée, protégeant les citoyens tout en préservant son avantage concurrentiel dans la course mondiale à l’IA.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...

L’Australie envisage l’IA pour révolutionner les soumissions gouvernementales

Le gouvernement australien pourrait envisager d'utiliser des programmes d'intelligence artificielle pour rédiger des soumissions sensibles au cabinet, malgré les préoccupations concernant la sécurité...