Nous devons cesser de prétendre que la réglementation de l’IA étouffe l’innovation
Le manque de réglementation sensée concernant l’IA ouvre la porte à de véritables dangers et met en péril une opportunité potentielle de 10,3 trillions de dollars pour développer et utiliser l’IA générative. Il est nécessaire d’établir des directives pour encourager les innovateurs à explorer de nouvelles technologies sans compromettre la confiance du public.
Les efforts pour assurer une innovation responsable en matière d’IA ont dévié de leur trajectoire. Les innovations que nous avons vues jusqu’à présent en matière d’IA résultent directement de la collecte et de l’utilisation de données pour l’entraînement des modèles. Lorsque les utilisateurs se sentent protégés grâce à des politiques de données transparentes et à des mesures de consentement, ils sont plus enclins à contribuer aux données de haute qualité nécessaires pour faire avancer l’IA.
Cependant, si les entreprises négligent de protéger les utilisateurs, elles manqueront de carburant ou de données pour progresser davantage.
Les garde-fous sont-ils excessifs ?
La communauté mondiale de l’IA a progressé ces dernières années sur la façon de gouverner la technologie de l’IA afin que l’innovation ne sacrifie pas la confiance et la sécurité des utilisateurs. L’Institut des ingénieurs électriciens et électroniciens a posé les bases en 2016 avec ses principes de conception éthique, et l’Organisation de coopération et de développement économiques a adopté ses propres principes sur l’IA trois ans plus tard. En 2022, la Maison Blanche a publié une Déclaration des droits de l’IA, suivie par un décret exécutif de l’ancien président Joe Biden sur l’IA en 2023. En mars dernier, l’UE a adopté sa loi sur l’IA.
Les remarques du vice-président JD Vance lors du sommet de l’IA à Paris, affirmant que la réglementation excessive du secteur de l’IA pourrait tuer une industrie transformative, opposent opportunité de l’IA et sécurité. Pourquoi devrions-nous choisir entre les deux ? Les programmes de confidentialité centrés sur l’utilisateur établissent une confiance durable entre les consommateurs et les entreprises.
Les produits et services qui priorisent la confiance des consommateurs et renforcent le choix de l’utilisateur peuvent accélérer l’innovation plutôt que de la bloquer. Prenons les données biométriques et les appareils intelligents. Des technologies émergentes telles que la reconnaissance faciale, le balayage des empreintes digitales, les assistants intelligents toujours actifs et les voitures connectées continuent de soulever des questions de confidentialité.
En réponse, des réglementations telles que la Loi sur la confidentialité des informations biométriques de l’Illinois, le Règlement général sur la protection des données de l’UE et la Loi sur la sécurité des IoT de la Californie ont établi des règles plus claires concernant la collecte, le stockage et le partage des données. Cela a contribué à rassurer le public, conduisant à une plus grande adoption de technologies telles que la vérification d’identité numérique, les appareils de santé portables et les assistants domestiques intelligents.
Réglementer les dangers connus
Une réglementation insuffisante de la technologie a des conséquences troublantes. Des voitures autonomes de sociétés chinoises ont parcouru des millions de miles en collectant d’innombrables informations sur des citoyens américains, car les États-Unis manquent de lois régissant spécifiquement les technologies provenant de pays adverses qui pourraient collecter de telles données.
En revanche, la Loi sur l’IA de l’UE place des garde-fous nécessaires autour des technologies de l’IA présentant des dangers connus, tels que la surveillance biométrique dans les espaces publics, le policing prédictif ou les systèmes de reconnaissance émotionnelle dans les lieux de travail ou les écoles.
Le risque de discrimination raciale par la technologie de reconnaissance faciale est bien documenté. En 2020, la police de Détroit a arrêté Robert Williams, un homme noir, après qu’un logiciel de reconnaissance faciale l’ait identifié à tort comme suspect de vol. Trois ans plus tard, la même force policière s’est appuyée sur une autre correspondance erronée, accusant à tort Porcha Woodruff, une femme noire enceinte, de vol de voiture.
Plutôt que d’étouffer l’innovation, les réglementations poussent les entreprises à continuer à améliorer leurs produits. Les lois sur la confidentialité ont contraint les entreprises à repenser la collecte et l’utilisation des données et à innover dans des domaines tels que le chiffrement, la minimisation des données et la gestion du consentement des utilisateurs, menant à une sécurité renforcée, une meilleure confiance des consommateurs et de nouveaux modèles économiques.
Par exemple, Apple a introduit une protection avancée des données pour le chiffrement de bout en bout des catégories de données iCloud au-delà des mots de passe et des informations de santé protégées. Les réglementations sur le consentement des utilisateurs ont créé de nouvelles technologies, des startups aux grandes entreprises telles qu’IBM, qui gèrent l’ensemble du cycle de vie des autorisations des utilisateurs, de leur capture initiale et de leur stockage à la gestion des demandes d’accès et de suppression de données granulaires.
Innovation et confiance
Les réglementations telles que la Loi sur l’IA de l’UE, qui visent à traiter les risques les plus critiques des technologies émergentes, ne sont pas des exemples de surcroît gouvernemental. Aucune réglementation n’est parfaite, mais ces lois peuvent servir de plans directeurs pour une législation américaine significative visant à promouvoir la confiance du public et l’adoption de l’IA.
Les États-Unis n’ont pas signé les déclarations lors du sommet de Paris qui esquissent des approches communes pour l’atténuation des risques de l’IA et le développement éthique de l’IA. Cela est préoccupant, compte tenu de la position déréglementaire actuelle de l’administration et de la révocation de l’ordre exécutif de Biden sur l’utilisation et le développement sûrs de l’IA.
Le futur du leadership américain en matière d’IA dépend de la capacité à forger un chemin où l’innovation et la gouvernance responsable coexistent. L’histoire prouve que la confiance—établie par des pratiques de données transparentes et des garde-fous pratiques—est la monnaie du progrès. Les cadres qui priorisent la sécurité rassureront les utilisateurs et permettront aux innovateurs d’expérimenter.