Anthropic investit 20 millions de dollars pour un avenir responsable de l’IA

A giant, intricately woven tapestry depicting interconnected hands from diverse backgrounds, each holding a seed that collectively forms a lush, thriving tree.

Anthropic fait un don de 20 millions de dollars à Public First Action

L’IA apportera d’énormes avantages dans des domaines tels que la science, la technologie, la médecine et la croissance économique. Cependant, une technologie aussi puissante comporte également des risques considérables. Ces risques peuvent provenir d’une mauvaise utilisation des modèles : l’IA est déjà exploitée pour automatiser des cyberattaques et pourrait à l’avenir aider à la production d’armes dangereuses. Les risques peuvent également provenir des modèles eux-mêmes, car des systèmes d’IA puissants peuvent agir de manière nuisible, à l’encontre des intentions de leurs utilisateurs.

Les modèles d’IA augmentent rapidement leurs capacités, passant de simples chatbots en 2023 à des agents capables de réaliser des tâches complexes aujourd’hui. Ce rythme de progrès ne se limite pas à l’ingénierie logicielle ; de nombreuses autres professions ressentent déjà l’impact. Par conséquent, les décisions politiques concernant l’IA que nous prendrons dans les prochaines années toucheront presque tous les aspects de la vie publique, du marché du travail à la protection des enfants en ligne, en passant par la sécurité nationale et l’équilibre des pouvoirs entre les nations.

La nécessité d’une bonne politique

Dans des circonstances comme celles-ci, nous avons besoin d’une bonne politique : une réglementation flexible qui nous permette de tirer parti des avantages de l’IA tout en maîtrisant les risques, et de maintenir l’avance des États-Unis dans la course à l’IA. Cela implique de garder les technologies critiques de l’IA hors de portée des adversaires des États-Unis, de maintenir des garde-fous significatifs, de promouvoir la croissance de l’emploi, de protéger les enfants et d’exiger une réelle transparence de la part des entreprises qui développent les modèles d’IA les plus puissants.

Nous ne voulons pas rester en retrait pendant que ces politiques se développent. C’est pourquoi un don de 20 millions de dollars est fait à Public First Action, une nouvelle organisation bipartisane qui soutiendra l’éducation publique sur l’IA, promouvra des mesures de protection et veillera à ce que les États-Unis mènent la course à l’IA.

Des sondages récents révèlent que 69 % des Américains pensent que le gouvernement « ne fait pas assez pour réglementer l’utilisation de l’IA ». Nous sommes d’accord. L’IA est adoptée plus rapidement que toute autre technologie de l’histoire, et la fenêtre pour bien établir les politiques se referme. Pourtant, il n’existe actuellement aucun garde-fou officiel et aucun cadre fédéral à l’horizon.

Le rôle de Public First Action

À l’heure actuelle, il y a peu d’efforts organisés pour mobiliser des personnes et des politiciens qui comprennent les enjeux du développement de l’IA. Au lieu de cela, d’énormes ressources sont allouées à des organisations politiques qui s’opposent à ces efforts. Public First Action travaille à combler cette lacune. Fondée et dirigée par des stratèges républicains et démocrates, elle œuvre au-delà des partis pour soutenir des politiques de gouvernance de l’IA.

L’organisation collaborera avec des républicains, des démocrates et des indépendants partageant les mêmes priorités politiques :

  • Insister sur des mesures de transparence des modèles d’IA qui offrent au public une plus grande visibilité sur la gestion responsable des risques par les entreprises d’IA.
  • Soutenir un cadre de gouvernance fédéral robuste sur l’IA, en s’opposant à la préemption des lois des États, sauf si le Congrès adopte des mesures de protection plus strictes.
  • Soutenir des contrôles à l’exportation intelligents sur les puces d’IA pour maintenir l’avance des États-Unis face à ses adversaires autoritaires.
  • Poursuivre une réglementation ciblée axée sur les risques immédiats : les armes biologiques activées par l’IA et les cyberattaques.

Ces politiques ne sont pas partisanes. Elles ne visent pas à profiter à une entreprise d’IA en particulier ; une gouvernance efficace de l’IA implique plus de contrôle sur les entreprises comme celle-ci, et non moins. Elles ne cherchent pas non plus à freiner les développeurs plus petits ou moins bien financés : la réglementation sur la transparence, par exemple, devrait s’appliquer uniquement aux entreprises développant les modèles d’IA les plus puissants (et les plus dangereux).

Les entreprises qui construisent l’IA ont la responsabilité d’assurer que la technologie serve le bien public, et non pas seulement leurs propres intérêts. Ce don à Public First Action fait partie de notre engagement envers une gouvernance qui permet de réaliser le potentiel transformateur de l’IA tout en gérant proportionnellement ses risques.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...