Regulación de IA en la UE: Lecciones y Advertencias para EE.UU.

La Regulación de IA de la Unión Europea: Un Modelo y una Advertencia para los Legisladores de EE. UU.

La Ley de IA de la Unión Europea, que entró en vigor el año pasado, se presenta como una fuente de inspiración para algunos legisladores de EE. UU. que buscan implementar amplias protecciones al consumidor. Sin embargo, otros la utilizan como una advertencia sobre los peligros de la sobrerregulación, que podría llevar a una economía digital menos competitiva.

La Unión Europea promulgó su ley para prevenir lo que actualmente está sucediendo en los EE. UU.: un mosaico de legislación sobre IA en los diferentes estados. Sean Heather, vicepresidente senior de asuntos regulatorios internacionales y antimonopolio en la Cámara de Comercio, declaró que los innovadores de IA en América corren el riesgo de verse atrapados entre el efecto de Bruselas de una regulación excesiva y el efecto de Sacramento de mandatos estatales y locales excesivos.

Responsabilidad de los Desarrolladores de IA

La Ley de IA de la UE es integral y coloca la responsabilidad regulatoria en los desarrolladores de IA para mitigar el riesgo de daño. También exige que los desarrolladores proporcionen documentación técnica y resúmenes de capacitación de sus modelos para revisión por parte de funcionarios de la UE. Adoptar políticas similares en EE. UU. podría desplazar al país de su posición de liderazgo en la carrera global de IA.

El «Efecto Bruselas», mencionado por Adam Thierer, un investigador del think tank R Street Institute, se refiere a la idea de que las regulaciones de la UE influirán en el mercado global. Sin embargo, hasta ahora, pocos países han seguido este modelo. Mientras que Canadá, Brasil y Perú están trabajando en leyes similares, el Reino Unido y países como Australia, Nueva Zelanda, Suiza, Singapur y Japón han adoptado un enfoque menos restrictivo.

Críticas a la Ley de IA de la UE

Los críticos de la Ley de IA argumentan que su lenguaje es demasiado amplio, lo que ralentiza el desarrollo de sistemas de IA al intentar cumplir con los requisitos regulatorios. Francia y Alemania se encuentran entre los 10 principales líderes globales en IA, y China ocupa el segundo lugar. Sin embargo, EE. UU. sigue liderando en cuanto a la cantidad de modelos de IA líderes y su investigación en IA.

El profesor Peter Salib, de la Universidad de Houston, sostiene que la Ley de IA de la UE es solo un factor en la dificultad de los países europeos para competir. Argumenta que la ley ha estado en vigor por aproximadamente nueve meses, lo cual no es suficiente para tener un impacto significativo en la capacidad de Europa para participar en la economía global de IA.

Autogobierno en la Industria de IA

La ley de la UE coloca mucha responsabilidad en los desarrolladores de IA, exigiendo transparencia, informes y pruebas con terceros. Las empresas de IA en EE. UU. actualmente se autogobiernan, lo que significa que prueban sus modelos para algunos de los riesgos sociales y de ciberseguridad que muchos legisladores han delineado. Sin embargo, no existe un estándar universal; lo que una empresa considera seguro puede ser visto como riesgoso por otra.

Lecciones para EE. UU. de las Prácticas de la UE

Salib sugiere que una ley como la Ley de IA de la UE en EE. UU. sería demasiado comprehensive. Las leyes que abordan preocupaciones sobre la IA, como la discriminación por algoritmos o los autos autónomos, podrían regirse por leyes existentes. Sin embargo, las leyes estatales en EE. UU. han sido efectivas para abordar acciones dañinas de IA y asegurar el cumplimiento por parte de las empresas de IA.

Gadinis se pregunta por qué el Congreso se opone al modelo legislativo estatal, ya que la mayoría de las leyes estatales son orientadas al consumidor y muy específicas. La Ley de IA de la UE originalmente reflejaba este enfoque, abordando consideraciones de IA en imágenes sexuales, menores, fraude al consumidor y uso de datos de consumidores. Sin embargo, cuando se lanzó ChatGPT en 2022, los legisladores de la UE revisaron y ampliaron la ley para incluir modelos de lenguaje grande y estrategias de riesgo elevado.

Después de 10 meses de implementación, la Comisión Europea ha expresado su apertura a simplificar la implementación para facilitar el cumplimiento de las empresas.

Es poco probable que EE. UU. adopte regulaciones de IA tan completas como las de la UE. La administración de Trump ha adoptado un enfoque deregulado hacia la tecnología y los republicanos han promulgado una moratoria de 10 años sobre las leyes estatales de IA. Sin embargo, la presión pública podría resultar en un organismo de autorregulación de la industria, un área donde la UE podría influir significativamente.

More Insights

Los riesgos ocultos de la inteligencia artificial en el lugar de trabajo

La adopción de la inteligencia artificial en las empresas plantea riesgos significativos que muchas organizaciones están ignorando. A medida que los agentes de IA se convierten en colegas digitales...

La Imperativa de Colaboración en Seguridad de IA

La revolución de la inteligencia artificial ya no es una promesa distante, está aquí y está remodelando industrias y la vida diaria. La clave para garantizar que el poder de la IA se utilice de manera...

El papel de la inteligencia artificial en la policía

Las agencias de aplicación de la ley (LEAs) están utilizando cada vez más la inteligencia artificial (IA) para mejorar su funcionamiento, especialmente con capacidades avanzadas para la policía...

Guía esencial de la AMA para la adopción y gobernanza de la IA en el sector salud

La AMA ha publicado una guía sobre la adopción y gobernanza de la inteligencia artificial (IA) para sistemas de salud, destacando la importancia de establecer políticas adecuadas en un entorno...

La ONU establece un panel sobre IA y un diálogo global para su gobernanza

La Asamblea General de las Naciones Unidas ha adoptado una resolución para establecer un Panel Científico Internacional Independiente sobre Inteligencia Artificial y un Diálogo Global sobre la...

La próxima ola de amenazas cibernéticas: del envenenamiento de datos a los agentes de IA

A medida que la inteligencia artificial (IA) se adopta rápidamente en diversas industrias, también aumenta la exposición a riesgos cibernéticos. Los modelos de IA generativa están creando nuevas...

Ética y Gobernanza de la IA en el Sudeste Asiático

En este artículo, Nguyen Hoang Minh Ngoc explora el panorama actual de la gobernanza y la ética de la inteligencia artificial (IA) en los seis países del sudeste asiático. Se destaca la necesidad de...