La Nueva Ley de IA de la UE: Implicaciones y Desafíos

La Ley de IA de la UE está a punto de entrar en plena vigencia

La Unión Europea implementó su AI Act el año pasado, lanzando directrices para garantizar el cumplimiento y equilibrar la innovación en inteligencia artificial con la seguridad. Esto culminó en el lanzamiento del AI Act Explorer el 18 de julio, una guía integral para las empresas que navegan por estas regulaciones.

La AI Act se estableció para introducir salvaguardias para modelos avanzados de inteligencia artificial, mientras se cultiva un ecosistema competitivo e innovador para las empresas de IA. Esta ley clasifica los modelos en distintas categorías de riesgo. La Vicepresidenta Ejecutiva de la Comisión de la UE para la Soberanía Tecnológica, Seguridad y Democracia, Henna Virkkunen, declaró que las directrices emitidas por la Comisión apoyan la aplicación fluida y efectiva de la AI Act.

Categorización de Riesgos

Bajo el marco regulatorio de la ley de la UE, los modelos de inteligencia artificial se clasifican en uno de cuatro niveles de riesgo distintos: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo. Los AI clasificados en la categoría de riesgo inaceptable enfrentan una prohibición dentro de la UE. Esta clasificación incluye aplicaciones como sistemas de reconocimiento facial y mecanismos de puntuación social. Otras categorías se determinan por la capacidad computacional de la IA o sus funcionalidades designadas.

AI con Riesgos Sistémicos

La Unión Europea define los modelos de inteligencia artificial que presentan riesgos sistémicos como aquellos desarrollados utilizando “más de 10^25 operaciones de punto flotante (FLOPs)”. Modelos notables que caen bajo esta clasificación incluyen GPT-4 de OpenAI, o3 de OpenAI, Google Gemini 2.5 Pro, y los modelos más recientes de Claude de Anthropic, así como Grok-3 de xAI. La publicación de la guía del AI Act Explorer precede la fecha límite del 2 de agosto por aproximadamente dos semanas, la cual exige que los modelos de IA de propósito general y aquellos identificados como que suponen riesgos sistémicos cumplan con las disposiciones de la ley.

Obligaciones de los Fabricantes

Los fabricantes de modelos de IA identificados como que presentan riesgos sistémicos están sujetos a obligaciones específicas. Estas incluyen realizar evaluaciones exhaustivas del modelo para identificar posibles riesgos sistémicos y documentar las pruebas adversariales realizadas durante la mitigación de tales riesgos. Además, se requiere que estos fabricantes informen sobre incidentes graves a las oficinas de la UE y nacionales si tales ocurrencias se materializan. También deben implementar medidas adecuadas de ciberseguridad para protegerse contra el uso indebido o la compromisión de sus sistemas de IA. La ley coloca de manera integral la responsabilidad sobre las empresas de IA para identificar y prevenir proactivamente los riesgos sistémicos potenciales desde su origen.

El AI Act Explorer

El AI Act Explorer ha sido diseñado para proporcionar a los desarrolladores de inteligencia artificial directrices explícitas sobre la aplicabilidad de las diversas disposiciones de la ley a sus operaciones. Las empresas también tienen acceso al compliance checker de la UE, una herramienta que les permite determinar sus obligaciones específicas bajo la ley. El incumplimiento de las estipulaciones de la ley puede resultar en sanciones financieras sustanciales. Las multas oscilan entre 7.5 millones de euros, equivalentes a 8.7 millones de dólares, o el 1.5% de la facturación global de una empresa, hasta un máximo de 35 millones de euros, o el 7% de la facturación global, siendo la cantidad específica contingente a la gravedad de la violación.

Críticas y Apoyos

Los críticos de la AI Act han caracterizado sus regulaciones como inconsistentes y han afirmado que inhiben la innovación. El 18 de julio, Joel Kaplan, Jefe de Asuntos Globales de Meta, declaró que la empresa no respaldaría el Código de Práctica de la UE para modelos de IA de propósito general, que es un marco voluntario alineado con la AI Act. Kaplan afirmó en LinkedIn que este Código introduce una serie de incertidumbres legales para los desarrolladores de modelos, junto con medidas que se extienden significativamente más allá del alcance de la AI Act. A principios de julio, directores ejecutivos de empresas como Mistral AI, SAP y Siemens, entre otros, emitieron una declaración conjunta solicitando a la UE que pausara la implementación de las regulaciones.

Los defensores de la ley sostienen que servirá para restringir a las empresas de priorizar el beneficio a expensas de la privacidad y seguridad del consumidor. Tanto Mistral como OpenAI han comprometido a firmar el Código de Práctica, un mecanismo voluntario que permite a las empresas demostrar su alineación con las regulaciones vinculantes. OpenAI lanzó recientemente un agente de ChatGPT, que posee la capacidad de utilizar una computadora virtual para ejecutar tareas de múltiples pasos, incluyendo contactar a individuos en pequeñas empresas.

More Insights

Los riesgos ocultos de la inteligencia artificial en el lugar de trabajo

La adopción de la inteligencia artificial en las empresas plantea riesgos significativos que muchas organizaciones están ignorando. A medida que los agentes de IA se convierten en colegas digitales...

La Imperativa de Colaboración en Seguridad de IA

La revolución de la inteligencia artificial ya no es una promesa distante, está aquí y está remodelando industrias y la vida diaria. La clave para garantizar que el poder de la IA se utilice de manera...

El papel de la inteligencia artificial en la policía

Las agencias de aplicación de la ley (LEAs) están utilizando cada vez más la inteligencia artificial (IA) para mejorar su funcionamiento, especialmente con capacidades avanzadas para la policía...

Guía esencial de la AMA para la adopción y gobernanza de la IA en el sector salud

La AMA ha publicado una guía sobre la adopción y gobernanza de la inteligencia artificial (IA) para sistemas de salud, destacando la importancia de establecer políticas adecuadas en un entorno...

La ONU establece un panel sobre IA y un diálogo global para su gobernanza

La Asamblea General de las Naciones Unidas ha adoptado una resolución para establecer un Panel Científico Internacional Independiente sobre Inteligencia Artificial y un Diálogo Global sobre la...

La próxima ola de amenazas cibernéticas: del envenenamiento de datos a los agentes de IA

A medida que la inteligencia artificial (IA) se adopta rápidamente en diversas industrias, también aumenta la exposición a riesgos cibernéticos. Los modelos de IA generativa están creando nuevas...

Ética y Gobernanza de la IA en el Sudeste Asiático

En este artículo, Nguyen Hoang Minh Ngoc explora el panorama actual de la gobernanza y la ética de la inteligencia artificial (IA) en los seis países del sudeste asiático. Se destaca la necesidad de...