El Acta de IA de la UE: Implicaciones para Empresas Globales

La Ley de IA de la UE: Lo que las Empresas Globales Necesitan Saber

La Ley de IA de la Unión Europea (UE) entra en vigor con un alcance global. Las empresas de EE. UU. se enfrentan a nuevas reglas, riesgos y sanciones severas. A continuación, se presentan aspectos clave que los líderes deben conocer.

Los primeros dos capítulos de la Ley de IA de la UE entraron en vigor el 2 de febrero de 2025. Estas disposiciones abordan las prácticas de IA y la alfabetización en IA. El resto de las disposiciones de la ley se implementarán de manera gradual.

El Alcance Global de la Ley de IA

Si bien las implicaciones más grandes de la ley serán para las empresas ubicadas en la UE, aquellas fuera de la Unión Europea también se verán afectadas. La ley se aplica a todos los proveedores de sistemas de IA en el mercado de la UE, independientemente de si operan dentro de la UE o no.

La analista principal de Forrester, Enza Iannopollo, señala que “el alcance global de la Ley de IA de la UE, las sanciones significativas por incumplimiento y los extensos requisitos que abarcan toda la cadena de valor de la IA aseguran que las organizaciones de todo el mundo que utilizan tecnologías de IA deben cumplir con la regulación”.

Comprendiendo el Marco de Riesgo de la Ley de IA de la UE

El núcleo de la Ley de IA de la UE es su enfoque basado en el riesgo. Cuanto mayor sea el riesgo del caso de uso de IA o IA de propósito general (GPAI), más requisitos deberá cumplir y más estricta será la aplicación de esos requisitos. A medida que disminuye el riesgo, también lo hacen el número y la complejidad de los requisitos que una empresa debe seguir.

Yingbo Ma, profesor asistente de IA y aprendizaje automático en la Universidad Purdue Northwest, explica los cuatro niveles de riesgo:

  1. IA de Riesgo Inaceptable: Prohibida. Ejemplos: puntuación social, IA manipulativa e identificación biométrica en tiempo real en espacios públicos.
  2. IA de Alto Riesgo: Regulada Estrictamente. Ejemplos: IA en salud, contratación, finanzas y aplicación de la ley, que requieren cumplimiento con transparencia, gobernanza de datos y supervisión humana.
  3. IA de Riesgo Limitado: Requiere Transparencia. Ejemplos: chatbots y deep fakes, asegurando que los usuarios sean conscientes de que están interactuando con IA.
  4. IA de Riesgo Mínimo: No Regulada. Ejemplos: motores de recomendación y IA en videojuegos.

Los proveedores de sistemas de IA tienen diferentes obligaciones que los implementadores, pero el cumplimiento de cada actor depende del otro. Los proveedores deben proporcionar a los implementadores documentación detallada sobre el sistema (por ejemplo, capacidades, limitaciones, uso previsto) para que puedan desplegar los sistemas correctamente y comprender sus resultados de manera adecuada.

El Mandato sobre Alfabetización en IA

La Ley de IA exige que los proveedores y los implementadores tomen medidas para garantizar, en la medida de lo posible, que el personal y otras personas que tratan con sistemas de IA en su nombre (incluidos los consultores) tengan un nivel suficiente de alfabetización en IA.

La formación sobre alfabetización debe tener en cuenta su conocimiento técnico, experiencia, educación, formación y contexto en el que se utilizan los sistemas de IA. Este requisito se aplica a todos los sistemas de IA y no solo a aquellos considerados de alto riesgo bajo la ley.

¿Qué Más Necesitan Preparar las Empresas?

Más allá de los niveles de riesgo y la alfabetización, la Ley de IA de la UE introduce responsabilidades amplias que tocan modelos fundamentales, cadenas de suministro y el ecosistema de IA más amplio. Estas consideraciones adicionales añaden capas de complejidad y cumplimiento para las empresas que navegan por la regulación.

Nuevos Estándares para Sistemas de IA de Propósito General

La ley da un gran paso para abordar las obligaciones de los sistemas de IA de propósito general para los implementadores, según Jeff Le, principal gerente en la consultoría 100 Mile Strategies. “Un paso importante es el reconocimiento más allá de las reglas de transparencia de la UE para imponer un umbral más alto sobre los modelos fundamentales que podrían llevar a un riesgo mucho mayor y afectar toda la cadena de suministro de software, lo que podría tener implicaciones directas para los consumidores/usuarios”, dice Le.

Prepararse para Auditorías, Evaluaciones y Más

Las empresas deben pasar auditorías, cumplir con los estándares de transparencia y realizar evaluaciones, lo que dificulta la competencia de las startups con las grandes tecnologías, señala Amir Barsoum, fundador y socio gerente de InVitro Capital.

La Comisión Europea puede multar a los proveedores de modelos de IA de propósito general hasta 3% de su facturación global total anual del año fiscal anterior, o 15,000,000 €, lo que sea mayor. Estas multas pueden ser impuestas si la Comisión encuentra que el proveedor ha infringido intencionadamente o por negligencia las disposiciones relevantes de la ley.

Diseñando Sistemas de IA para la Explicabilidad

La ley exige transparencia en la toma de decisiones de IA, lo que debería reducir los riesgos de IA en caja negra en áreas como la contratación, la puntuación crediticia y la salud, según Barsoum. “Los consumidores de diferentes regiones esperan que las empresas sean explícitas sobre su uso de cualquier IA”, dice Iannopollo. “La ley exige que se informe claramente a las personas expuestas a un sistema de IA y GPAI de manera que sea fácil de detectar y entender, y que cumpla con los requisitos de accesibilidad”.

Provisiones Clave de la Ley de IA de la UE que Aún Están por Venir

La Ley de IA de la UE se está implementando en etapas. Otras reglas, como las relacionadas con modelos de GPAI, se aplicarán a partir de junio de 2025. Los requisitos sobre casos de uso de alto riesgo entrarán en vigor después de 24 a 36 meses. Es importante señalar que, aunque algunos requisitos entran en vigor en fechas posteriores, cumplir con las reglas de la ley requerirá un esfuerzo y tiempo sustancial para una empresa, especialmente en lo que respecta a los casos de uso de alto riesgo.

“Aún hay preguntas significativas sobre las posibles consecuencias no deseadas y los desafíos de implementación”, dice Le. El cronograma para la plena efectividad antes de agosto de 2026 podría ser visto como un desafío para la industria, especialmente a medida que continúan desarrollándose avances futuros.

More Insights

Gobernanza de IA en Salud: Desafíos y Oportunidades

El paisaje regulatorio de la IA ha experimentado cambios monumentales en los últimos seis meses, con un enfoque creciente en la innovación en lugar de la regulación. Sin embargo, es crucial mantener...

La industria de IA exige un retraso en la ley básica ante regulaciones vagas

Se han planteado preocupaciones en la industria de que los estándares regulatorios ambiguos dentro de la ley básica de IA podrían obstaculizar el crecimiento del sector. Recientemente, Huang Jeong-a...

Cumpliendo con el GDPR y la Ley de IA de la UE en Marketing

Como comercializadores o dueños de negocios, sabemos lo desafiante que puede ser llegar a la audiencia adecuada en el momento oportuno. La conformidad con el GDPR es crucial para garantizar la...

La pirámide de riesgos de la Ley de IA de la UE

Una de las características definitorias de la Ley de IA de la UE es su enfoque basado en el riesgo, donde los sistemas de IA no se tratan por igual. La ley clasifica los sistemas de IA en cuatro...

Empresas de IA afirman que las regulaciones existentes pueden gobernar la IA agentiva

Las empresas de inteligencia artificial están adoptando la IA agentiva, que se considera la próxima evolución de la IA generativa. A medida que la innovación avanza, los desarrolladores de IA...

La UE prohíbe el uso de software de IA en reuniones en línea

La Comisión Europea ha prohibido inesperadamente el uso de asistentes virtuales impulsados por IA durante las reuniones en línea, a pesar de su creciente popularidad. Este movimiento ha suscitado...

Diseñando Confianza en la IA Responsable

El rápido avance de la inteligencia artificial (IA) en la tecnología cotidiana presenta grandes oportunidades, así como desafíos éticos significativos. Los diseñadores de productos están en la...

Interoperabilidad en la Regulación de la IA: Caminos hacia un Futuro Sostenible

A medida que nos encontramos en una encrucijada crítica en el desarrollo de la IA, surge un desafío de gobernanza que podría sofocar la innovación y crear divisiones digitales globales. La actual...