La Regulación de IA: Un Hito en Europa

La Ley de IA: Una Regulación Pionera Entra en Vigor

El 4 de febrero de 2025, la Comisión Europea publicó las Directrices sobre prácticas de IA prohibidas, tal como se define en la Ley de IA, que entró en vigor el 1 de agosto de 2024.

El AI Action Summit tuvo lugar en París (Francia) los días 10 y 11 de febrero de 2025, con la participación de jefes de estado y de gobierno, líderes de organizaciones internacionales y directores ejecutivos.

Han sido unas semanas intensas para los observadores de la IA en el continente europeo: en primer lugar, la emisión de nuevas directrices en torno a la Ley de IA, el marco regulatorio más completo para la IA hasta la fecha; en segundo lugar, el AI Action Summit, organizado por Francia y co-presidido por India. Las expectativas eran altas, con casi 100 países y más de 1,000 representantes del sector privado y de la sociedad civil presentes, y el debate resultante fue enriquecedor.

Durante la cumbre, se planteó la cuestión: ¿la innovación supera a la regulación? Sin embargo, se puede argumentar que ignorar los riesgos inherentes a la IA no necesariamente acelerará la innovación, y que los desafíos actuales en Europa tienen más que ver con la fragmentación del mercado y la falta de capital de riesgo. Es importante considerar la necesidad de que los gobiernos democráticos adopten medidas prácticas, en lugar de meras declaraciones, centrándose en los riesgos para la estabilidad social, política y económica en todo el mundo debido al uso indebido de los modelos de IA.

Sistema de Riesgo de Cuatro Niveles

La Ley de IA sigue un sistema de riesgo basado en cuatro niveles. El nivel más alto, «riesgo inaceptable», incluye los sistemas de IA considerados una clara amenaza para la seguridad de la sociedad. Ocho prácticas están incluidas:

  • Manipulación y engaño dañinos basados en IA;
  • Explotación dañina de vulnerabilidades basadas en IA;
  • Evaluación o predicción del riesgo de delito individual;
  • Raspado no dirigido de internet o material de CCTV para crear o expandir bases de datos de reconocimiento facial;
  • Reconocimiento emocional en lugares de trabajo e instituciones educativas;
  • Categorización biométrica para deducir ciertas características protegidas;
  • Identificación biométrica remota en tiempo real para fines de aplicación de la ley en espacios públicos;

Las disposiciones dentro de este nivel, que incluyen el raspado de internet para crear bases de datos de reconocimiento facial, entraron en vigor el 2 de febrero de 2025. Estos sistemas están ahora prohibidos, y las empresas enfrentan multas de hasta 35 millones de euros o el 7% de sus ingresos anuales globales, lo que sea mayor, si no cumplen. Sin embargo, la aplicación en los niveles siguientes tendrá que esperar hasta agosto de 2025.

Nivel de Alto Riesgo

El siguiente nivel, el «alto riesgo», incluye casos de uso de IA que pueden presentar riesgos graves para la salud, la seguridad o los derechos fundamentales, incluyendo amenazas a infraestructuras críticas (por ejemplo, transporte), cuya falla podría poner en riesgo la vida y salud de los ciudadanos. Las soluciones de IA utilizadas en instituciones educativas, que pueden determinar el acceso a la educación y el rumbo de la vida profesional de alguien (por ejemplo, la calificación de exámenes), así como componentes de seguridad basados en IA de productos (por ejemplo, aplicaciones de IA en cirugía asistida por robot), también se clasifican aquí.

Aunque no serán prohibidos, los sistemas de IA de alto riesgo estarán sujetos a obligaciones legales antes de poder ser comercializados, incluyendo la evaluación y mitigación de riesgos adecuadas y una documentación detallada que proporcione toda la información necesaria.

Riesgo Mínimo o Ninguno

Siguiendo el nivel de alto riesgo, existe el nivel de «riesgo mínimo o nulo». Esto significa obligaciones de transparencia más ligeras, lo que puede implicar que los desarrolladores y desplegadores aseguren que los usuarios finales sean conscientes de que están interactuando con IA, por ejemplo, en casos prácticos como chatbots y deepfakes. La explicabilidad también está consagrada en esta legislación, ya que las empresas de IA pueden tener que compartir información sobre por qué un sistema de IA ha hecho una predicción y ha tomado una acción.

Durante la cumbre, se discutió el impacto de esta nueva orientación, con los EE. UU. criticando la regulación europea y advirtiendo contra la cooperación con China. Los EE. UU. y el Reino Unido se negaron a firmar la declaración de la cumbre sobre IA «inclusiva», un desaire que frustró las esperanzas de un enfoque unificado para regular la tecnología. El documento fue respaldado por 60 firmantes, incluyendo a Francia, China, India, Japón, Australia y Canadá.

Las startups como OpenAI, que no hace mucho advertían al Congreso de EE. UU. sobre la necesidad de regular la IA, han argumentado que la Ley de IA podría frenar a Europa en términos de desarrollo comercial de la IA.

Desarrollo Rápido

La cumbre tuvo lugar en un momento de cambio acelerado, con la startup china DeepSeek desafiando a los EE. UU. con el reciente lanzamiento del modelo de pesos abiertos R1. Otro jugador de código abierto, la startup francesa Mistral AI, que acaba de lanzar su modelo Le Chat, desempeñó un papel significativo. La empresa anunció asociaciones con la agencia nacional de empleo en Francia, la empresa de defensa europea Helsing, y Stellantis, el fabricante de automóviles que posee las marcas Peugeot, Citroën, Fiat y Jeep.

El lanzamiento de la iniciativa InvestAI de 200 mil millones de euros, para financiar cuatro gigafábricas de IA para entrenar grandes modelos de IA, fue visto como parte de una estrategia más amplia para fomentar el desarrollo abierto y colaborativo de modelos avanzados de IA en la UE.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...