La Regulación de IA: Un Hito en Europa

La Ley de IA: Una Regulación Pionera Entra en Vigor

El 4 de febrero de 2025, la Comisión Europea publicó las Directrices sobre prácticas de IA prohibidas, tal como se define en la Ley de IA, que entró en vigor el 1 de agosto de 2024.

El AI Action Summit tuvo lugar en París (Francia) los días 10 y 11 de febrero de 2025, con la participación de jefes de estado y de gobierno, líderes de organizaciones internacionales y directores ejecutivos.

Han sido unas semanas intensas para los observadores de la IA en el continente europeo: en primer lugar, la emisión de nuevas directrices en torno a la Ley de IA, el marco regulatorio más completo para la IA hasta la fecha; en segundo lugar, el AI Action Summit, organizado por Francia y co-presidido por India. Las expectativas eran altas, con casi 100 países y más de 1,000 representantes del sector privado y de la sociedad civil presentes, y el debate resultante fue enriquecedor.

Durante la cumbre, se planteó la cuestión: ¿la innovación supera a la regulación? Sin embargo, se puede argumentar que ignorar los riesgos inherentes a la IA no necesariamente acelerará la innovación, y que los desafíos actuales en Europa tienen más que ver con la fragmentación del mercado y la falta de capital de riesgo. Es importante considerar la necesidad de que los gobiernos democráticos adopten medidas prácticas, en lugar de meras declaraciones, centrándose en los riesgos para la estabilidad social, política y económica en todo el mundo debido al uso indebido de los modelos de IA.

Sistema de Riesgo de Cuatro Niveles

La Ley de IA sigue un sistema de riesgo basado en cuatro niveles. El nivel más alto, «riesgo inaceptable», incluye los sistemas de IA considerados una clara amenaza para la seguridad de la sociedad. Ocho prácticas están incluidas:

  • Manipulación y engaño dañinos basados en IA;
  • Explotación dañina de vulnerabilidades basadas en IA;
  • Evaluación o predicción del riesgo de delito individual;
  • Raspado no dirigido de internet o material de CCTV para crear o expandir bases de datos de reconocimiento facial;
  • Reconocimiento emocional en lugares de trabajo e instituciones educativas;
  • Categorización biométrica para deducir ciertas características protegidas;
  • Identificación biométrica remota en tiempo real para fines de aplicación de la ley en espacios públicos;

Las disposiciones dentro de este nivel, que incluyen el raspado de internet para crear bases de datos de reconocimiento facial, entraron en vigor el 2 de febrero de 2025. Estos sistemas están ahora prohibidos, y las empresas enfrentan multas de hasta 35 millones de euros o el 7% de sus ingresos anuales globales, lo que sea mayor, si no cumplen. Sin embargo, la aplicación en los niveles siguientes tendrá que esperar hasta agosto de 2025.

Nivel de Alto Riesgo

El siguiente nivel, el «alto riesgo», incluye casos de uso de IA que pueden presentar riesgos graves para la salud, la seguridad o los derechos fundamentales, incluyendo amenazas a infraestructuras críticas (por ejemplo, transporte), cuya falla podría poner en riesgo la vida y salud de los ciudadanos. Las soluciones de IA utilizadas en instituciones educativas, que pueden determinar el acceso a la educación y el rumbo de la vida profesional de alguien (por ejemplo, la calificación de exámenes), así como componentes de seguridad basados en IA de productos (por ejemplo, aplicaciones de IA en cirugía asistida por robot), también se clasifican aquí.

Aunque no serán prohibidos, los sistemas de IA de alto riesgo estarán sujetos a obligaciones legales antes de poder ser comercializados, incluyendo la evaluación y mitigación de riesgos adecuadas y una documentación detallada que proporcione toda la información necesaria.

Riesgo Mínimo o Ninguno

Siguiendo el nivel de alto riesgo, existe el nivel de «riesgo mínimo o nulo». Esto significa obligaciones de transparencia más ligeras, lo que puede implicar que los desarrolladores y desplegadores aseguren que los usuarios finales sean conscientes de que están interactuando con IA, por ejemplo, en casos prácticos como chatbots y deepfakes. La explicabilidad también está consagrada en esta legislación, ya que las empresas de IA pueden tener que compartir información sobre por qué un sistema de IA ha hecho una predicción y ha tomado una acción.

Durante la cumbre, se discutió el impacto de esta nueva orientación, con los EE. UU. criticando la regulación europea y advirtiendo contra la cooperación con China. Los EE. UU. y el Reino Unido se negaron a firmar la declaración de la cumbre sobre IA «inclusiva», un desaire que frustró las esperanzas de un enfoque unificado para regular la tecnología. El documento fue respaldado por 60 firmantes, incluyendo a Francia, China, India, Japón, Australia y Canadá.

Las startups como OpenAI, que no hace mucho advertían al Congreso de EE. UU. sobre la necesidad de regular la IA, han argumentado que la Ley de IA podría frenar a Europa en términos de desarrollo comercial de la IA.

Desarrollo Rápido

La cumbre tuvo lugar en un momento de cambio acelerado, con la startup china DeepSeek desafiando a los EE. UU. con el reciente lanzamiento del modelo de pesos abiertos R1. Otro jugador de código abierto, la startup francesa Mistral AI, que acaba de lanzar su modelo Le Chat, desempeñó un papel significativo. La empresa anunció asociaciones con la agencia nacional de empleo en Francia, la empresa de defensa europea Helsing, y Stellantis, el fabricante de automóviles que posee las marcas Peugeot, Citroën, Fiat y Jeep.

El lanzamiento de la iniciativa InvestAI de 200 mil millones de euros, para financiar cuatro gigafábricas de IA para entrenar grandes modelos de IA, fue visto como parte de una estrategia más amplia para fomentar el desarrollo abierto y colaborativo de modelos avanzados de IA en la UE.

More Insights

Regulación de IA: Un llamado urgente del CII

El Instituto Chartered de Seguros (CII) ha solicitado marcos de responsabilidad claros y una estrategia de habilidades a nivel sectorial para guiar el uso de la inteligencia artificial (IA) en los...

Desarrollos en Inteligencia Artificial en Nueva York: Legislación Clave para Empleadores

En la primera parte de 2025, Nueva York se unió a otros estados para regular la inteligencia artificial (IA) a nivel estatal. Se introdujeron proyectos de ley que se centran en el uso de herramientas...

Estrategias de Gestión de Riesgos en Sistemas de Inteligencia Artificial

El artículo discute la importancia de gestionar los riesgos asociados con los sistemas de inteligencia artificial, destacando que el uso de datos erróneos puede llevar a resultados perjudiciales y...

Lo Que Debe Saber Sobre la Ley de Inteligencia Artificial de la UE

La Unión Europea ha introducido la Ley de Inteligencia Artificial (AI Act), una regulación histórica diseñada para gestionar los riesgos y oportunidades de las tecnologías de IA en Europa. Este...

La Ley Básica de IA en Corea: Un Nuevo Horizonte Regulatorio

Corea del Sur se ha posicionado a la vanguardia de la regulación de la inteligencia artificial en Asia con la aprobación de la Ley Básica de IA, que entrará en vigor en enero de 2026. Esta legislación...

Cumpliendo con el Acta de IA de la UE y DORA: Un Enfoque Financiero

El Acta de IA de la UE y DORA están transformando la manera en que las entidades financieras manejan el riesgo asociado con la inteligencia artificial. Es fundamental comprender cómo estas...

Regulación de la IA: Desafíos y Oportunidades en el Espacio Transatlántico

La inteligencia artificial (IA) se ha convertido en una de las fuerzas tecnológicas más trascendentales de la actualidad, con el potencial de transformar economías, sociedades y la naturaleza misma de...

La UE Impulsa la Estrategia de IA para Superar Barreras

La Comisión Europea ha presentado una nueva estrategia para promover la inteligencia artificial (IA) en Europa, buscando reducir las barreras para su implementación y mejorar la competitividad global...