La UE establece reglas de cumplimiento de IA para modelos de alto riesgo y modelos fundamentales
El 22 de julio de 2025, la Comisión Europea lanzó directrices destinadas a ayudar a las empresas a cumplir con la ley de inteligencia artificial de la UE, que entrará en vigor el 2 de agosto para los modelos de IA con riesgos sistémicos y modelos de propósito general.
Objetivo de las Directrices
Las directrices están dirigidas a firmas que desarrollan poderosos sistemas de IA que podrían impactar en la salud pública, la seguridad, los derechos fundamentales o la sociedad. Esto incluye modelos creados por empresas como Google, OpenAI, Meta, Anthropic y Mistral.
Requisitos bajo la Ley de IA
Según la Ley de IA, las empresas deben:
- Evaluar sus modelos.
- Probar posibles amenazas.
- Informar sobre incidentes graves.
- Asegurar protecciones de ciberseguridad.
Modelos de Propósito General
Los modelos de propósito general o modelos fundamentales también deben cumplir con reglas de transparencia, que incluyen:
- Preparar documentos técnicos.
- Adoptar prácticas de derechos de autor.
- Resumir fuentes de datos de entrenamiento.
Plazos y Sanciones
La Ley de IA se convirtió en ley el año pasado. Las empresas tienen hasta el 2 de agosto de 2025 para cumplir con todos sus requisitos.
Las violaciones pueden conllevar multas de hasta 35 millones de euros o el 7% de la facturación global, dependiendo del tipo de infracción.
Declaraciones de Oficiales de la UE
En un comunicado, el jefe de tecnología de la UE, Henna Virkkunen, afirmó que las directrices apoyan una aplicación fluida de las reglas.