Directrices para AI con Riesgos Sistémicos en la UE

Modelos de IA con Riesgos Sistémicos y Cumplimiento de Normativas de la UE

El 18 de julio de 2025, la Comisión Europea presentó directrices para ayudar a los modelos de inteligencia artificial (IA) que han sido clasificados como de riesgo sistémico. Estos modelos enfrentan obligaciones más estrictas para mitigar amenazas potenciales y cumplir con la regulación de inteligencia artificial de la Unión Europea (AI Act).

Contexto y Objetivo de las Directrices

El objetivo de estas directrices es responder a las críticas de algunas empresas sobre la AI Act y la carga regulatoria que representa. Además, busca proporcionar mayor claridad a los negocios que enfrentan multas que oscilan entre 7.5 millones de euros (aproximadamente 8.7 millones de dólares) o el 1.5% de su facturación, hasta 35 millones de euros o el 7% de su facturación global por violaciones.

Evaluación de los Modelos de IA

La AI Act, que se convirtió en ley el año pasado, entrará en vigor el 2 de agosto para los modelos de IA con riesgos sistémicos y modelos de fundación, como los desarrollados por empresas como Google, OpenAI, Meta Platforms, Anthropic y Mistral. Las empresas tienen hasta el 2 de agosto del próximo año para cumplir con esta legislación.

La Comisión define los modelos de IA con riesgo sistémico como aquellos que poseen capacidades de computación muy avanzadas y que podrían tener un impacto significativo en la salud pública, la seguridad, los derechos fundamentales o la sociedad.

Requisitos para el Cumplimiento

Los primeros modelos de esta categoría deberán llevar a cabo evaluaciones de modelo, evaluar y mitigar riesgos, realizar pruebas adversariales, reportar incidentes graves a la Comisión y garantizar una protección cibernética adecuada contra el robo y el uso indebido.

Modelos de IA de Uso General y Transparencia

Los modelos de IA de uso general (GPAI) o modelos de fundación estarán sujetos a requisitos de transparencia, que incluyen la elaboración de documentación técnica, la adopción de políticas de derechos de autor y la provisión de resúmenes detallados sobre el contenido utilizado para el entrenamiento de algoritmos.

Comentarios de la Comisión

Con estas directrices, la Comisión busca apoyar la aplicación eficaz y fluida de la AI Act, según lo declarado por la jefa de tecnología de la UE, Henna Virkkunen.

Es importante destacar que la regulación aplicable a los modelos de IA con riesgos sistémicos está diseñada no solo para proteger a los ciudadanos, sino también para fomentar un entorno de responsabilidad y confianza en el uso de la inteligencia artificial en la Unión Europea.

El cumplimiento de estas normativas será crucial para las empresas que operan en el sector de la IA, ya que la no conformidad puede resultar en sanciones severas y una pérdida de reputación en un mercado cada vez más competitivo.

More Insights

Harmonización legal de la inteligencia artificial en AIPPI 2025

La Asociación Internacional para la Protección de la Propiedad Intelectual (AIPPI) se reunirá en Yokohama del 13 al 16 de septiembre con más de 2,700 participantes. Este año, se destacan temas clave...

Divergencias en la Regulación de la IA: Colorado y el Enfoque Federal

La ley de inteligencia artificial de Colorado (CAIA) se implementará el 30 de junio de 2026 y requiere que las empresas realicen evaluaciones de impacto para los sistemas de IA de alto riesgo...

Vigilancia Inteligente: Seguridad y Privacidad en Equilibrio

La vigilancia impulsada por IA aumenta la seguridad, pero también conlleva riesgos de sesgo y erosión de libertades civiles. La regulación es desigual a nivel mundial, con la necesidad de una...

IA Responsable en Finanzas: De la Teoría a la Práctica

La discusión global sobre la inteligencia artificial ha entrado en una nueva fase, centrada en cómo utilizar estas herramientas de manera responsable, especialmente en los servicios financieros donde...

Certificación para una IA confiable y sostenible

La certificación puede convertirse en una ventaja competitiva en la adopción de inteligencia artificial (IA) confiable y sostenible. A medida que la regulación avanza, las empresas que demuestran...

Confianza en la IA: ¿Podemos confiar en lo que no vemos?

La inteligencia artificial explicable (XAI) es esencial para generar confianza, asegurar transparencia y permitir responsabilidad en áreas críticas como la salud y las finanzas. Con regulaciones que...

Flujos de trabajo de IA responsable para la investigación en UX

La investigación de UX solo es tan sólida como las decisiones humanas que la guían, y los sesgos cognitivos pueden distorsionar los hallazgos. Este artículo explora cómo integrar la inteligencia...

La Revolución de la IA Agente en la Banca

La IA agentiva está revolucionando el sector bancario al automatizar procesos complejos y mejorar la experiencia del cliente. A pesar de sus ventajas, presenta desafíos significativos en términos de...