Directrices para AI con Riesgos Sistémicos en la UE

Modelos de IA con Riesgos Sistémicos y Cumplimiento de Normativas de la UE

El 18 de julio de 2025, la Comisión Europea presentó directrices para ayudar a los modelos de inteligencia artificial (IA) que han sido clasificados como de riesgo sistémico. Estos modelos enfrentan obligaciones más estrictas para mitigar amenazas potenciales y cumplir con la regulación de inteligencia artificial de la Unión Europea (AI Act).

Contexto y Objetivo de las Directrices

El objetivo de estas directrices es responder a las críticas de algunas empresas sobre la AI Act y la carga regulatoria que representa. Además, busca proporcionar mayor claridad a los negocios que enfrentan multas que oscilan entre 7.5 millones de euros (aproximadamente 8.7 millones de dólares) o el 1.5% de su facturación, hasta 35 millones de euros o el 7% de su facturación global por violaciones.

Evaluación de los Modelos de IA

La AI Act, que se convirtió en ley el año pasado, entrará en vigor el 2 de agosto para los modelos de IA con riesgos sistémicos y modelos de fundación, como los desarrollados por empresas como Google, OpenAI, Meta Platforms, Anthropic y Mistral. Las empresas tienen hasta el 2 de agosto del próximo año para cumplir con esta legislación.

La Comisión define los modelos de IA con riesgo sistémico como aquellos que poseen capacidades de computación muy avanzadas y que podrían tener un impacto significativo en la salud pública, la seguridad, los derechos fundamentales o la sociedad.

Requisitos para el Cumplimiento

Los primeros modelos de esta categoría deberán llevar a cabo evaluaciones de modelo, evaluar y mitigar riesgos, realizar pruebas adversariales, reportar incidentes graves a la Comisión y garantizar una protección cibernética adecuada contra el robo y el uso indebido.

Modelos de IA de Uso General y Transparencia

Los modelos de IA de uso general (GPAI) o modelos de fundación estarán sujetos a requisitos de transparencia, que incluyen la elaboración de documentación técnica, la adopción de políticas de derechos de autor y la provisión de resúmenes detallados sobre el contenido utilizado para el entrenamiento de algoritmos.

Comentarios de la Comisión

Con estas directrices, la Comisión busca apoyar la aplicación eficaz y fluida de la AI Act, según lo declarado por la jefa de tecnología de la UE, Henna Virkkunen.

Es importante destacar que la regulación aplicable a los modelos de IA con riesgos sistémicos está diseñada no solo para proteger a los ciudadanos, sino también para fomentar un entorno de responsabilidad y confianza en el uso de la inteligencia artificial en la Unión Europea.

El cumplimiento de estas normativas será crucial para las empresas que operan en el sector de la IA, ya que la no conformidad puede resultar en sanciones severas y una pérdida de reputación en un mercado cada vez más competitivo.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...