La Comisión Europea lista para intervenir ante retrasos en estándares de IA

La Comisión Europea lista para intervenir si los estándares de IA se retrasan

La Comisión Europea ha expresado su disposición a considerar “soluciones alternativas” en caso de que los estándares técnicos para las empresas que buscan demostrar cumplimiento con la Ley de IA de la UE no estén listos a tiempo. Esta declaración fue realizada por un portavoz de la Comisión en una reciente entrevista con Euronews.

Retrasos en la elaboración de estándares

Euronews reportó que CEN-CENELEC, los principales organismos encargados de redactar los estándares bajo la Ley de IA para la Comisión, están atrasados en su trabajo. Originalmente, se esperaba que los estándares estuvieran listos para agosto de 2025, pero ahora se prevé que no estarán disponibles hasta 2026.

“Si es necesario, para abordar retrasos y/o posibles vacíos, la Comisión podría considerar soluciones temporales alternativas para proporcionar orientación a los proveedores y apoyar sus esfuerzos de cumplimiento”, comentó Thomas Regnier, portavoz de la Comisión, cuando se le preguntó sobre si el retraso causaría problemas a las empresas.

Importancia de los estándares en la Ley de IA

En 2023, la Comisión solicitó a las organizaciones que trabajaran en estándares en apoyo a la Ley de IA, que permite a los fabricantes demostrar que sus productos, servicios o procesos cumplen con las normas y que son seguros, confiables y conformes. Regnier enfatizó que estos estándares “no son obligatorios”.

A pesar de la falta de estándares, los proveedores aún pueden desarrollar sistemas de IA de alto riesgo. Sin embargo, la ausencia de estos estándares podría complicar sus esfuerzos de cumplimiento. “Los estándares facilitarán mucho los esfuerzos de cumplimiento para los proveedores de sistemas de IA de alto riesgo. Por lo tanto, jugarán un papel esencial en la implementación de la Ley de IA”, agregó Regnier.

Proceso de desarrollo de estándares

Una vez que los primeros borradores de los estándares estén listos este año, estos deberán pasar por rondas obligatorias de edición, una evaluación por parte de la Comisión, así como consultas y votaciones.

Implementación de la Ley de IA

La Ley de IA, que tiene como objetivo regular aplicaciones de alto riesgo, se volvió aplicable en agosto del año pasado y se está implementando gradualmente. La ley entrará en plena vigencia en 2027. La Comisión ha declarado que su objetivo es asegurarse de que los proveedores y los organismos de evaluación de conformidad puedan prepararse adecuadamente antes de que los requisitos legales entren en vigor, que será en agosto de 2026 para algunos de los sistemas de alto riesgo.

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...