Carta conjunta para defender la transparencia en la Ley de IA

Carta Abierta Conjunta sobre el Rechazo de la Propuesta para Socavar la Transparencia en la Ley de IA

CDT Europa, junto con 60 organizaciones, firmó una carta abierta instando a las instituciones de la UE a rechazar la eliminación de la salvaguarda de transparencia del Artículo 49(2) de la Ley de IA para sistemas de IA de alto riesgo, como se propuso en el reciente paquete Omnibus de IA.

Contexto y Críticas

En una laguna muy criticada, la Ley de IA permite a los proveedores cuyos sistemas se consideran de alto riesgo optar por no estar en la categoría de alto riesgo y evitar así todas las obligaciones conectadas, basándose en criterios amplios. Una salvaguarda crucial para este recorte dañino es el requisito de que los proveedores de sistemas de IA que se eximan de la categoría de alto riesgo deben registrar su sistema de IA en una base de datos de la UE, lo que permite la supervisión sobre la posible explotación de esta laguna. Esta salvaguarda ahora está en peligro.

Importancia de la Transparencia

Esta salvaguarda de transparencia asegura que los proveedores de sistemas de IA no puedan eludir las obligaciones centrales de la Ley de IA y que sean responsables cuando intenten hacerlo. La falta de divulgación de la autoevaluación de un desarrollador de IA permite que sistemas de IA potencialmente peligrosos se propaguen sin ser vistos y sin restricciones, impidiendo que tanto los reguladores como los implementadores puedan formarse una opinión informada sobre los sistemas de IA que podrían querer investigar o evitar.

Implicaciones y Riesgos

Eliminar la obligación de transparencia tendrá un costo humano significativo a cambio de ahorros triviales para los desarrolladores de IA: socavará drásticamente la aplicabilidad de la Ley de IA y empeorará los riesgos para la salud, la seguridad y los derechos fundamentales.

Leer la carta completa aquí.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...