Introducción
Se ha abierto una consulta pública sobre un borrador de política de IA responsable, con plazo de presentación hasta el 3 de mayo de 2026. El documento indica una transición de principios generales a un modelo de gobernanza operativa para el desarrollo y uso de sistemas de IA.
Análisis central
Estructura de la política
La propuesta establece un marco de clasificación de riesgos en cuatro niveles: crítico, alto, limitado y bajo. Aborda aspectos de privacidad, transparencia y seguridad por diseño, e incluye requisitos de pruebas, monitoreo del desempeño, protección de datos, ciberseguridad, moderación de contenido, no discriminación, gobernanza y obligaciones de registro.
Instrumentos operativos
Se introducen varios mecanismos, entre ellos requisitos de registro de sistemas, etiquetado ético de IA vinculado a niveles de madurez, obligaciones de auditoría y aseguramiento para sistemas de alto riesgo, y un entorno regulatorio controlado para pruebas y certificación.
Implicaciones para los negocios
Las empresas que desarrollen o desplieguen IA deben integrar prácticas responsables desde el diseño, la documentación y el monitoreo continuo. La gobernanza de IA se vuelve más estructurada y centrada en la implementación, lo que exige una mayor coordinación entre los equipos de privacidad, producto, seguridad, cumplimiento y política.
Se espera una mayor alineación de la gobernanza de IA con marcos de protección de datos y ciberseguridad existentes, creando un modelo de cumplimiento más convergente.
Conclusión
El borrador de política indica que la gobernanza de IA está avanzando hacia un enfoque más operativo y basado en riesgos, ofreciendo a las organizaciones una oportunidad temprana para comprender y adaptarse a las expectativas emergentes antes de la finalización del marco regulatorio.