Opiniones de Expertos sobre los Cambios en la Ley de IA de la UE
Las obligaciones preparatorias relacionadas con los sistemas de IA de alto riesgo entran en vigor hoy, a medida que la Ley de IA de la UE se acerca a su aplicación completa. Estas reglas se aplican a organizaciones dentro y fuera de la UE que colocan sistemas de IA en el mercado de la UE o los utilizan dentro del bloque.
La Comisión Europea afirma que la ley responde a los riesgos de seguridad y derechos asociados con ciertos usos de la IA. En su guía, menciona: “La Ley de IA es la primera ley integral del mundo para la IA. Su objetivo es abordar los riesgos para la salud, la seguridad y los derechos fundamentales.”
Clasificación de Sistemas de Alto Riesgo
Los sistemas de alto riesgo abarcan la IA utilizada en áreas como la selección de personal, la evaluación de crédito, el acceso a la atención médica, la evaluación educativa y la aplicación de la ley. Estos son usos donde los resultados automatizados pueden influir en decisiones sobre individuos de maneras directas y duraderas.
La Comisión vincula la ley a la confianza, señalando que las reglas nacionales desiguales y la incertidumbre legal han ralentizado la adopción de la IA en toda la UE, lo que crea la necesidad de un marco único.
Obligaciones para Proveedores y Desplegadores
Los proveedores deben completar una evaluación de conformidad antes de que un sistema de IA de alto riesgo sea colocado en el mercado o puesto en servicio. Esta evaluación verifica la gestión de riesgos, la gobernanza de datos, la documentación técnica, la transparencia, la supervisión humana, la precisión y la ciberseguridad.
Se también debe implementar un sistema de gestión de calidad a lo largo del ciclo de vida del sistema. Según la Comisión, “los proveedores de sistemas de IA de alto riesgo siguen siendo responsables de la seguridad y el cumplimiento del sistema durante todo su ciclo de vida.”
Cada sistema de alto riesgo debe ser ingresado en una base de datos pública de la UE, donde las autoridades pueden revisar esta información como parte de la supervisión del mercado. Si el sistema o su uso previsto cambia de manera significativa, la evaluación debe realizarse nuevamente.
Deberes Nuevos para Autoridades Públicas
Los desplegadores deben seguir las instrucciones de uso y monitorear cómo operan los sistemas en la práctica. La supervisión humana debe ser asignada a personal con la autoridad para intervenir cuando surjan riesgos.
Las autoridades públicas y organizaciones que brindan servicios públicos deben realizar una evaluación de impacto sobre derechos fundamentales antes de su primer uso. Esto examina los efectos sobre los derechos protegidos bajo la ley de la UE, junto con las obligaciones de protección de datos.
Las personas afectadas por decisiones apoyadas por IA deben ser informadas, y donde una decisión tenga efectos legales, los individuos pueden solicitar una explicación. La ley exige que los desplegadores proporcionen “una explicación clara y significativa.”
Implicaciones y Oportunidades
El enfoque de la Ley de IA en la clasificación y la orientación sigue siendo necesario en esta etapa. La ley clasifica la IA de alto riesgo por su propósito previsto. En el Anexo III se enumeran los usos sensibles en empleo, educación, migración, justicia e identificación biométrica.
Los proveedores pueden argumentar que un sistema del Anexo III no es de alto riesgo si realiza una tarea estrecha o preparatoria y no influye en los resultados. Esa evaluación debe ser documentada y compartida con las autoridades a solicitud.
La Comisión afirma que emitirá orientaciones con ejemplos prácticos para respaldar la clasificación, buscando dar claridad a las empresas mientras se mantienen las protecciones para la salud, la seguridad y los derechos fundamentales.
Las sanciones refuerzan las reglas, con multas que alcanzan los €35 millones o el 7% de la facturación global para prácticas prohibidas, y umbrales más bajos para otras infracciones.
Reacciones de Expertos
Expertos en tecnología han reaccionado a las actualizaciones, destacando que este hito en la Ley de IA de la UE es un paso importante para proporcionar claridad a las empresas, mientras que la adopción de IA responsable y a gran escala se convierte en una prioridad. La regulación basada en riesgos y enfocada en la implementación será esencial para mantener la competitividad de Europa.
La responsabilidad en la innovación debe ser una asociación a través de industrias, con reguladores y con la sociedad en general. La transparencia, una fuerte gobernanza y la supervisión humana son fundamentales para garantizar que los sistemas de IA sean explicables y no se traten como una caja negra opaca.
La innovación responsable no solo debe ser un objetivo, sino que debe integrarse en el diseño y la implementación de sistemas de IA desde el principio.