Impacto de la Ley de IA de la UE en las Empresas
La Ley de IA de la Unión Europea está teniendo un impacto significativo en las empresas, tanto dentro como fuera del bloque económico. Entre los efectos se encuentran la adición de capas de complejidad adicionales, desafíos de adaptación y costos de cumplimiento.
Sin embargo, también hay algunos aspectos positivos, según los expertos en negocios citados por medios de comunicación centrados en las finanzas. La UE ha demostrado una ejecución rigurosa de las normas en relación con las empresas de IA extranjeras que operan en su mercado, incluyendo la prohibición de aplicaciones y la apertura de investigaciones sobre privacidad. Estas acciones de ejecución demuestran que la UE está preocupada por el entrenamiento de datos opaco, lo que podría llevar a regulaciones más estrictas sobre la transferencia de datos internacional.
Las implicaciones de la Ley de IA son más significativas para los desarrolladores de IA europeos pequeños, en parte porque las grandes empresas tecnológicas ya tienen controles estrictos para sus productos de IA. Sin embargo, la regulación también creará oportunidades para compañías que se especializan en IA confiable, explicabilidad y seguridad de IA. Las grandes empresas europeas podrían beneficiarse de soluciones de IA que cumplan con las regulaciones.
Aún existe mucha incertidumbre sobre cómo se aplicará y se hará cumplir la regulación de IA más completa del mundo. El impacto dependerá de la ejecución a través de los miembros de la UE, que puede no ser equitativa. Además, es probable que la Ley de IA se debata en el contexto de las negociaciones comerciales con los EE.UU.
La UE Considera la Simplificación de la Ley de IA
Mientras el sector empresarial debate los posibles efectos de la Ley de IA, los burócratas europeos ya están proponiendo simplificar la regulación basándose en los comentarios de la industria. La UE desea que la IA se convierta en el modelo de innovación y en un instrumento que ayude «a cada empresa», según Roberto Viola, director del departamento digital de la Comisión Europea.
«Estamos muy decididos a simplificar – cuando sea necesario – las reglas», dice Viola. «Hemos escuchado atentamente sobre el potencial riesgo de que haya otra carga para las empresas, especialmente en términos de obligaciones de reporte y en cómo podría complicarse el cumplimiento de una o otra disposición de la Ley de IA.»
Una de las áreas que podría simplificarse es la obligación de reporte. Según el reglamento, los proveedores y usuarios de sistemas de IA deben informar a cualquier persona expuesta a ellos, a menos que sea obvio por el contexto. Se espera que los estados miembros de la UE comiencen consultas sobre la simplificación de la ley la próxima semana.
Viola también destacó la importancia de los estándares para el enfoque de la UE hacia la IA, incluyendo aquellos que miden, evalúan o realizan evaluaciones de conformidad de terceros. Sin embargo, los estándares técnicos aún tienen un largo camino por recorrer antes de ser reconocidos oficialmente.
UK AISI: Evaluaciones de IA No «Suficientemente Maduras»
En el Reino Unido, el gobierno está adoptando un enfoque más liberal para regular la IA. El Instituto de Seguridad de IA del Reino Unido (UK AISI), la agencia gubernamental encargada de la seguridad de la IA, afirma que las evaluaciones de riesgo de IA son una «ciencia emergente» y no son lo suficientemente maduras como para emitir certificados de seguridad.
Las opiniones fueron compartidas por el director del instituto, Oliver Ilott, durante la Cumbre Global de Estándares de IA en Londres. «Las evaluaciones que estamos realizando no cubren todos los riesgos, y las evaluaciones son una ciencia emergente», dice Ilott. «Creemos que no son lo suficientemente maduras como para que se pueda emitir un certificado de seguridad.»
Actualmente, no existe regulación en el Reino Unido que requiera a los desarrolladores de modelos de IA probar sus modelos antes de la implementación a través de organismos como el UK AISI. El instituto tampoco proporciona un certificado de seguridad al finalizar.
Dado que el instituto no puede forzar las pruebas, la cooperación de los desarrolladores depende de su deseo de descubrir problemas en la tecnología que han creado. Además, no se deben esperar estándares maduros para las aplicaciones actuales de IA porque los desarrolladores están enfocando sus esfuerzos en crear tecnologías aún más disruptivas.