Los Estados Miembros de la UE Enfrentan Escasez de Fondos para Implementar la Ley de IA
La implementación de la Ley de IA en la Unión Europea está enfrentando retos significativos, particularmente en lo que respecta a la financiación y la disponibilidad de personal experto. Según un asesor político de la UE, muchos estados miembros se encuentran en una situación financiera precaria, lo que dificulta la aplicación efectiva de la ley.
Desafíos Financieros y de Talento
El asesor político Kai Zenner advirtió que “la mayoría de los estados miembros están casi en bancarrota”. Esto implica que ya no solo carecen de los fondos necesarios para financiar sus agencias de protección de datos, sino que también están perdiendo talento en inteligencia artificial (IA) hacia empresas que pueden ofrecer salarios más altos.
Zenner enfatizó que esta combinación de falta de capital y de talento será uno de los principales desafíos para hacer cumplir la Ley de IA. “Necesitan expertos reales para entender lo que las empresas les están diciendo”, afirmó.
Plazos y Reglas de Implementación
Los países de la UE tienen hasta el 2 de agosto para establecer reglas sobre las penalizaciones y multas en relación con la Ley de IA. Esta ley no solo afecta a las empresas con sede en la UE, sino también a aquellas que operan en el bloque.
¿Qué es la Ley de IA de la UE?
En julio de 2024, la UE aprobó su Ley de IA, considerada la más completa del mundo. La implementación comenzó este año, y su objetivo es proteger la seguridad y los derechos de las personas, así como prevenir la discriminación y el daño causado por la inteligencia artificial.
La Ley de IA de la UE es vital porque podría servir como plantilla para las regulaciones de IA en otros países, similar a cómo Europa lideró la creación del RGPD en materia de privacidad. Este fenómeno se conoce como el “efecto Bruselas”.
Clasificación de Riesgos
La Ley utiliza un sistema de clasificación de riesgos que regula la IA según su nivel de riesgo. Las categorías principales son:
Sistemas de Riesgo Inaceptable
Estos sistemas están prohibidos e incluyen:
- Sistemas de puntuación social, que clasifican a los ciudadanos.
- IA que manipula a las personas utilizando técnicas subliminales.
- Reconocimiento facial en tiempo real en espacios públicos, con algunas excepciones para la aplicación de la ley.
Sistemas de Alto Riesgo
La IA utilizada en áreas sensibles como la contratación, educación, atención médica o aplicación de la ley se clasifica como “de alto riesgo”. Estos sistemas deben cumplir estrictas regulaciones, que incluyen:
- Transparencia en el funcionamiento.
- Precisión en los resultados.
- Mantenimiento de registros sobre cómo la IA toma decisiones.
- Pruebas y monitoreo regular.
Por ejemplo, si un hospital utiliza IA para ayudar a diagnosticar pacientes, ese sistema debe cumplir altos estándares y estar abierto a inspección.
Sistemas de Bajo Riesgo
Estos incluyen sistemas como ChatGPT u otros chatbots. No requieren una regulación estricta, pero deben informar a los usuarios que el contenido ha sido generado por IA. Por ejemplo, una imagen generada o modificada por IA debe ser divulgada como tal.