Literacia en IA: Claves para Implementar tu Programa

Literacidad en IA – Puntos clave sobre la construcción de su programa

La obligación de literacidad en IA del Acta de IA de la UE se aplicó a partir del 2 de febrero de 2025. Esta normativa afecta a cualquier entidad que opere con IA y que tenga alguna conexión con la UE, incluyendo a proveedores y desplegadores de sistemas de IA.

La obligación

Los proveedores y desplegadores de sistemas de IA deben “tomar medidas para garantizar, en la medida de sus posibilidades, un nivel suficiente de literacidad en IA entre su personal y otras personas que operen y utilicen sistemas de IA en su nombre” (Artículo 4).

El considerando 20 resume el requisito de equipar a las personas relevantes con “las nociones necesarias” para tomar decisiones informadas sobre los sistemas de IA.

Esta definición también se refiere a la necesidad de realizar un despliegue informado, así como a la toma de conciencia sobre las oportunidades, riesgos y posibles daños que puede causar la IA.

¿Quién necesita ser literado en IA?

La literacidad en IA es necesaria para proveedores, desplegadores, personas afectadas, así como para el personal y otras personas que operen y utilicen sistemas de IA.

La Comisión confirma que esto incluye a cualquier persona bajo el ámbito operativo del proveedor/desplegador, lo que podría abarcar contratistas, proveedores de servicios o clientes.

¿Qué es un nivel “suficiente” de literacidad en IA?

La Comisión no impondrá requisitos estrictos (o específicos), ya que esto es contextual. Las organizaciones deben adaptar su enfoque; por ejemplo, aquellas que usen sistemas de IA de alto riesgo podrían necesitar “medidas adicionales” para garantizar que los empleados comprendan esos riesgos.

Incluso aquellos con un profundo conocimiento técnico en IA podrían necesitar formación sobre los riesgos y cómo evitarlos o mitigarlos, así como otros conocimientos relevantes como los aspectos legales y éticos de la IA.

La Comisión señala su repositorio vivo sobre literacidad en IA como una fuente potencial de inspiración.

¿Hay alguna exención de “humano en el circuito”?

No, de hecho, la literacidad en IA es más importante para aquellos que están en el circuito. Para proporcionar una supervisión genuina, necesitan comprender los sistemas de IA que están supervisando.

¿Cuáles son las consecuencias de no cumplir con esta obligación?

La vigilancia se llevará a cabo por las autoridades de mercado y puede comenzar a partir del 2 de agosto de 2026, cuando entren en vigor las disposiciones sobre sus poderes de ejecución.

La Comisión incluye una pregunta sobre si se podrían imponer penalizaciones por incumplimiento desde el 2 de febrero de 2025, pero no proporciona una respuesta, limitándose a afirmar que habrá cooperación con la Junta de IA y todas las autoridades pertinentes para asegurar una aplicación coherente de las normas.

El detalle sobre cómo se llevará a cabo la ejecución aún está por determinarse. El Acta de IA no prevé multas específicas por incumplimiento de la obligación de literacidad en IA.

Nuestra perspectiva

Aunque la Comisión no proporciona mucha información sobre cómo deberían ser los programas de literacidad en IA, lo que se considere “suficiente” será personal para cada organización.

Para dar forma a un programa de literacidad en IA, será necesario considerar primero:

  • ¿Quiénes son los diferentes interesados involucrados en el uso de IA? Esto debe abarcar a todos: aquellos involucrados en la gobernanza de IA, desarrolladores, usuarios de IA, proveedores de servicios, clientes y personas afectadas.
  • ¿Qué sabe cada grupo y qué necesita saber? Por ejemplo, los miembros del comité de gobernanza de IA pueden necesitar una comprensión más profunda de cómo funciona la IA. Los científicos de datos pueden enfocarse en aspectos legales y éticos. Para empleados que solo usan IA generativa ocasionalmente, podría ser apropiada una sesión breve sobre los riesgos y cómo la organización los gestiona.
  • ¿Qué medio sería el más apropiado? Por ejemplo, un formato de taller podría funcionar bien para los miembros del comité de gobernanza de IA o los científicos de datos, mientras que un e-learning podría ser suficiente para empleados que utilizan IA generativa ocasionalmente.
  • ¿Cuándo se entregará la formación? Como se mencionó, la obligación ya es aplicable.
  • ¿Cómo rastrearemos la asistencia y aseguraremos que la finalización sea suficientemente alta?

La orientación de la Comisión se ocupa de la obligación específica de literacidad en IA bajo el Acta de IA. Sin embargo, la literacidad en IA es crucial para todas las organizaciones que utilizan IA, independientemente de si el Acta de IA se aplica o no. La literacidad en IA es esencial para construir un sólido programa de gobernanza de IA, capaz de gestionar la variedad de riesgos legales y organizativos que conlleva el uso de la IA.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...