Literacia en IA: Claves para Implementar tu Programa

Literacidad en IA – Puntos clave sobre la construcción de su programa

La obligación de literacidad en IA del Acta de IA de la UE se aplicó a partir del 2 de febrero de 2025. Esta normativa afecta a cualquier entidad que opere con IA y que tenga alguna conexión con la UE, incluyendo a proveedores y desplegadores de sistemas de IA.

La obligación

Los proveedores y desplegadores de sistemas de IA deben “tomar medidas para garantizar, en la medida de sus posibilidades, un nivel suficiente de literacidad en IA entre su personal y otras personas que operen y utilicen sistemas de IA en su nombre” (Artículo 4).

El considerando 20 resume el requisito de equipar a las personas relevantes con “las nociones necesarias” para tomar decisiones informadas sobre los sistemas de IA.

Esta definición también se refiere a la necesidad de realizar un despliegue informado, así como a la toma de conciencia sobre las oportunidades, riesgos y posibles daños que puede causar la IA.

¿Quién necesita ser literado en IA?

La literacidad en IA es necesaria para proveedores, desplegadores, personas afectadas, así como para el personal y otras personas que operen y utilicen sistemas de IA.

La Comisión confirma que esto incluye a cualquier persona bajo el ámbito operativo del proveedor/desplegador, lo que podría abarcar contratistas, proveedores de servicios o clientes.

¿Qué es un nivel “suficiente” de literacidad en IA?

La Comisión no impondrá requisitos estrictos (o específicos), ya que esto es contextual. Las organizaciones deben adaptar su enfoque; por ejemplo, aquellas que usen sistemas de IA de alto riesgo podrían necesitar “medidas adicionales” para garantizar que los empleados comprendan esos riesgos.

Incluso aquellos con un profundo conocimiento técnico en IA podrían necesitar formación sobre los riesgos y cómo evitarlos o mitigarlos, así como otros conocimientos relevantes como los aspectos legales y éticos de la IA.

La Comisión señala su repositorio vivo sobre literacidad en IA como una fuente potencial de inspiración.

¿Hay alguna exención de “humano en el circuito”?

No, de hecho, la literacidad en IA es más importante para aquellos que están en el circuito. Para proporcionar una supervisión genuina, necesitan comprender los sistemas de IA que están supervisando.

¿Cuáles son las consecuencias de no cumplir con esta obligación?

La vigilancia se llevará a cabo por las autoridades de mercado y puede comenzar a partir del 2 de agosto de 2026, cuando entren en vigor las disposiciones sobre sus poderes de ejecución.

La Comisión incluye una pregunta sobre si se podrían imponer penalizaciones por incumplimiento desde el 2 de febrero de 2025, pero no proporciona una respuesta, limitándose a afirmar que habrá cooperación con la Junta de IA y todas las autoridades pertinentes para asegurar una aplicación coherente de las normas.

El detalle sobre cómo se llevará a cabo la ejecución aún está por determinarse. El Acta de IA no prevé multas específicas por incumplimiento de la obligación de literacidad en IA.

Nuestra perspectiva

Aunque la Comisión no proporciona mucha información sobre cómo deberían ser los programas de literacidad en IA, lo que se considere “suficiente” será personal para cada organización.

Para dar forma a un programa de literacidad en IA, será necesario considerar primero:

  • ¿Quiénes son los diferentes interesados involucrados en el uso de IA? Esto debe abarcar a todos: aquellos involucrados en la gobernanza de IA, desarrolladores, usuarios de IA, proveedores de servicios, clientes y personas afectadas.
  • ¿Qué sabe cada grupo y qué necesita saber? Por ejemplo, los miembros del comité de gobernanza de IA pueden necesitar una comprensión más profunda de cómo funciona la IA. Los científicos de datos pueden enfocarse en aspectos legales y éticos. Para empleados que solo usan IA generativa ocasionalmente, podría ser apropiada una sesión breve sobre los riesgos y cómo la organización los gestiona.
  • ¿Qué medio sería el más apropiado? Por ejemplo, un formato de taller podría funcionar bien para los miembros del comité de gobernanza de IA o los científicos de datos, mientras que un e-learning podría ser suficiente para empleados que utilizan IA generativa ocasionalmente.
  • ¿Cuándo se entregará la formación? Como se mencionó, la obligación ya es aplicable.
  • ¿Cómo rastrearemos la asistencia y aseguraremos que la finalización sea suficientemente alta?

La orientación de la Comisión se ocupa de la obligación específica de literacidad en IA bajo el Acta de IA. Sin embargo, la literacidad en IA es crucial para todas las organizaciones que utilizan IA, independientemente de si el Acta de IA se aplica o no. La literacidad en IA es esencial para construir un sólido programa de gobernanza de IA, capaz de gestionar la variedad de riesgos legales y organizativos que conlleva el uso de la IA.

More Insights

Los riesgos ocultos de la inteligencia artificial en el lugar de trabajo

La adopción de la inteligencia artificial en las empresas plantea riesgos significativos que muchas organizaciones están ignorando. A medida que los agentes de IA se convierten en colegas digitales...

La Imperativa de Colaboración en Seguridad de IA

La revolución de la inteligencia artificial ya no es una promesa distante, está aquí y está remodelando industrias y la vida diaria. La clave para garantizar que el poder de la IA se utilice de manera...

El papel de la inteligencia artificial en la policía

Las agencias de aplicación de la ley (LEAs) están utilizando cada vez más la inteligencia artificial (IA) para mejorar su funcionamiento, especialmente con capacidades avanzadas para la policía...

Guía esencial de la AMA para la adopción y gobernanza de la IA en el sector salud

La AMA ha publicado una guía sobre la adopción y gobernanza de la inteligencia artificial (IA) para sistemas de salud, destacando la importancia de establecer políticas adecuadas en un entorno...

La ONU establece un panel sobre IA y un diálogo global para su gobernanza

La Asamblea General de las Naciones Unidas ha adoptado una resolución para establecer un Panel Científico Internacional Independiente sobre Inteligencia Artificial y un Diálogo Global sobre la...

La próxima ola de amenazas cibernéticas: del envenenamiento de datos a los agentes de IA

A medida que la inteligencia artificial (IA) se adopta rápidamente en diversas industrias, también aumenta la exposición a riesgos cibernéticos. Los modelos de IA generativa están creando nuevas...

Ética y Gobernanza de la IA en el Sudeste Asiático

En este artículo, Nguyen Hoang Minh Ngoc explora el panorama actual de la gobernanza y la ética de la inteligencia artificial (IA) en los seis países del sudeste asiático. Se destaca la necesidad de...