Literacia en IA: Claves para Implementar tu Programa

Literacidad en IA – Puntos clave sobre la construcción de su programa

La obligación de literacidad en IA del Acta de IA de la UE se aplicó a partir del 2 de febrero de 2025. Esta normativa afecta a cualquier entidad que opere con IA y que tenga alguna conexión con la UE, incluyendo a proveedores y desplegadores de sistemas de IA.

La obligación

Los proveedores y desplegadores de sistemas de IA deben “tomar medidas para garantizar, en la medida de sus posibilidades, un nivel suficiente de literacidad en IA entre su personal y otras personas que operen y utilicen sistemas de IA en su nombre” (Artículo 4).

El considerando 20 resume el requisito de equipar a las personas relevantes con “las nociones necesarias” para tomar decisiones informadas sobre los sistemas de IA.

Esta definición también se refiere a la necesidad de realizar un despliegue informado, así como a la toma de conciencia sobre las oportunidades, riesgos y posibles daños que puede causar la IA.

¿Quién necesita ser literado en IA?

La literacidad en IA es necesaria para proveedores, desplegadores, personas afectadas, así como para el personal y otras personas que operen y utilicen sistemas de IA.

La Comisión confirma que esto incluye a cualquier persona bajo el ámbito operativo del proveedor/desplegador, lo que podría abarcar contratistas, proveedores de servicios o clientes.

¿Qué es un nivel “suficiente” de literacidad en IA?

La Comisión no impondrá requisitos estrictos (o específicos), ya que esto es contextual. Las organizaciones deben adaptar su enfoque; por ejemplo, aquellas que usen sistemas de IA de alto riesgo podrían necesitar “medidas adicionales” para garantizar que los empleados comprendan esos riesgos.

Incluso aquellos con un profundo conocimiento técnico en IA podrían necesitar formación sobre los riesgos y cómo evitarlos o mitigarlos, así como otros conocimientos relevantes como los aspectos legales y éticos de la IA.

La Comisión señala su repositorio vivo sobre literacidad en IA como una fuente potencial de inspiración.

¿Hay alguna exención de “humano en el circuito”?

No, de hecho, la literacidad en IA es más importante para aquellos que están en el circuito. Para proporcionar una supervisión genuina, necesitan comprender los sistemas de IA que están supervisando.

¿Cuáles son las consecuencias de no cumplir con esta obligación?

La vigilancia se llevará a cabo por las autoridades de mercado y puede comenzar a partir del 2 de agosto de 2026, cuando entren en vigor las disposiciones sobre sus poderes de ejecución.

La Comisión incluye una pregunta sobre si se podrían imponer penalizaciones por incumplimiento desde el 2 de febrero de 2025, pero no proporciona una respuesta, limitándose a afirmar que habrá cooperación con la Junta de IA y todas las autoridades pertinentes para asegurar una aplicación coherente de las normas.

El detalle sobre cómo se llevará a cabo la ejecución aún está por determinarse. El Acta de IA no prevé multas específicas por incumplimiento de la obligación de literacidad en IA.

Nuestra perspectiva

Aunque la Comisión no proporciona mucha información sobre cómo deberían ser los programas de literacidad en IA, lo que se considere “suficiente” será personal para cada organización.

Para dar forma a un programa de literacidad en IA, será necesario considerar primero:

  • ¿Quiénes son los diferentes interesados involucrados en el uso de IA? Esto debe abarcar a todos: aquellos involucrados en la gobernanza de IA, desarrolladores, usuarios de IA, proveedores de servicios, clientes y personas afectadas.
  • ¿Qué sabe cada grupo y qué necesita saber? Por ejemplo, los miembros del comité de gobernanza de IA pueden necesitar una comprensión más profunda de cómo funciona la IA. Los científicos de datos pueden enfocarse en aspectos legales y éticos. Para empleados que solo usan IA generativa ocasionalmente, podría ser apropiada una sesión breve sobre los riesgos y cómo la organización los gestiona.
  • ¿Qué medio sería el más apropiado? Por ejemplo, un formato de taller podría funcionar bien para los miembros del comité de gobernanza de IA o los científicos de datos, mientras que un e-learning podría ser suficiente para empleados que utilizan IA generativa ocasionalmente.
  • ¿Cuándo se entregará la formación? Como se mencionó, la obligación ya es aplicable.
  • ¿Cómo rastrearemos la asistencia y aseguraremos que la finalización sea suficientemente alta?

La orientación de la Comisión se ocupa de la obligación específica de literacidad en IA bajo el Acta de IA. Sin embargo, la literacidad en IA es crucial para todas las organizaciones que utilizan IA, independientemente de si el Acta de IA se aplica o no. La literacidad en IA es esencial para construir un sólido programa de gobernanza de IA, capaz de gestionar la variedad de riesgos legales y organizativos que conlleva el uso de la IA.

More Insights

Ingenieros de IA: Innovando con Responsabilidad

La inteligencia artificial ha explotado en capacidad, con avances en el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. Este crecimiento coloca a los...

La Imperativa Ética de la Inteligencia Artificial Responsable

La inteligencia artificial responsable ya no es solo una palabra de moda, sino una imperativa fundamental según la Dra. Anna Zeiter. Ella enfatiza la necesidad de confianza y responsabilidad en el uso...

Integrando IA en tu negocio sin comprometer la conformidad

La adopción de la inteligencia artificial (IA) en los negocios y la manufactura está fallando al menos el doble de veces que tiene éxito, según la Cloud Security Alliance (CSA). La CSA presenta un...

Preservación Legal de Prompts y Resultados de IA Generativa

Las herramientas de inteligencia artificial generativa (GAI) plantean preocupaciones legales como la privacidad de datos y la seguridad de datos. Es fundamental que las organizaciones implementen...

Inteligencia Artificial Responsable: Principios y Beneficios

La inteligencia artificial responsable significa crear y usar sistemas de inteligencia artificial que sean justos, claros y responsables. Esto incluye seguir ciertas reglas para asegurar que las...

Construyendo Confianza en la IA para el Éxito Empresarial

Hoy en día, las empresas se están acercando a un punto en el que los sistemas de IA son capaces de tomar decisiones con mínima o incluso sin intervención humana. Para operar de manera efectiva en este...

Regulación de IA en España: Avances y Desafíos

España es pionera en la gobernanza de la IA con el primer regulador de IA de Europa (AESIA) y un sandbox regulatorio activo. El país está construyendo un marco regulatorio integral que implementará y...

Regulación Global de la IA: Desafíos y Oportunidades

La inteligencia artificial (IA) ha avanzado enormemente en los últimos años, lo que ha llevado a oportunidades y riesgos significativos. Los gobiernos y organismos reguladores de todo el mundo están...

Inteligencia Artificial y Juego: Desafíos y Oportunidades

La implementación de la inteligencia artificial (IA) en la industria del juego promete operaciones más eficientes y una gestión de riesgos en tiempo real, pero también conlleva crecientes expectativas...