Directrices de la Comisión Europea sobre Prácticas de IA Prohibidas

Directrices de la Comisión Europea sobre Prácticas de IA Prohibidas bajo la Ley de IA de la UE

El 4 de febrero de 2025, la Comisión Europea (CE) emitió un borrador de directrices que aclaran las prácticas de IA que están prohibidas bajo la Ley de Inteligencia Artificial (IA) de la Unión Europea (UE). A pesar de ser no vinculantes, estas directrices ofrecen aclaraciones valiosas y ejemplos prácticos para ayudar a las empresas a navegar sus obligaciones bajo la Ley de IA. La CE ha aprobado el borrador, pero aún se espera su adopción formal en el corto plazo.

Antecedentes

El 2 de febrero de 2025, las disposiciones de la Ley de IA sobre prácticas de IA prohibidas entraron en vigor, junto con otras disposiciones sobre alfabetización en IA. El Artículo 5 de la Ley de IA prohíbe ciertas prácticas de IA que se consideran de riesgo inaceptable, tales como sistemas de IA que manipulan o explotan a individuos, realizan puntuaciones sociales o inferen emociones de las personas en el lugar de trabajo o en la educación. La prohibición se aplica tanto a las empresas que ofrecen dichos sistemas de IA como a aquellas que los utilizan.

Prácticas de IA Prohibidas

A continuación, se presenta un resumen de las principales prohibiciones bajo la Ley de IA, según lo interpretado por las directrices:

  1. Puntuación Social: La Ley de IA prohíbe ofrecer o utilizar sistemas de IA que evalúen los comportamientos sociales de los individuos para determinar su tratamiento en un contexto no relacionado. Por ejemplo, sistemas de IA utilizados para recomendar el precio de una prima de seguro podrían considerarse puntuación social si la evaluación se basa en características personales no relacionadas.
  2. Manipulación y Explotación: La Ley de IA prohíbe el uso de sistemas de IA que utilicen técnicas subliminales o exploten vulnerabilidades individuales para influir en su comportamiento y causar daño. Por ejemplo, el uso de IA en juegos para fomentar un juego excesivo explotando las vulnerabilidades de los niños se considera prohibido.
  3. Reconocimiento Facial e Identificación Biométrica: La Ley de IA prohíbe la práctica de construir bases de datos de reconocimiento facial mediante la captura no dirigida de imágenes de internet o de CCTV. Las directrices aclaran que esta prohibición no se aplica a la captura de datos que no sean imágenes faciales.
  4. Reconocimiento de Emociones en Lugares de Trabajo e Instituciones Educativas: El uso de IA para reconocer emociones en entornos laborales y educativos está generalmente prohibido. Ejemplos incluyen el uso de sistemas de reconocimiento de emociones durante el proceso de contratación o en instituciones educativas.
  5. Categorización Biométrica: La categorización de individuos basada en atributos sensibles como raza u opiniones políticas utilizando datos biométricos está prohibida. Por ejemplo, las directrices indican que es prohibido ofrecer sistemas de IA que categoricen a las personas en base a tales atributos.

Responsabilidades para Proveedores de IA

Las directrices estipulan que los proveedores de sistemas de IA son responsables de no lanzar un sistema que sea «razonablemente probable» que se utilice para un propósito prohibido, así como de adoptar salvaguardias para prevenir el uso indebido razonablemente previsible. Esto implica anticipar los posibles usos de sus sistemas de IA y implementar salvaguardias adecuadas.

Próximos Pasos

Las empresas que participen en prácticas de IA prohibidas pueden enfrentar multas significativas, que pueden alcanzar hasta 35 millones de euros o el siete por ciento de su facturación anual global, lo que sea mayor. Se espera que las primeras acciones de ejecución comiencen en la segunda mitad de 2025, a medida que los países de la UE finalicen sus regímenes de ejecución. Las empresas que ofrezcan o utilicen IA en la UE deben revisar sus sistemas de IA y términos en función de estas directrices y abordar cualquier brecha de cumplimiento en la primera mitad de 2025.

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...