La UE prohíbe sistemas de IA con riesgo inaceptable

Actualización de la Ley de IA de la UE: Prohibición de sistemas que representan un ‘riesgo inaceptable’

La Ley de Inteligencia Artificial (IA) de la Unión Europea (UE), presentada por primera vez en 2023, establece un marco regulatorio común para el desarrollo y la aplicación de la IA. La Comisión Europea (CE), en su última actualización, ha prohibido el uso de prácticas de IA cuya evaluación de riesgo se considere «inaceptable».

Niveles de Riesgo para los Sistemas de IA

La CE ha definido cuatro niveles de riesgo para los sistemas de IA: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo.

Riesgo Inaceptable

Los sistemas de IA que presentan un riesgo inaceptable son aquellos que se consideran una «amenaza clara para la seguridad, los medios de vida y los derechos de las personas». Estos sistemas están ahora prohibidos en la UE e incluyen prácticas como:

  • Evaluación social
  • Recolección de datos de internet o CCTV para bases de datos de reconocimiento facial
  • Manipulación y explotación de vulnerabilidades mediante IA dañina

Riesgo Alto

Los sistemas de IA de alto riesgo no están prohibidos, pero serán monitoreados por la CE. Estos incluyen aplicaciones que, aunque creadas de buena fe, podrían tener consecuencias devastadoras si algo sale mal. Ejemplos de sistemas de alto riesgo incluyen:

  • Componentes de seguridad de infraestructuras críticas cuya falla podría poner en riesgo la vida y salud de los ciudadanos, como en el transporte.
  • Soluciones de IA utilizadas en instituciones educativas que determinan el acceso a la educación y la trayectoria profesional de una persona, como la evaluación de exámenes.
  • Componentes de seguridad de productos, como cirugías asistidas por robots.
  • Casos de uso de IA en aplicaciones de la ley que pueden interferir con los derechos fundamentales de las personas, como la evaluación de pruebas.

Antes de que un sistema de IA de alto riesgo pueda ser comercializado, debe someterse a una evaluación de conformidad y cumplir con todos los requisitos de la Ley de IA. Posteriormente, el sistema debe ser registrado en una base de datos y llevar la Marca CE, que regula los productos vendidos dentro del Espacio Económico Europeo (EEE) desde 1985.

Consecuencias de la No Conformidad

La aplicación de la Ley de IA será supervisada por reguladores nacionales. Aquellas empresas que se encuentren en incumplimiento enfrentarán fuertes sanciones financieras de €35 millones o más, dependiendo de los ingresos anuales globales. Además, las que participen en prácticas de IA prohibidas podrían ser excluidas de operar en la UE.

Sin embargo, para la mayoría de los desarrolladores de IA en la región, esto no será necesario, ya que, según la CE, la mayoría de los sistemas de IA actualmente utilizados en la UE presentan un riesgo mínimo o nulo.

La CE ha declarado: “La Ley de IA asegura que los europeos puedan confiar en lo que la IA tiene para ofrecer. Mientras que la mayoría de los sistemas de IA presentan un riesgo limitado a nulo y pueden contribuir a resolver muchos desafíos sociales, ciertos sistemas de IA crean riesgos que debemos abordar para evitar resultados indeseables.”

More Insights

Ingenieros de IA: Innovando con Responsabilidad

La inteligencia artificial ha explotado en capacidad, con avances en el aprendizaje automático, el procesamiento del lenguaje natural y la visión por computadora. Este crecimiento coloca a los...

La Imperativa Ética de la Inteligencia Artificial Responsable

La inteligencia artificial responsable ya no es solo una palabra de moda, sino una imperativa fundamental según la Dra. Anna Zeiter. Ella enfatiza la necesidad de confianza y responsabilidad en el uso...

Integrando IA en tu negocio sin comprometer la conformidad

La adopción de la inteligencia artificial (IA) en los negocios y la manufactura está fallando al menos el doble de veces que tiene éxito, según la Cloud Security Alliance (CSA). La CSA presenta un...

Preservación Legal de Prompts y Resultados de IA Generativa

Las herramientas de inteligencia artificial generativa (GAI) plantean preocupaciones legales como la privacidad de datos y la seguridad de datos. Es fundamental que las organizaciones implementen...

Inteligencia Artificial Responsable: Principios y Beneficios

La inteligencia artificial responsable significa crear y usar sistemas de inteligencia artificial que sean justos, claros y responsables. Esto incluye seguir ciertas reglas para asegurar que las...

Construyendo Confianza en la IA para el Éxito Empresarial

Hoy en día, las empresas se están acercando a un punto en el que los sistemas de IA son capaces de tomar decisiones con mínima o incluso sin intervención humana. Para operar de manera efectiva en este...

Regulación de IA en España: Avances y Desafíos

España es pionera en la gobernanza de la IA con el primer regulador de IA de Europa (AESIA) y un sandbox regulatorio activo. El país está construyendo un marco regulatorio integral que implementará y...

Regulación Global de la IA: Desafíos y Oportunidades

La inteligencia artificial (IA) ha avanzado enormemente en los últimos años, lo que ha llevado a oportunidades y riesgos significativos. Los gobiernos y organismos reguladores de todo el mundo están...

Inteligencia Artificial y Juego: Desafíos y Oportunidades

La implementación de la inteligencia artificial (IA) en la industria del juego promete operaciones más eficientes y una gestión de riesgos en tiempo real, pero también conlleva crecientes expectativas...