La UE prohíbe sistemas de IA con riesgo inaceptable

Actualización de la Ley de IA de la UE: Prohibición de sistemas que representan un ‘riesgo inaceptable’

La Ley de Inteligencia Artificial (IA) de la Unión Europea (UE), presentada por primera vez en 2023, establece un marco regulatorio común para el desarrollo y la aplicación de la IA. La Comisión Europea (CE), en su última actualización, ha prohibido el uso de prácticas de IA cuya evaluación de riesgo se considere «inaceptable».

Niveles de Riesgo para los Sistemas de IA

La CE ha definido cuatro niveles de riesgo para los sistemas de IA: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo.

Riesgo Inaceptable

Los sistemas de IA que presentan un riesgo inaceptable son aquellos que se consideran una «amenaza clara para la seguridad, los medios de vida y los derechos de las personas». Estos sistemas están ahora prohibidos en la UE e incluyen prácticas como:

  • Evaluación social
  • Recolección de datos de internet o CCTV para bases de datos de reconocimiento facial
  • Manipulación y explotación de vulnerabilidades mediante IA dañina

Riesgo Alto

Los sistemas de IA de alto riesgo no están prohibidos, pero serán monitoreados por la CE. Estos incluyen aplicaciones que, aunque creadas de buena fe, podrían tener consecuencias devastadoras si algo sale mal. Ejemplos de sistemas de alto riesgo incluyen:

  • Componentes de seguridad de infraestructuras críticas cuya falla podría poner en riesgo la vida y salud de los ciudadanos, como en el transporte.
  • Soluciones de IA utilizadas en instituciones educativas que determinan el acceso a la educación y la trayectoria profesional de una persona, como la evaluación de exámenes.
  • Componentes de seguridad de productos, como cirugías asistidas por robots.
  • Casos de uso de IA en aplicaciones de la ley que pueden interferir con los derechos fundamentales de las personas, como la evaluación de pruebas.

Antes de que un sistema de IA de alto riesgo pueda ser comercializado, debe someterse a una evaluación de conformidad y cumplir con todos los requisitos de la Ley de IA. Posteriormente, el sistema debe ser registrado en una base de datos y llevar la Marca CE, que regula los productos vendidos dentro del Espacio Económico Europeo (EEE) desde 1985.

Consecuencias de la No Conformidad

La aplicación de la Ley de IA será supervisada por reguladores nacionales. Aquellas empresas que se encuentren en incumplimiento enfrentarán fuertes sanciones financieras de €35 millones o más, dependiendo de los ingresos anuales globales. Además, las que participen en prácticas de IA prohibidas podrían ser excluidas de operar en la UE.

Sin embargo, para la mayoría de los desarrolladores de IA en la región, esto no será necesario, ya que, según la CE, la mayoría de los sistemas de IA actualmente utilizados en la UE presentan un riesgo mínimo o nulo.

La CE ha declarado: “La Ley de IA asegura que los europeos puedan confiar en lo que la IA tiene para ofrecer. Mientras que la mayoría de los sistemas de IA presentan un riesgo limitado a nulo y pueden contribuir a resolver muchos desafíos sociales, ciertos sistemas de IA crean riesgos que debemos abordar para evitar resultados indeseables.”

More Insights

Las nuevas leyes de vigilancia biométrica en Hungría y su violación de la Ley de IA

Las nuevas leyes de vigilancia biométrica de Hungría violan la Ley de IA de la UE al ampliar el uso de la tecnología de reconocimiento facial, incluso en infracciones menores y manifestaciones...

Presión de Trump sobre Europa para abandonar las normas de IA

La administración del presidente Donald Trump está presionando a Europa para que abandone un código de prácticas que obligaría a los desarrolladores de inteligencia artificial avanzada a seguir...

Evita Pesadillas Laborales por Violaciones de Cumplimiento de IA

Este artículo aborda las violaciones de cumplimiento relacionadas con la inteligencia artificial en el lugar de trabajo. Proporciona consejos sobre cómo las organizaciones pueden evitarlas y asegurar...

Gobernanza de IA: Clave para Marcas y Agencias

La gobernanza de la inteligencia artificial es un conjunto de procesos y políticas que garantiza que los sistemas de IA se utilicen de manera responsable y ética. Para las marcas y agencias, es...

Agentes de IA: Oportunidades y Riesgos Emergentes

Las empresas de diversos sectores están adoptando rápidamente agentes de inteligencia artificial (IA), sistemas generativos de IA que actúan de forma autónoma para realizar tareas. Sin embargo, estos...

Gobernanza de IA Institucionalizada en los EAU

Expertos indican que los Emiratos Árabes Unidos están presenciando una gobernanza de inteligencia artificial institucionalizada. Este avance refleja un enfoque proactivo hacia la regulación y el uso...

Lo que desean las grandes tecnológicas en el plan de acción de IA de EE. UU.

Las grandes empresas tecnológicas, como Amazon, Meta y Uber, han expresado sus deseos para el Plan de Acción de IA de la Casa Blanca, que incluye unificación de regulaciones y más inversiones en...

Czechia y la Nueva Legislación de IA de la UE

Con el auge de la inteligencia artificial, la Unión Europea introdujo regulaciones para estandarizar algunas normas para su uso. La llamada Ley de Inteligencia Artificial prohíbe completamente el uso...