La UE prohíbe sistemas de IA con riesgo inaceptable

Actualización de la Ley de IA de la UE: Prohibición de sistemas que representan un ‘riesgo inaceptable’

La Ley de Inteligencia Artificial (IA) de la Unión Europea (UE), presentada por primera vez en 2023, establece un marco regulatorio común para el desarrollo y la aplicación de la IA. La Comisión Europea (CE), en su última actualización, ha prohibido el uso de prácticas de IA cuya evaluación de riesgo se considere «inaceptable».

Niveles de Riesgo para los Sistemas de IA

La CE ha definido cuatro niveles de riesgo para los sistemas de IA: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo.

Riesgo Inaceptable

Los sistemas de IA que presentan un riesgo inaceptable son aquellos que se consideran una «amenaza clara para la seguridad, los medios de vida y los derechos de las personas». Estos sistemas están ahora prohibidos en la UE e incluyen prácticas como:

  • Evaluación social
  • Recolección de datos de internet o CCTV para bases de datos de reconocimiento facial
  • Manipulación y explotación de vulnerabilidades mediante IA dañina

Riesgo Alto

Los sistemas de IA de alto riesgo no están prohibidos, pero serán monitoreados por la CE. Estos incluyen aplicaciones que, aunque creadas de buena fe, podrían tener consecuencias devastadoras si algo sale mal. Ejemplos de sistemas de alto riesgo incluyen:

  • Componentes de seguridad de infraestructuras críticas cuya falla podría poner en riesgo la vida y salud de los ciudadanos, como en el transporte.
  • Soluciones de IA utilizadas en instituciones educativas que determinan el acceso a la educación y la trayectoria profesional de una persona, como la evaluación de exámenes.
  • Componentes de seguridad de productos, como cirugías asistidas por robots.
  • Casos de uso de IA en aplicaciones de la ley que pueden interferir con los derechos fundamentales de las personas, como la evaluación de pruebas.

Antes de que un sistema de IA de alto riesgo pueda ser comercializado, debe someterse a una evaluación de conformidad y cumplir con todos los requisitos de la Ley de IA. Posteriormente, el sistema debe ser registrado en una base de datos y llevar la Marca CE, que regula los productos vendidos dentro del Espacio Económico Europeo (EEE) desde 1985.

Consecuencias de la No Conformidad

La aplicación de la Ley de IA será supervisada por reguladores nacionales. Aquellas empresas que se encuentren en incumplimiento enfrentarán fuertes sanciones financieras de €35 millones o más, dependiendo de los ingresos anuales globales. Además, las que participen en prácticas de IA prohibidas podrían ser excluidas de operar en la UE.

Sin embargo, para la mayoría de los desarrolladores de IA en la región, esto no será necesario, ya que, según la CE, la mayoría de los sistemas de IA actualmente utilizados en la UE presentan un riesgo mínimo o nulo.

La CE ha declarado: “La Ley de IA asegura que los europeos puedan confiar en lo que la IA tiene para ofrecer. Mientras que la mayoría de los sistemas de IA presentan un riesgo limitado a nulo y pueden contribuir a resolver muchos desafíos sociales, ciertos sistemas de IA crean riesgos que debemos abordar para evitar resultados indeseables.”

More Insights

Flujos de trabajo de IA responsable para la investigación en UX

La investigación de UX solo es tan sólida como las decisiones humanas que la guían, y los sesgos cognitivos pueden distorsionar los hallazgos. Este artículo explora cómo integrar la inteligencia...

La Revolución de la IA Agente en la Banca

La IA agentiva está revolucionando el sector bancario al automatizar procesos complejos y mejorar la experiencia del cliente. A pesar de sus ventajas, presenta desafíos significativos en términos de...

Cumpliendo con la Regulación: La Clave de la Infraestructura Cripto Escalable

El crecimiento explosivo de la industria de las criptomonedas ha traído consigo una serie de desafíos regulatorios, especialmente en operaciones transfronterizas. La clave para asegurar las carteras...

Camino hacia la Gobernanza de IA en ASEAN: Avances y Desafíos

La Asociación de Naciones del Sudeste Asiático (ASEAN) ha adoptado un enfoque favorable a la innovación en inteligencia artificial (IA) para avanzar hacia una economía digital. Sin embargo, los...

Los riesgos ocultos de la inteligencia artificial en el lugar de trabajo

La adopción de la inteligencia artificial en las empresas plantea riesgos significativos que muchas organizaciones están ignorando. A medida que los agentes de IA se convierten en colegas digitales...

La Imperativa de Colaboración en Seguridad de IA

La revolución de la inteligencia artificial ya no es una promesa distante, está aquí y está remodelando industrias y la vida diaria. La clave para garantizar que el poder de la IA se utilice de manera...

El papel de la inteligencia artificial en la policía

Las agencias de aplicación de la ley (LEAs) están utilizando cada vez más la inteligencia artificial (IA) para mejorar su funcionamiento, especialmente con capacidades avanzadas para la policía...