Regulación urgente de la inteligencia artificial

Regulación de la Inteligencia Artificial

La Inteligencia Artificial (IA) es la tecnología más transformadora de nuestra era, moldeando cada área de la actividad humana. Sin embargo, su inmenso poder conlleva riesgos significativos. La opacidad de sus algoritmos aumenta este peligro, ya que han causado un daño considerable a la sociedad en numerosas ocasiones. Estos daños pueden propagarse a una velocidad alarmante, dejando poco margen para la corrección.

Riesgos asociados a la IA

Los riesgos también se extienden a la inestabilidad sistémica, como se evidenció en los «flash crashes» financieros impulsados por IA, donde el 6 de mayo de 2010, el índice Dow Jones cayó más de 1,000 puntos en solo 10 minutos, borrando aproximadamente $1 billón en capital. Aunque el 70% de las pérdidas se recuperó al final del día, el evento mostró el potencial destructivo de la IA.

Más inquietante es su capacidad para infligir violencia física. Un informe de la ONU en 2020 indicó que drones Kargu-2, fabricados en Turquía y potenciados por reconocimiento de imágenes basado en IA, podrían haber atacado a combatientes humanos sin supervisión directa, marcando un posible primer incidente de fuerza letal autónoma.

Informes de Gaza en 2023-24 sugirieron que Israel utilizó un sistema de IA conocido como “Lavender” para generar automáticamente listas de objetivos para campañas de bombardeo, lo que pudo haber causado muertes civiles no intencionadas al bajar el umbral de ataque.

Sesgo y Discriminación en la IA

Los sistemas de IA son propensos a heredar los sesgos de sus creadores y a replicar prejuicios humanos, lo que intensifica la injusticia sistémica mientras fingen ser imparciales. Un ejemplo notable es el algoritmo COMPAS utilizado en los tribunales de EE. UU., que etiquetó de manera injusta a los acusados negros como “de alto riesgo” en comparación con los acusados blancos, afectando decisiones de libertad bajo fianza y sentencias.

Adicionalmente, el algoritmo de contratación de Amazon fue desechado tras descubrirse que discriminaba a candidatas femeninas. En 2019, el algoritmo de la tarjeta de crédito de Apple fue criticado por otorgar límites de crédito significativamente más bajos a mujeres con credenciales financieras idénticas a las de hombres.

La Necesidad de Regulaciones

Las grandes corporaciones controlan la mayoría de los recursos y el poder computacional de la IA, lo que genera riesgos geopolíticos, perpetuando monopolios y ampliando la brecha digital. No se puede ignorar el papel de Facebook en la incitación al genocidio de los rohingyas en Birmania, donde su algoritmo priorizaba el contenido provocador para aumentar el compromiso del usuario.

El lanzamiento de ChatGPT en 2022 fue un llamado de atención sobre su potencial para difundir desinformación. En respuesta, la Unión Europea aprobó la Ley de Inteligencia Artificial de la UE en agosto de 2024, que implementará sus características clave en agosto de 2026.

Características de la Ley de IA de la UE

La Ley sigue un enfoque basado en riesgos, clasificando las aplicaciones de IA según sus riesgos, desde mínimos hasta inaceptables, y prescribiendo obligaciones en consecuencia. Busca garantizar que los sistemas de IA sean seguros, transparentes y no discriminatorios, y que sean supervisados por humanos para prevenir resultados dañinos.

Los sistemas de IA con riesgos inaceptables serán prohibidos, incluyendo la manipulación del comportamiento cognitivo de personas o grupos vulnerables. Los sistemas de IA de alto riesgo requerirán monitoreo continuo.

Implicaciones Globales y la Respuesta de Otros Países

La Ley de IA de la UE podría influir en las normas globales sobre la gobernanza de tecnologías emergentes. En contraste, la administración de Trump en EE. UU. ha enfatizado el liderazgo estadounidense en IA, rechazando regulaciones que consideren barreras comerciales. Mientras tanto, China ha propuesto su Plan de Acción para la Gobernanza Global de la IA, promoviendo la cooperación internacional y la regulación de seguridad.

Brasil está cerca de promulgar su propia ley de regulación de IA, mientras que en India no hay una legislación dedicada. En enero de 2025, se lanzó el Instituto de Seguridad de IndiaAI para promover un desarrollo de IA seguro y ético.

Desafíos y Oportunidades para India

La Ley de la UE deja vacíos entre el cumplimiento de la seguridad y la responsabilidad. Para abordar esto, India debería establecer reglas claras sobre quién es responsable si la IA causa daños, asegurando que las víctimas puedan obtener compensación. India tiene la oportunidad de superar a la UE al aclarar las regulaciones sobre derechos de autor y uso de datos, y al crear una oficina nacional de IA.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...