Regulación de la Inteligencia Artificial
La Inteligencia Artificial (IA) es la tecnología más transformadora de nuestra era, moldeando cada área de la actividad humana. Sin embargo, su inmenso poder conlleva riesgos significativos. La opacidad de sus algoritmos aumenta este peligro, ya que han causado un daño considerable a la sociedad en numerosas ocasiones. Estos daños pueden propagarse a una velocidad alarmante, dejando poco margen para la corrección.
Riesgos asociados a la IA
Los riesgos también se extienden a la inestabilidad sistémica, como se evidenció en los «flash crashes» financieros impulsados por IA, donde el 6 de mayo de 2010, el índice Dow Jones cayó más de 1,000 puntos en solo 10 minutos, borrando aproximadamente $1 billón en capital. Aunque el 70% de las pérdidas se recuperó al final del día, el evento mostró el potencial destructivo de la IA.
Más inquietante es su capacidad para infligir violencia física. Un informe de la ONU en 2020 indicó que drones Kargu-2, fabricados en Turquía y potenciados por reconocimiento de imágenes basado en IA, podrían haber atacado a combatientes humanos sin supervisión directa, marcando un posible primer incidente de fuerza letal autónoma.
Informes de Gaza en 2023-24 sugirieron que Israel utilizó un sistema de IA conocido como “Lavender” para generar automáticamente listas de objetivos para campañas de bombardeo, lo que pudo haber causado muertes civiles no intencionadas al bajar el umbral de ataque.
Sesgo y Discriminación en la IA
Los sistemas de IA son propensos a heredar los sesgos de sus creadores y a replicar prejuicios humanos, lo que intensifica la injusticia sistémica mientras fingen ser imparciales. Un ejemplo notable es el algoritmo COMPAS utilizado en los tribunales de EE. UU., que etiquetó de manera injusta a los acusados negros como “de alto riesgo” en comparación con los acusados blancos, afectando decisiones de libertad bajo fianza y sentencias.
Adicionalmente, el algoritmo de contratación de Amazon fue desechado tras descubrirse que discriminaba a candidatas femeninas. En 2019, el algoritmo de la tarjeta de crédito de Apple fue criticado por otorgar límites de crédito significativamente más bajos a mujeres con credenciales financieras idénticas a las de hombres.
La Necesidad de Regulaciones
Las grandes corporaciones controlan la mayoría de los recursos y el poder computacional de la IA, lo que genera riesgos geopolíticos, perpetuando monopolios y ampliando la brecha digital. No se puede ignorar el papel de Facebook en la incitación al genocidio de los rohingyas en Birmania, donde su algoritmo priorizaba el contenido provocador para aumentar el compromiso del usuario.
El lanzamiento de ChatGPT en 2022 fue un llamado de atención sobre su potencial para difundir desinformación. En respuesta, la Unión Europea aprobó la Ley de Inteligencia Artificial de la UE en agosto de 2024, que implementará sus características clave en agosto de 2026.
Características de la Ley de IA de la UE
La Ley sigue un enfoque basado en riesgos, clasificando las aplicaciones de IA según sus riesgos, desde mínimos hasta inaceptables, y prescribiendo obligaciones en consecuencia. Busca garantizar que los sistemas de IA sean seguros, transparentes y no discriminatorios, y que sean supervisados por humanos para prevenir resultados dañinos.
Los sistemas de IA con riesgos inaceptables serán prohibidos, incluyendo la manipulación del comportamiento cognitivo de personas o grupos vulnerables. Los sistemas de IA de alto riesgo requerirán monitoreo continuo.
Implicaciones Globales y la Respuesta de Otros Países
La Ley de IA de la UE podría influir en las normas globales sobre la gobernanza de tecnologías emergentes. En contraste, la administración de Trump en EE. UU. ha enfatizado el liderazgo estadounidense en IA, rechazando regulaciones que consideren barreras comerciales. Mientras tanto, China ha propuesto su Plan de Acción para la Gobernanza Global de la IA, promoviendo la cooperación internacional y la regulación de seguridad.
Brasil está cerca de promulgar su propia ley de regulación de IA, mientras que en India no hay una legislación dedicada. En enero de 2025, se lanzó el Instituto de Seguridad de IndiaAI para promover un desarrollo de IA seguro y ético.
Desafíos y Oportunidades para India
La Ley de la UE deja vacíos entre el cumplimiento de la seguridad y la responsabilidad. Para abordar esto, India debería establecer reglas claras sobre quién es responsable si la IA causa daños, asegurando que las víctimas puedan obtener compensación. India tiene la oportunidad de superar a la UE al aclarar las regulaciones sobre derechos de autor y uso de datos, y al crear una oficina nacional de IA.