Enfoques para Mitigar los Riesgos de la IA: ¿Suave, Duro o un Punto Intermedio?

Mitigación de riesgos relacionados con la IA: ¿enfoque suave, enfoque duro o algo intermedio?

El desarrollo de la inteligencia artificial (IA) conlleva riesgos significativos debido a que las herramientas modernas de IA están empujando los límites éticos dentro de marcos legales existentes que no fueron diseñados para adaptarse a ellas. La forma en que los reguladores eligen proceder ante esto varía considerablemente entre diferentes países y regiones.

La reciente Cumbre de Acción de IA en París destacó estas diferencias regulatorias. Notablemente, su declaración final se centró en cuestiones de inclusividad y apertura en el desarrollo de IA, mientras que solo mencionó de manera general la seguridad y la confiabilidad, sin enfatizar riesgos específicos relacionados con la IA, como amenazas a la seguridad o peligros existenciales. Este documento fue redactado por 60 naciones, pero no fue firmado por Estados Unidos ni el Reino Unido, lo que demuestra la falta de consenso en este ámbito.

Cómo abordan los diferentes reguladores los riesgos de IA

Los países y regiones varían en cómo regulan el desarrollo y la implementación de la IA. Sin embargo, la mayoría se ubica en algún lugar entre los dos polos representados por los Estados Unidos en un extremo y la Unión Europea en el otro.

El enfoque de EE. UU.: innovar primero, regular después

Estados Unidos no tiene leyes federales que regulen específicamente la IA; en su lugar, se basa en directrices voluntarias y soluciones basadas en el mercado. Las leyes clave incluyen la Iniciativa Nacional de IA, que busca coordinar la investigación federal en IA, y el Acta de Reautorización de la Administración Federal de Aviación.

En octubre de 2023, el presidente Biden emitió una orden ejecutiva sobre IA segura, segura y confiable, estableciendo estándares para infraestructura crítica y regulando proyectos de IA financiados por el gobierno federal. Sin embargo, el paisaje regulatorio de EE. UU. sigue siendo fluido y sujeto a cambios políticos. En enero de 2025, el presidente Trump revocó la orden ejecutiva de Biden, señalando un posible giro hacia la promoción de la innovación y lejos de la regulación.

Las críticas al enfoque de EE. UU. incluyen su naturaleza fragmentada, que lleva a una compleja red de reglas, la falta de estándares aplicables y lagunas en la protección de la privacidad. Sin embargo, el enfoque laissez-faire en la regulación de la IA podría cambiar en el futuro. Por ejemplo, solo en 2024, los legisladores estatales introdujeron casi 700 proyectos de ley relacionados con la IA, lo que demuestra que el gobierno no se aleja de la regulación, sino que busca formas de implementarla sin comprometer demasiado la innovación.

El enfoque de la UE: prevención de daños

La Unión Europea ha adoptado un enfoque muy diferente. En agosto de 2024, el Parlamento y el Consejo Europeo introdujeron el Acta de Inteligencia Artificial (AI Act), considerado la regulación más completa de IA hasta la fecha. Este acto emplea un enfoque basado en riesgos, imponiendo las reglas más estrictas a los sistemas de IA de alta sensibilidad, como los utilizados en salud e infraestructura crítica, mientras que las aplicaciones de bajo riesgo enfrentan solo supervisión mínima.

Similar al RGPD, el acta exige cumplimiento no solo dentro de las fronteras de la UE, sino también de cualquier proveedor, distribuidor o usuario de sistemas de IA que operen en la UE o ofrezcan soluciones de IA a su mercado, incluso si el sistema se desarrolló fuera de ella. Esto podría presentar desafíos para los proveedores de productos integrados de EE. UU. y otros países no pertenecientes a la UE. Las críticas al enfoque de la UE incluyen su supuesta falta de un estándar de derechos humanos, complejidad excesiva y falta de claridad en los requisitos técnicos en un momento en que la UE busca fortalecer su competitividad.

Un terreno intermedio regulatorio

El Reino Unido ha adoptado un marco ligero que se sitúa entre la UE y EE. UU. Este marco se basa en ciertos principios y valores fundamentales como la seguridad, la equidad y la transparencia. Los reguladores existentes, como la Oficina del Comisionado de Información, están facultados para implementar estos principios dentro de sus respectivos dominios.

En noviembre de 2023, el Reino Unido fundó el Instituto de Seguridad de IA (AISI), que evoluciona a partir del Grupo de Trabajo sobre IA Fronteriza. AISI tiene la tarea de evaluar la seguridad de modelos avanzados de IA, colaborar con los principales desarrolladores de IA para realizar pruebas de seguridad y promover estándares internacionales. El gobierno del Reino Unido también ha publicado un Plan de Acción de Oportunidades de IA, que describe medidas para invertir en las bases de la IA, implementar la adopción de IA en toda la economía y fomentar sistemas de IA nativos.

Las críticas al enfoque del Reino Unido en la regulación de la IA incluyen capacidades de ejecución limitadas, falta de coordinación entre la legislación sectorial y la ausencia de una autoridad reguladora central.

Otros enfoques internacionales

Otros países importantes también han encontrado su propio lugar en el espectro entre EE. UU. y la UE. Canadá ha introducido un enfoque basado en riesgos con la propuesta de la Ley de Inteligencia Artificial y Datos (AIDA), diseñada para equilibrar la innovación con la seguridad y consideraciones éticas. Japón ha enfatizado un enfoque centrado en el ser humano para la IA, publicando directrices para promover un desarrollo confiable.

En China, la regulación de la IA está controlada estrictamente por el estado, con leyes recientes que exigen que los modelos de IA generativa se alineen con los valores socialistas y se sometan a evaluaciones de seguridad. Mientras tanto, Australia ha lanzado un marco de ética de IA y está explorando actualizaciones a sus leyes de privacidad para abordar desafíos emergentes.

Estableciendo cooperación internacional

A medida que la tecnología de IA continúa evolucionando, las diferencias entre los enfoques regulatorios se harán aún más evidentes. Independientemente del enfoque individual que adopten ciertos países sobre la privacidad de datos, la protección de derechos de autor y otros aspectos, se necesita con urgencia un consenso global más coherente sobre los riesgos clave relacionados con la IA. La cooperación internacional es crucial para establecer estándares mínimos que aborden los riesgos clave y fomenten la innovación.

Actualmente, organizaciones globales como la Organización para la Cooperación y el Desarrollo Económicos (OCDE), las Naciones Unidas y varias otras están trabajando para establecer estándares internacionales y directrices éticas para la IA. El camino a seguir requiere que todos en la industria encuentren algún terreno común. Y si consideramos que la innovación avanza a velocidad vertiginosa, el momento de discutir y acordar es ahora.

More Insights

Construyendo Confianza en la Era de la IA

La inteligencia artificial promete un aumento en la productividad para los mercadólogos, pero solo si se guía por una estrategia clara y supervisión humana. La pregunta no es si usar IA, sino cómo...

Gobernanza en la Nube para la Era de la IA

En la era de la inteligencia artificial, los modelos de gobernanza en la nube deben evolucionar para mantener el ritmo de la innovación. La gobernanza debe ser preventiva y estar integrada en la...

Guía para la Gobernanza de IA en Juntas Directivas

Con la inteligencia artificial (IA) convirtiéndose en una parte clave de los negocios modernos, la Confederación de la Industria India (CII) lanzó un nuevo manual para ayudar a los consejos de...

DevSecOps Potenciado por IA: Retos y Oportunidades en un Mundo de Cero Confianza

La rápida adopción de la automatización impulsada por IA en DevSecOps presenta tanto oportunidades como desafíos, ya que la dependencia excesiva de la automatización puede crear puntos ciegos en la...

Centro Cyril Shroff: La Vanguardia en Regulación de IA y Derecho

En un desarrollo pionero, Cyril Amarchand Mangaldas y la Universidad Global O.P. Jindal han anunciado el establecimiento del Centro Cyril Shroff para la IA, la Ley y la Regulación en la Escuela de...

Darwin Lanza una Herramienta Gratuita para Simplificar la Gobernanza de IA en Agencias Públicas

Darwin ha lanzado su AI Policy Wizard, una herramienta gratuita e interactiva diseñada para ayudar a los gobiernos locales y agencias públicas a crear políticas de IA prácticas y personalizadas. Esta...

Restaurando la Confianza en la IA a Través de la Gobernanza

Ulla Coester, directora de proyectos en la Universidad Fresenius de Ciencias Aplicadas, enfatiza que la gobernanza debe adaptarse al comportamiento para construir confianza en la IA. Es crucial que...

Cultura como Pilar de la IA Confiable

Este informe analiza cómo la gobernanza inclusiva de la inteligencia artificial (IA) es crucial para permitir que las voces pasadas por alto participen en el acceso y desarrollo de la IA. Además, se...

Cumplimiento de derechos de autor en la Ley de IA de la UE

Un desafío clave en el entrenamiento de modelos de inteligencia artificial generativa es garantizar el cumplimiento de las leyes de derechos de autor. La Ley de IA de la UE refuerza la necesidad de...