Regulación Basada en Entidades para la IA Avanzada

Regulación Basada en Entidades en la Gobernanza de la IA de Frontera

En el corazón de la política de inteligencia artificial (IA) de frontera se encuentra un debate clave: ¿debería la regulación centrarse en la tecnología misma—los modelos de IA—o en los usos de la tecnología? Los defensores de la regulación basada en el uso argumentan que esto protege la innovación al otorgar a los desarrolladores de modelos la libertad para experimentar, sin las cargas de los regímenes de licencias y estándares técnicos. Por otro lado, los defensores de la regulación basada en el modelo sostienen que su enfoque concentra la carga de cumplimiento en los desarrolladores mientras otorgan a los usuarios de IA la libertad de desplegar la tecnología como deseen, lo que a largo plazo facilita la difusión de la tecnología.

Desafíos de la Regulación Basada en Modelos

Una de las propuestas legislativas más prominentes en los Estados Unidos para la regulación basada en modelos es el SB 1047 de California, que se presentó en la sesión legislativa de 2024. Este enfoque se centraba en los modelos de IA de frontera, específicamente aquellos que requieren más de 10^26 operaciones de punto flotante por segundo para entrenarse. Sin embargo, esta propuesta ha enfrentado críticas significativas, en particular su dependencia de un desencadenante regulatorio basado en las características del modelo, lo que podría llevar a una inclusión excesiva de modelos que no son inherentemente peligrosos.

Además, los modelos de IA que utilizan técnicas de aprendizaje por refuerzo, como el modelo o1 de OpenAI, han desafiado las suposiciones sobre el uso exclusivo de la capacidad de cómputo durante el entrenamiento como un indicador del potencial de riesgo de un modelo. Esto pone de relieve la complejidad de establecer umbrales regulatorios basados en características técnicas que rápidamente pueden volverse obsoletas.

La Promesa de la Regulación Basada en Entidades

Una alternativa a la regulación basada en modelos es la regulación basada en entidades, que se centra en las grandes empresas que desarrollan los modelos de IA más poderosos. Este enfoque es común en Estados Unidos, especialmente en sectores como los servicios financieros y el seguro, donde los productos y servicios riesgosos evolucionan rápidamente. La regulación de las entidades podría abordar mejor los riesgos distintivos asociados con el desarrollo de IA de frontera al enfocarse en las actividades de la empresa en lugar de las propiedades del modelo.

Por ejemplo, un régimen regulatorio basado en entidades podría activarse por características de la organización, como un umbral de gasto anual en investigación y desarrollo (I+D) de IA. Esta estrategia podría evitar la carga regulatoria sobre empresas más pequeñas, permitiendo una mayor innovación y experimentación, mientras se dirigen los recursos regulatorios a donde más se necesitan.

Requisitos Sustantivos de la Regulación Basada en Entidades

Los requisitos de la regulación basada en entidades pueden variar desde la transparencia hasta la supervisión intensiva por parte del gobierno. Por un lado, se podrían exigir a los desarrolladores cubiertos que divulguen ciertas características de sus actividades más arriesgadas, como la prueba de seguridad y la evaluación de amenazas internas. En el extremo opuesto, podría haber un régimen de supervisión constante similar al de las centrales nucleares, que incluya licencias de operación específicas y protocolos de seguridad rigurosos.

Conclusión

La regulación de la IA de frontera es un campo complejo y en evolución que requiere un enfoque cuidadoso y bien fundamentado. La regulación basada en entidades ofrece una forma prometedora de abordar los riesgos asociados con el desarrollo de IA, al tiempo que permite la flexibilidad necesaria para la innovación. A medida que la tecnología avanza, será fundamental ajustar los marcos regulatorios para garantizar que sean efectivos en la gestión de los riesgos emergentes sin sofocar el potencial de innovación.

More Insights

Guía Práctica de IA Responsable para Desarrolladores .NET

La era de la Inteligencia Artificial (IA) está sucediendo ahora, y aunque ofrece velocidad y precisión en sectores como la banca y la salud, plantea desafíos éticos sobre su confianza. Para abordar...

Ley de Transparencia en IA: Un Hito en California

Los legisladores de California han hecho historia al aprobar una ley pionera sobre la transparencia en inteligencia artificial que se centra en los "modelos fronterizos", los sistemas de inteligencia...

Desafíos legales del uso de IA en el proceso de contratación

El uso de herramientas de IA en el proceso de solicitud permite a las empresas optimizar sus procesos, pero los empleadores deben asegurarse de que los sistemas utilizados sean transparentes, no...

Los Cuatro Pilares de los Guardrails en GenAI: Construyendo Sistemas de IA Responsables

A medida que la inteligencia artificial generativa transforma cómo operan las empresas, es fundamental implementar sistemas de guardrails para asegurar un despliegue responsable. Estos guardrails, que...

IA Responsable para Mercados Emergentes: Inclusión desde el Diseño

La inteligencia artificial está transformando el mundo, pero los beneficios no llegan a todos de manera equitativa. Es fundamental diseñar sistemas de IA inclusivos que aborden las barreras de...