Regulación Basada en Entidades en la Gobernanza de la IA de Frontera
En el corazón de la política de inteligencia artificial (IA) de frontera se encuentra un debate clave: ¿debería la regulación centrarse en la tecnología misma—los modelos de IA—o en los usos de la tecnología? Los defensores de la regulación basada en el uso argumentan que esto protege la innovación al otorgar a los desarrolladores de modelos la libertad para experimentar, sin las cargas de los regímenes de licencias y estándares técnicos. Por otro lado, los defensores de la regulación basada en el modelo sostienen que su enfoque concentra la carga de cumplimiento en los desarrolladores mientras otorgan a los usuarios de IA la libertad de desplegar la tecnología como deseen, lo que a largo plazo facilita la difusión de la tecnología.
Desafíos de la Regulación Basada en Modelos
Una de las propuestas legislativas más prominentes en los Estados Unidos para la regulación basada en modelos es el SB 1047 de California, que se presentó en la sesión legislativa de 2024. Este enfoque se centraba en los modelos de IA de frontera, específicamente aquellos que requieren más de 10^26 operaciones de punto flotante por segundo para entrenarse. Sin embargo, esta propuesta ha enfrentado críticas significativas, en particular su dependencia de un desencadenante regulatorio basado en las características del modelo, lo que podría llevar a una inclusión excesiva de modelos que no son inherentemente peligrosos.
Además, los modelos de IA que utilizan técnicas de aprendizaje por refuerzo, como el modelo o1 de OpenAI, han desafiado las suposiciones sobre el uso exclusivo de la capacidad de cómputo durante el entrenamiento como un indicador del potencial de riesgo de un modelo. Esto pone de relieve la complejidad de establecer umbrales regulatorios basados en características técnicas que rápidamente pueden volverse obsoletas.
La Promesa de la Regulación Basada en Entidades
Una alternativa a la regulación basada en modelos es la regulación basada en entidades, que se centra en las grandes empresas que desarrollan los modelos de IA más poderosos. Este enfoque es común en Estados Unidos, especialmente en sectores como los servicios financieros y el seguro, donde los productos y servicios riesgosos evolucionan rápidamente. La regulación de las entidades podría abordar mejor los riesgos distintivos asociados con el desarrollo de IA de frontera al enfocarse en las actividades de la empresa en lugar de las propiedades del modelo.
Por ejemplo, un régimen regulatorio basado en entidades podría activarse por características de la organización, como un umbral de gasto anual en investigación y desarrollo (I+D) de IA. Esta estrategia podría evitar la carga regulatoria sobre empresas más pequeñas, permitiendo una mayor innovación y experimentación, mientras se dirigen los recursos regulatorios a donde más se necesitan.
Requisitos Sustantivos de la Regulación Basada en Entidades
Los requisitos de la regulación basada en entidades pueden variar desde la transparencia hasta la supervisión intensiva por parte del gobierno. Por un lado, se podrían exigir a los desarrolladores cubiertos que divulguen ciertas características de sus actividades más arriesgadas, como la prueba de seguridad y la evaluación de amenazas internas. En el extremo opuesto, podría haber un régimen de supervisión constante similar al de las centrales nucleares, que incluya licencias de operación específicas y protocolos de seguridad rigurosos.
Conclusión
La regulación de la IA de frontera es un campo complejo y en evolución que requiere un enfoque cuidadoso y bien fundamentado. La regulación basada en entidades ofrece una forma prometedora de abordar los riesgos asociados con el desarrollo de IA, al tiempo que permite la flexibilidad necesaria para la innovación. A medida que la tecnología avanza, será fundamental ajustar los marcos regulatorios para garantizar que sean efectivos en la gestión de los riesgos emergentes sin sofocar el potencial de innovación.