No Regules los Modelos de IA. Regula el Uso de la IA
A veces puede parecer que los esfuerzos por regular y controlar la IA están en todas partes y al mismo tiempo. En 2021, China emitió las primeras regulaciones específicas sobre IA, centradas en los proveedores y la gobernanza del contenido, aplicadas a través del control de plataformas y requisitos de registro.
En Europa, la Ley de IA de la UE data de 2024, pero la Comisión Europea ya está proponiendo actualizaciones y simplificaciones. India encargó a sus asesores técnicos senior la creación de un sistema de gobernanza de IA, que se lanzó en noviembre de 2025. En Estados Unidos, los estados legislan y hacen cumplir sus propias reglas de IA, mientras que el gobierno federal en 2025 intentó prevenir la acción estatal y aflojar las restricciones.
Esto lleva a una pregunta crítica para ingenieros y responsables políticos estadounidenses: ¿qué puede hacer realmente EE. UU. para reducir el daño en el mundo real? La respuesta es: regular el uso de la IA, no los modelos subyacentes.
Por qué la regulación centrada en el modelo falla
Las propuestas para licenciar «entrenamientos avanzados», restringir pesos abiertos o requerir permiso antes de publicar modelos, como la Ley de Transparencia en IA de California, prometen control pero ofrecen solo teatro. Los pesos y el código de los modelos son artefactos digitales; una vez liberados, ya sea por un laboratorio, una filtración o un competidor extranjero, se replican a casi cero costo. No puedes «des-publicar» pesos, aplicar geofencing a la investigación o prevenir la destilación en modelos más pequeños. Intentar contener estos artefactos produce dos resultados negativos: las empresas cumplidoras se ahogan en papeleo mientras que los actores imprudentes evaden las reglas en el extranjero, bajo tierra, o ambos.
En EE. UU., la licencia de publicación de modelos también probablemente colisiona con la ley de libertad de expresión. Los tribunales federales han tratado el código fuente de software como expresión protegida, por lo que cualquier sistema que impida la publicación de modelos de IA sería vulnerable a desafíos legales.
No hacer nada tampoco es una opción. Sin salvaguardias, seguiremos viendo estafas de deepfake, fraude automatizado y campañas de persuasión masiva hasta que una catástrofe en los titulares desencadene una respuesta optimizada para la apariencia, no para los resultados.
Una alternativa práctica: Regular el uso, proporcional al riesgo
Un régimen basado en el uso clasifica las implementaciones por riesgo y ajusta las obligaciones en consecuencia. Aquí hay un modelo de trabajo centrado en mantener la aplicación donde los sistemas realmente tocan a las personas:
- Base: Interacción general con el consumidor (chat abierto, escritura creativa, asistencia en el aprendizaje, productividad casual).
Adherencia regulatoria: divulgación clara de IA en el punto de interacción, políticas de uso aceptable publicadas, salvaguardias técnicas que prevengan la escalada hacia niveles de riesgo más altos y un mecanismo para que los usuarios informen resultados problemáticos. - Asistencia de bajo riesgo (redacción, resumen, productividad básica).
Adherencia regulatoria: divulgación simple, higiene de datos básica. - Soporte de decisión de riesgo moderado que afecta a individuos (triatlón de contratación, cribado de beneficios, pre-calificación de préstamos).
Adherencia regulatoria: evaluación de riesgos documentada, supervisión humana significativa y una “factura de materiales de IA” que incluye la línea de origen del modelo, evaluaciones clave y mitigaciones. - Usos de alto impacto en contextos críticos de seguridad (soporte de decisión clínica, operaciones de infraestructura crítica).
Adherencia regulatoria: pruebas rigurosas previas al despliegue vinculadas al uso específico, monitoreo continuo, informes de incidentes y, cuando sea necesario, autorización vinculada al rendimiento validado. - Funciones de doble uso peligrosas (por ejemplo, herramientas para fabricar huellas de voz biométricas para eludir la autenticación).
Adherencia regulatoria: confinamiento a instalaciones licenciadas y operadores verificados; prohibición de capacidades cuyo propósito principal sea ilegal.
Los sistemas habilitados para IA se vuelven reales cuando están conectados a usuarios, dinero, infraestructura e instituciones, y ahí es donde los reguladores deben centrar la aplicación: en los puntos de distribución (tiendas de aplicaciones y mercados empresariales), acceso a capacidades (plataformas de nube e IA), monetización (sistemas de pago y redes publicitarias) y transferencia de riesgo (aseguradoras y contrapartes contractuales).
Para usos de alto riesgo, necesitamos exigir vinculación de identidad para los operadores, acceso a capacidades alineado con el nivel de riesgo y registros evidentes de manipulación para auditorías y revisiones posteriores a incidentes, junto con protecciones de privacidad. Debemos exigir evidencia para las afirmaciones de los desplegadores, mantener planes de respuesta a incidentes, reportar fallas materiales y proporcionar un respaldo humano. Cuando el uso de la IA causa daño, las empresas deben demostrar su trabajo y enfrentar responsabilidad por los daños.
Este enfoque crea dinámicas de mercado que aceleran el cumplimiento. Si operaciones comerciales cruciales como adquisiciones, acceso a servicios en la nube y seguros dependen de demostrar que cumples con las reglas, los desarrolladores de modelos de IA construirán según especificaciones verificables. Eso eleva el nivel de seguridad para todos los actores de la industria, incluidos los nuevos participantes, sin dar ventaja a unos pocos grandes incumbentes licenciados.
Este marco se alinea con la Ley de IA de la UE en dos formas importantes. Primero, centra el riesgo en el punto de impacto: las categorías de “alto riesgo” de la Ley incluyen empleo, educación, acceso a servicios esenciales e infraestructura crítica, con obligaciones de ciclo de vida y derechos de queja. También reconoce un tratamiento especial para sistemas de capacidades amplias sin pretender que el control de publicación sea una estrategia de seguridad.
Mi propuesta para EE. UU. difiere en tres aspectos clave:
- EE. UU. debe diseñar para la durabilidad constitucional. Los tribunales han tratado el código fuente como discurso protegido, y un régimen que requiera permiso para publicar pesos o entrenar una clase de modelos comienza a parecer una restricción previa. Un régimen basado en el uso que gobierne lo que los operadores de IA pueden hacer en entornos sensibles, y bajo qué condiciones, se ajusta más naturalmente a la doctrina de la Primera Enmienda que los esquemas de licencias basados en hablantes.
- La UE puede confiar en que las plataformas se adapten a las reglas para su mercado único unificado. EE. UU. debe aceptar que los modelos existirán globalmente, tanto abiertos como cerrados, y centrarse en dónde la IA se vuelve accionable: tiendas de aplicaciones, plataformas empresariales, proveedores de nube, capas de identidad empresarial, sistemas de pago, aseguradoras y reguladores sectoriales. Estos son puntos exigibles donde se puede requerir identidad, registros, acceso y responsabilidad posterior a incidentes sin pretender contener el software. También abarcan agencias especializadas en EE. UU. que pueden no redactar reglas de alto nivel para todo el ecosistema de IA, por lo que se debe regular puntos de estrangulación de servicios de IA explícitamente.
- EE. UU. debería añadir un nivel explícito de “peligro de doble uso”. La Ley de IA de la UE es principalmente un régimen de derechos fundamentales y seguridad del producto. EE. UU. también enfrenta riesgos de seguridad nacional: ciertas capacidades son peligrosas porque escalan el daño (bioseguridad, ciberofensa, fraude masivo). Un marco coherente debe nombrar y regular directamente esta categoría en lugar de intentar encajarla en licencias genéricas.
China ha construido un régimen escalonado para la IA de cara al público. Las reglas de “síntesis profunda” requieren etiquetado conspicuo de medios sintéticos y colocan deberes en proveedores y plataformas. Las Medidas Interinas para la IA Generativa añaden obligaciones de registro y gobernanza para los servicios ofrecidos al público. La aplicación aprovecha el control de plataformas y sistemas de presentación de algoritmos.
EE. UU. no debería copiar el control estatal de China sobre los puntos de vista de IA o la gestión de información; es incompatible con los valores estadounidenses y no soportaría el escrutinio constitucional. La licencia de publicación de modelos es frágil en la práctica y, en EE. UU., probablemente una forma inconstitucional de censura.
Pero podemos tomar prestadas dos ideas prácticas de China. Primero, debemos asegurar una proveniencia y trazabilidad confiables para los medios sintéticos. Esto implica etiquetado obligatorio y herramientas forenses de proveniencia que permiten a creadores y plataformas legítimos demostrar el origen e integridad. Cuando es rápido verificar la autenticidad a gran escala, los atacantes pierden la ventaja de copias baratas o deepfakes y los defensores ganan tiempo para detectar y responder. Segundo, deberíamos exigir a los operadores presentar sus métodos y controles de riesgo a los reguladores para servicios de alto riesgo, con salvaguardias de debido proceso y transparencia apropiadas para democracias liberales, junto con clara responsabilidad en medidas de seguridad, protección de datos y manejo de incidentes. Esto es especialmente importante para sistemas diseñados para manipular emociones o crear dependencia, incluyendo juegos y aplicaciones asociadas.
No podemos regular significativamente el desarrollo de la IA en un mundo donde los artefactos se copian en tiempo real y la investigación fluye libremente a través de las fronteras. Pero podemos mantener sistemas no verificados fuera de hospitales, sistemas de pago e infraestructura crítica regulando los usos, no los modelos; aplicando la regulación en los puntos de estrangulación; y aplicando obligaciones que escalen con el riesgo.