Marco Legislativo Nacional de IA: Nuevas Directrices de la Casa Blanca

La Casa Blanca Publica el Marco Legislativo Nacional de IA

Esta mañana, se publicó un marco de política nacional para la inteligencia artificial, que se basa en varios meses de declaraciones de política de la administración anterior sobre los roles de los gobiernos estatal y federal en la regulación de la IA.

Esto ocurre solo dos días después de que un senador presentara un borrador de discusión de 300 páginas de la «Ley TRUMP AMERICA AI», que busca codificar las órdenes ejecutivas del presidente sobre la IA. A pesar de compartir prioridades, los dos documentos discrepan sobre derechos de autor, responsabilidad de los desarrolladores y la Sección 230.

Las Siete Áreas de Enfoque del Marco de Políticas

El marco de políticas de la Casa Blanca cubre siete categorías, pero cuatro tienen mayor peso para las empresas que despliegan o desarrollan IA:

1. Preeminencia Federal de las Leyes Estatales sobre IA

Los estados estarían prohibidos de regular el desarrollo de IA. No podrían imponer cargas en el uso de la IA para actividades que serían legales sin ella, ni podrían responsabilizar a los desarrolladores por el uso indebido de sus modelos por terceros. Sin embargo, el marco establece amplias excepciones: los estados mantienen autoridad sobre la seguridad infantil, el fraude, la protección del consumidor, la zonificación y la adquisición de IA por parte de sus propios gobiernos. Delimitar la línea entre «desarrollo de IA» (preemptado) y «protección del consumidor general» (preservada) será la principal disputa si esto se convierte en ley.

2. Derechos de Autor Derivados a los Tribunales

La administración sostiene que cree que entrenar IA con material protegido por derechos de autor es legal, pero en lugar de codificar esa posición, le dice al Congreso que se mantenga al margen y permita que los jueces resuelvan la cuestión del uso justo. También apoya la creación de marcos de licencia colectiva para que los titulares de derechos puedan negociar con las empresas de IA sin activar la responsabilidad antimonopolio. Esto contradice directamente el proyecto de ley mencionado, que declararía que el entrenamiento de IA con obras protegidas por derechos de autor está categariamente fuera del uso justo.

3. Seguridad Infantil como Pilar

Se requieren medidas de verificación de edad, características de la plataforma para reducir la explotación y riesgos de autolesión, y la extensión de las protecciones de privacidad infantil existentes a los sistemas de IA. Esta es el área que cuenta con un verdadero apoyo bipartidista, y el marco preserva deliberadamente la autoridad estatal aquí, incluso sobre material de abuso infantil generado por IA.

4. Sin Nueva Agencia Federal de IA

En lugar de un regulador centralizado, el marco canaliza la supervisión a través de agencias existentes con experiencia relevante. Se le dice al Congreso que cree «sandbox» regulatorios, aunque el marco no menciona qué agencia los administraría ni cómo interactuarían con las reglas existentes.

Otras Áreas

Las tres secciones restantes cubren la energía (los centros de datos deben pagar por su propia energía, no los consumidores), la libertad de expresión (una causa de acción contra la censura gubernamental a través de plataformas de IA) y la fuerza laboral (estudiar el desplazamiento, añadir IA a los programas de capacitación existentes).

Implicaciones y Riesgos

En resumen, este marco no resuelve las cuestiones abiertas de la preeminencia federal. La diversidad de las regulaciones estatales en consideración y que están entrando en vigor complicará el análisis. Aunque el concepto de preeminencia suena claro, la frontera entre la regulación del «desarrollo de IA» y las leyes de «aplicabilidad general» está indefinida y no probada.

Conclusión

Por el momento, este marco no cambia nada sobre las obligaciones de cumplimiento existentes. Sin embargo, es una señal clara de la intención de la administración anterior, especialmente con otros entregables de agencias federales relacionados con las leyes estatales de IA que deben presentarse este mes.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...