Marco Legal Nacional para la Inteligencia Artificial

La Casa Blanca Publica el Marco Legislativo Nacional de IA

Esta mañana, se publicó un marco de política nacional para la inteligencia artificial (IA), que se basa en varios meses de declaraciones de política de la administración anterior sobre los roles de los gobiernos estatal y federal en la regulación de la IA.

Esto ocurre solo dos días después de que se presentara un borrador de discusión de 300 páginas sobre la Ley TRUMP AMERICA IA, que busca codificar las órdenes ejecutivas del presidente relacionadas con la IA. A pesar de compartir prioridades, los dos documentos discrepan en aspectos como derechos de autor, responsabilidad de los desarrolladores y la Sección 230.

Las Siete Áreas de Enfoque del Marco de Política

El marco de política de la Casa Blanca cubre siete categorías, pero cuatro son especialmente relevantes para las empresas que despliegan o desarrollan IA:

Preeminencia federal sobre las leyes estatales de IA

Se prohibiría a los estados regular el desarrollo de IA. No podrían imponer cargas sobre el uso de IA para actividades que serían legales sin ella, ni responsabilizar a los desarrolladores por el mal uso que terceros hagan de sus modelos. Sin embargo, el marco establece excepciones amplias: los estados mantienen la autoridad sobre la seguridad infantil, el fraude, la protección del consumidor, la zonificación y la adquisición de IA por parte de sus propios gobiernos. La delimitación entre «desarrollo de IA» (preemptado) y «protección general al consumidor» (preservada) será el principal punto de conflicto si esto se convierte en ley.

Derechos de autor diferidos a los tribunales

La administración sostiene que entrenar IA con material protegido por derechos de autor es legal, pero en lugar de codificar esa posición, sugiere que el Congreso se mantenga al margen y deje que los jueces resuelvan la cuestión del uso justo. También apoya la creación de marcos de licencias colectivas para que los titulares de derechos puedan negociar con las empresas de IA sin activar responsabilidades antimonopolio. Esto contradice directamente el proyecto de ley de la senadora, que declararía que el entrenamiento de IA en obras protegidas está categóricamente fuera del uso justo.

Seguridad infantil como ancla

Se establecen requisitos de verificación de edad, características de plataforma para reducir la explotación y los riesgos de autolesionarse, y se extienden las protecciones de privacidad infantil existentes a los sistemas de IA. Esta es el área con verdadero apoyo bipartidista, y el marco preserva deliberadamente la autoridad estatal aquí, incluso sobre el material de abuso sexual infantil generado por IA.

Sin nueva agencia federal de IA

En lugar de un regulador centralizado, el marco canaliza la supervisión a través de agencias existentes con la experiencia necesaria. Se también sugiere al Congreso la creación de «sandbox» regulatorios, aunque el marco no indica qué agencia los administraría ni cómo interactuarían con las reglas existentes.

Las tres secciones restantes abordan la energía (los centros de datos deberían pagar por su propia energía, no los consumidores), la libertad de expresión (una causa de acción contra la censura gubernamental a través de plataformas de IA) y la fuerza laboral (estudiar el desplazamiento, añadir IA a los programas de capacitación existentes).

¿Resuelve esto las Preguntas Abiertas sobre la Preeminencia Federal?

En una palabra: «no», y la diversidad de regulaciones estatales de IA en consideración solo complicará el análisis.

Aunque el concepto de preeminencia suena limpio en este resumen, la frontera entre la regulación del «desarrollo de IA» preemptado y las leyes de «aplicabilidad general» preservadas está indefinida y no probada. Las regulaciones de IA de Colorado, que entran en vigor el 30 de junio, imponen obligaciones tanto a desarrolladores como a implementadores de sistemas de alto riesgo. ¿Regula esto el «desarrollo de IA» o hace cumplir la protección al consumidor? El marco no responde a esa pregunta, y las nuevas regulaciones estatales de IA también están incluyendo acciones privadas que pueden ser una respuesta a las tácticas de preeminencia federal.

Por ahora, este marco no cambia nada sobre las obligaciones de cumplimiento existentes. Pero es una señal fuerte de la intención de la administración, especialmente con otros entregables federales relacionados con las leyes estatales de IA que deben presentarse este mes. Se ha instruido a las agencias pertinentes para que proporcionen evaluaciones de las regulaciones estatales «onerosas», lo que puede servir como hoja de ruta para el grupo de trabajo de litigios de IA del Departamento de Justicia. Ya sea que este marco de política se desarrolle en el Congreso o en los tribunales, se seguirá de cerca ambos caminos.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...