Limitaciones de la Autoridad de Preeminencia de la FTC sobre la IA

La Autoridad de Preempción de la FTC sobre la IA es Limitada

¿Puede la administración Trump anular las leyes estatales de protección al consumidor que regulan la IA? La Comisión Federal de Comercio (FTC) intentará hacerlo pronto, pero la autoridad de la agencia para anular leyes estatales es limitada.

En diciembre pasado, el presidente Trump emitió una orden ejecutiva titulada “Asegurando un Marco de Política Nacional para la Inteligencia Artificial”. Esta orden dirige al presidente de la FTC a emitir una declaración de política que explique las circunstancias bajo las cuales las leyes estatales que requieren alteraciones en los resultados verídicos de los modelos de IA son anuladas por la prohibición del Acta de la FTC sobre la participación en actos o prácticas engañosas que afectan el comercio. La agencia tiene hasta el 11 de marzo para emitir la declaración.

La sección 5 del Acta de la FTC prohíbe actos o prácticas desleales o engañosas en el comercio. La orden ejecutiva se centra en el engaño, definido como una tergiversación, omisión u otra práctica que engaña a un consumidor actuando razonablemente, en detrimento del consumidor. Por ejemplo, la publicidad falsa tergiversa la calidad o utilidad de un producto, engañando a los consumidores para que lo compren.

La orden ejecutiva afirma que algunos estados han promulgado leyes que requieren que las entidades incorporen sesgos ideológicos dentro de los modelos de IA. Esto sigue a una orden anterior que prohíbe la llamada “IA woke” del gobierno federal; es decir, modelos con “agendas sociales” que distorsionan la calidad y precisión de los resultados. En consecuencia, la nueva orden sostiene que es inherentemente engañoso para las leyes estatales de IA obligar a las empresas a entrenar sus modelos para mentir o engañar a los usuarios sobre temas políticamente cargados.

Irónicamente, la orden ejecutiva en sí es engañosa: actualmente no existen tales leyes en vigor. Las quejas sobre la IA woke, notablemente la generación por parte de un modelo de una lista completamente negra de padres fundadores, reflejan decisiones de entrenamiento de las propias empresas de IA, no leyes estatales. La Primera Enmienda protege tales decisiones de diseño, si se realizan independientemente del gobierno, de la regulación estatal y federal.

Desafíos para la Preempción

Cualquier esfuerzo de preempción debe superar varios obstáculos. El primero es el federalismo. La doctrina de la preempción federal proviene de la Cláusula de Supremacía de la Constitución de los EE. UU., que establece que la ley federal es “la ley suprema del país”. En consecuencia, la ley federal anula las leyes estatales conflictivas.

El gobierno federal puede anular la ley estatal de varias maneras. La más simple es que un estatuto o regulación federal contenga un lenguaje de preempción explícito. El gobierno federal también puede anular implícitamente la ley estatal al promulgar una ley federal que ocupe todo un campo de regulación, como la seguridad nuclear.

Sin embargo, el Acta de la FTC no hace ninguna de estas cosas: la sección 5 ni anula explícitamente la ley estatal ni ocupa todo el campo de la regulación de protección al consumidor. Por el contrario, cada estado tiene sus propias leyes de protección al consumidor, y la FTC frecuentemente colabora con los estados en la aplicación.

Esto deja a la FTC con una sola opción: la preempción por conflicto. La ley federal anula la ley estatal cuando es imposible cumplir ambas. La sección 5 prohíbe “actos o prácticas engañosas en o que afectan el comercio”. En teoría, una ley estatal que requiriera que las empresas engañaran a los consumidores entraría en conflicto con la sección 5, ya que sería imposible abstenerse de participar en prácticas comerciales engañosas y, al mismo tiempo, cumplir con la ley estatal.

Sin embargo, es poco probable que los tribunales acepten la sección 5 como base para la preempción por conflicto. Al evaluar las reclamaciones de preempción, la Corte Suprema sigue una “presunción en contra de la preempción”, según la cual la ley federal no anula la ley estatal “a menos que ese fuera el propósito claro y manifiesto del Congreso”. La sección 5, en contraste, “fue deliberadamente redactada en términos generales” y no proporciona ninguna regla prescriptiva específica.

Implicaciones de la Orden Ejecutiva

Por lo tanto, para anular la autoridad estatal sobre la IA, la FTC debe emitir una regla y, en consecuencia, debe cumplir con la Ley de Procedimiento Administrativo y sus propios procedimientos de elaboración de reglas bajo la Ley Magnuson-Moss. Estos procedimientos requieren un aviso previo de propuesta de reglamentación que preceda a un aviso de propuesta de reglamentación, cada uno acompañado de oportunidades adecuadas para comentarios públicos. A continuación, la agencia emite un análisis regulatorio preliminar, que resulta en un análisis regulatorio final, y probablemente concluye con audiencias sobre cuestiones materiales disputadas. La FTC también debe demostrar que la conducta engañosa en cuestión es “prevalente”, ya sea emitiendo órdenes de cese y desistimiento o señalando “información” que “indique un patrón generalizado”. El proceso podría llevar fácilmente varios años.

Cualquier reglamentación emprendida en virtud de la orden ejecutiva debería especificar cómo las leyes estatales de IA podrían entrar en conflicto con la sección 5. La orden ejecutiva en sí solo señala un ejemplo: la Ley de Inteligencia Artificial de Colorado, que no ha entrado en vigor y cuyos impactos prácticos son inciertos.

Según la orden ejecutiva, la prohibición de Colorado sobre la “discriminación algorítmica” podría “forzar a los modelos de IA a producir resultados falsos para evitar un ‘tratamiento o impacto diferencial’ en grupos protegidos”. Sin embargo, esa disposición tiene como objetivo prevenir que la IA replique sesgos existentes en conjuntos de datos de entrenamiento, como “decisiones históricas sobre contratación o préstamos”. Colorado probablemente argumentaría que su ley, lejos de forzar “resultados falsos”, exige que los modelos eviten replicar distorsiones existentes. Si tales leyes podrían resultar en engaños al consumidor es difícil de responder en abstracto. La FTC tendría que identificar y dirigir una regla para abordar casos claros de conflicto.

Críticamente, la sección 5 prohíbe el engaño solo “en o que afecta el comercio”. La FTC supervisa prácticas comerciales, no publicaciones. Por ejemplo, sería engañoso para una IA generativa incluir anuncios en sus resultados sin divulgar que el contenido agregado es publicidad, lo que podría engañar a los usuarios sobre asuntos de comercio. Sin embargo, la orden ejecutiva dirige a la FTC a ponderar sobre cuestiones más allá del comercio, como “sesgos ideológicos” y “resultados verídicos”. Así como los periódicos publican respuestas basadas en opiniones a preguntas de los lectores, los resultados de modelos no comerciales son a menudo subjetivos. Estos resultados no son prácticas comerciales y, por lo tanto, caen fuera de la autoridad de engaño de la FTC.

Conclusión

En última instancia, la capacidad de la FTC para anular las leyes estatales de IA es limitada, requiriendo un largo y complejo proceso de elaboración de reglas. Una declaración de política simplemente no será suficiente.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...