FTC Revoca la Orden de Consentimiento de Rytr en el Marco de Nuevos Estándares Federales de IA

FTC Revoca la Orden de Consentimiento de Rytr en Medio de la Presión por Normas Federales de IA

El 22 de diciembre de 2025, la Comisión Federal de Comercio (FTC) anuló su orden de consentimiento de 2024 contra una empresa de IA generativa, concluyendo que la queja original «no cumplió con los requisitos legales de la Ley de la FTC» y que la orden imponía una carga excesiva a la innovación en IA, en violación de la Orden Ejecutiva de IA de enero de 2025, que prioriza la adopción de IA.

Antecedentes: La Orden de Consentimiento de 2024 de Rytr

En septiembre de 2024, la FTC presentó una queja administrativa contra Rytr como parte de su acción de cumplimiento «Operation AI Comply», alegando que la herramienta de «Testimonios y Reseñas» generaba reseñas falsas y engañosas en línea. Según la FTC, el servicio permitía a los usuarios utilizar IA para redactar y pre-poblar reseñas de productos, lo que facilitaba la creación de endosos fabricados, violando la Sección 5 de la Ley de la FTC.

Rytr aceptó la orden de consentimiento sin admitir responsabilidad, que prohibía a la compañía ofrecer cualquier servicio de IA dedicado a reseñas o testimonios de consumidores. En ese momento, un comisionado disintió de la emisión de la queja.

Razones para la Revocación de la Orden de Consentimiento de Rytr

Tras la Orden Ejecutiva de IA de enero de 2025, la FTC fue instruida para revisar todas las investigaciones iniciadas bajo la administración anterior y confirmar que no «avanzaran teorías de responsabilidad que impongan cargas excesivas a la innovación en IA». La FTC determinó que la queja original contra Rytr no cumplió con los criterios de prácticas comerciales desleales.

La FTC enfatizó que la tecnología con usos legales e ilegales no es inherentemente ilegal solo porque podría ser mal utilizada. La posible mala utilización, sin evidencia de fraude o daño tangible al consumidor, no justifica prohibiciones amplias que efectivamente eliminan categorías enteras de IA legal. Como declaró un director de la FTC, «condenar una tecnología o servicio simplemente porque potencialmente podría ser utilizado de manera problemática es inconsistente con la ley y la libertad ordenada.»

Tras la revisión, Rytr consintió en anular la orden, renunciando a cualquier derecho adicional que pudiera haber tenido bajo la regla correspondiente, que permite a la FTC reabrir, modificar o anular órdenes finales cuando el interés público lo requiera.

Nueva Orden Ejecutiva: Precedencia Federal sobre las Leyes Estatales de IA

El 11 de diciembre de 2025, la Casa Blanca emitió una Orden Ejecutiva sobre «Asegurar un Marco de Política Nacional para la Inteligencia Artificial», en el contexto de los crecientes esfuerzos legislativos estatales sobre IA. Esta orden señala una preferencia por estándares federales uniformes y limita la regulación estatal de IA.

Sin embargo, antes y después de la emisión de la orden, los estados continúan avanzando en la regulación de IA. Por ejemplo, Nueva York promulgó la Ley de Seguridad y Educación de IA Responsable, que impone nuevos requisitos de seguridad y divulgación a los grandes desarrolladores de IA. Se ha introducido legislación para bloquear la orden ejecutiva; si se aprueba, podría dar lugar a litigios sobre el alcance de los esfuerzos de preeminencia realizados bajo la orden.

Expectativas Futuras para la Política de IA de la Administración

La revocación de la orden de la FTC en el asunto de Rytr subraya la política emergente de la agencia sobre la aplicación de IA: la aplicación relacionada con IA solo se buscará cuando la agencia crea que el registro contiene evidencia concreta de prácticas desleales o engañosas, en lugar de daños indirectos, especulativos o dependientes de terceros. La FTC enfatizó que continuará responsabilizando a los actores que utilicen IA para violar la ley o engañar a los consumidores.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...