Reforma de la Seguridad en IA: La Nueva Visión de la Administración Trump

Rebranding del Instituto de Seguridad de IA por la Administración Trump

El Secretario de Comercio, Howard Lutnick, anunció el martes planes para “reformar” el Instituto de Seguridad de IA, transformándolo en un nuevo organismo llamado Centro para los Estándares e Innovación de IA (CAISI).

Este nuevo nombre indica un cambio en la dirección de las políticas hacia la inteligencia artificial, alejándose del término “seguridad” y enfocándose en el deseo de un desarrollo rápido de la tecnología. Sin embargo, la función principal del organismo rebranded parece seguir siendo similar a la del antiguo instituto. El CAISI continuará evaluando las capacidades y vulnerabilidades de la tecnología en crecimiento y actuará como el principal punto de contacto para la industria dentro del gobierno.

Declaraciones del Secretario de Comercio

“Durante demasiado tiempo, la censura y las regulaciones se han utilizado bajo el disfraz de la seguridad nacional. Los innovadores ya no estarán limitados por estos estándares”, afirmó Lutnick en un comunicado escrito. “El CAISI evaluará y potenciará la innovación estadounidense en estos sistemas de IA comerciales en rápido desarrollo, asegurando al mismo tiempo que se mantengan seguros según nuestros estándares de seguridad nacional”.

Contexto de la Reestructuración

Este cambio en el organismo, que está bajo el Instituto Nacional de Estándares y Tecnología, se produce mientras la administración Trump busca dejar su propia huella en el enfoque del gobierno federal hacia la IA.

Hasta ahora, el Presidente Donald Trump ha derogado la orden ejecutiva sobre IA del ex presidente Joe Biden y ha firmado una de las suyas, indicando un cambio en la política. Aunque la retórica sobre la tecnología ha variado, varias actividades han continuado de la administración anterior. Esto incluye el enfoque del gobierno federal sobre la gobernanza de IA, el uso de tierras federales para centros de datos que alimentan la IA, y ahora la preservación de las responsabilidades fundamentales del antiguo AISI.

Próximos Pasos y Plan de Acción de IA

Sin embargo, aún queda por ver parte del enfoque de la administración Trump hasta que se publique su Plan de Acción de IA, que delineará sus prioridades.

Según un comunicado de prensa sobre el nuevo nombre, el CAISI seguirá encargado de desarrollar orientaciones y mejores prácticas para la seguridad de los sistemas de IA, así como de trabajar con la industria para crear estándares voluntarios. También continuará realizando evaluaciones de modelos para identificar posibles riesgos y coordinando con otras agencias en las evaluaciones correspondientes.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...