Estándares de IA para Proteger a los Más Vulnerables en EE. UU.

Moldeando los Estándares de IA para Proteger a los Más Vulnerables de América

En un contexto donde las políticas de la administración de Trump desestabilizan las vidas y medios de vida de muchos grupos en los Estados Unidos, la industria tecnológica se encuentra en una posición privilegiada. Desde la imagen de los CEOs de Big Tech en la inauguración hasta una serie de órdenes ejecutivas que buscan acelerar la adopción de la inteligencia artificial (IA), las empresas tecnológicas están aprovechando el momento.

Transformación del Instituto Nacional de Estándares y Tecnología

El cambio anunciado el 3 de junio por el Secretario de Comercio, Howard Lutnick, para reformar el Instituto Nacional de Estándares y Tecnología de EE.UU. (NIST) y establecer el Centro de Estándares e Innovación de IA de EE.UU. (CAISI) es un desarrollo significativo. Este nuevo enfoque se centra en la seguridad nacional y la competitividad estadounidense, con un énfasis en la investigación de las capacidades de IA de EE.UU. en comparación con otros países.

El comunicado de prensa del Secretario destaca que el propósito del CAISI será fortalecer la capacidad del Departamento de Comercio para entender las capacidades de IA y identificar amenazas y vulnerabilidades tanto nacionales como extranjeras. Con su nueva imagen y gestión, el CAISI busca representar los intereses de la IA estadounidense y «proteger contra regulaciones innecesarias de tecnologías estadounidenses por parte de gobiernos extranjeros».

Desafíos en la Colaboración con la Sociedad Civil

A diferencia de su predecesor, el USAISI, que tenía como misión avanzar en la ciencia de la seguridad de la IA mediante la colaboración con múltiples partes interesadas, el CAISI se posiciona como el «punto de contacto principal de la industria». Esta divergencia plantea preocupaciones sobre la responsabilidad tecnológica y la representación de las perspectivas de la sociedad civil y la academia en el desarrollo de estándares de IA.

Desde el inicio del USAISI, la tensión sobre la necesidad de abordar sesgos y discriminación ha sido evidente. A pesar de los esfuerzos por integrar las demandas de la sociedad civil en los entregables del NIST, la falta de atención a estos temas en los grupos de trabajo refleja un enfoque que prioriza la inovación y la seguridad nacional sobre las preocupaciones éticas.

Impacto en la Investigación y la Política de IA

La transformación del grupo de trabajo de Sociedad y Tecnología en Seguridad y Protección es un indicador claro de la lucha entre los esfuerzos de seguridad de IA y la necesidad de abordar los problemas que afectan al público. A lo largo de la última década, la narrativa sobre la IA ha cambiado de ética a confianza, de responsabilidad a seguridad, y ahora, con el CAISI, parece que se está ignorando por completo la consideración de valores.

Con la disminución de la financiación gubernamental para la investigación, desviar la atención de las preocupaciones más documentadas sobre la IA no solo estanca la investigación, sino que también deja a grupos vulnerables, como mujeres, niños, comunidades de color y la comunidad LGBTQ+, desprotegidos.

La Colaboración Internacional en Riesgo

El interés del gobierno en la colaboración para avanzar en la seguridad de la IA parece haber llegado a su fin. Mientras que países como el Reino Unido y Corea del Sur enfatizan la necesidad de cooperación internacional, la administración actual se centra en la creación de tecnologías de IA sin preocuparse por las regulaciones internacionales que podrían considerarse onerosas.

La creación del CAISI y su enfoque en «proteger contra regulaciones innecesarias» pone en duda la eficacia de iniciativas como la Red Internacional de Institutos de Seguridad de IA. En lugar de buscar colaboración, parece que el CAISI busca la captura de la narrativa y la investigación en IA.

Conclusión

La transformación del USAISI al CAISI ejemplifica las prioridades industriales y de seguridad nacional que dominarán la política de IA en EE.UU. durante los próximos años. Es lamentable que en un momento donde hay una amplia gama de investigaciones que podrían avanzar nuestra comprensión de la IA, los gobiernos y las empresas tecnológicas se unan en una búsqueda insaciable de poder.

La gobernanza democrática es más efectiva cuando múltiples partes interesadas son escuchadas y tienen poder. Actualmente, el futuro de la ciencia de la IA y la responsabilidad se encuentra en un delicado equilibrio mientras la industria toma su lugar junto al trono.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...