Estándares de IA para Proteger a los Más Vulnerables en EE. UU.

Moldeando los Estándares de IA para Proteger a los Más Vulnerables de América

En un contexto donde las políticas de la administración de Trump desestabilizan las vidas y medios de vida de muchos grupos en los Estados Unidos, la industria tecnológica se encuentra en una posición privilegiada. Desde la imagen de los CEOs de Big Tech en la inauguración hasta una serie de órdenes ejecutivas que buscan acelerar la adopción de la inteligencia artificial (IA), las empresas tecnológicas están aprovechando el momento.

Transformación del Instituto Nacional de Estándares y Tecnología

El cambio anunciado el 3 de junio por el Secretario de Comercio, Howard Lutnick, para reformar el Instituto Nacional de Estándares y Tecnología de EE.UU. (NIST) y establecer el Centro de Estándares e Innovación de IA de EE.UU. (CAISI) es un desarrollo significativo. Este nuevo enfoque se centra en la seguridad nacional y la competitividad estadounidense, con un énfasis en la investigación de las capacidades de IA de EE.UU. en comparación con otros países.

El comunicado de prensa del Secretario destaca que el propósito del CAISI será fortalecer la capacidad del Departamento de Comercio para entender las capacidades de IA y identificar amenazas y vulnerabilidades tanto nacionales como extranjeras. Con su nueva imagen y gestión, el CAISI busca representar los intereses de la IA estadounidense y «proteger contra regulaciones innecesarias de tecnologías estadounidenses por parte de gobiernos extranjeros».

Desafíos en la Colaboración con la Sociedad Civil

A diferencia de su predecesor, el USAISI, que tenía como misión avanzar en la ciencia de la seguridad de la IA mediante la colaboración con múltiples partes interesadas, el CAISI se posiciona como el «punto de contacto principal de la industria». Esta divergencia plantea preocupaciones sobre la responsabilidad tecnológica y la representación de las perspectivas de la sociedad civil y la academia en el desarrollo de estándares de IA.

Desde el inicio del USAISI, la tensión sobre la necesidad de abordar sesgos y discriminación ha sido evidente. A pesar de los esfuerzos por integrar las demandas de la sociedad civil en los entregables del NIST, la falta de atención a estos temas en los grupos de trabajo refleja un enfoque que prioriza la inovación y la seguridad nacional sobre las preocupaciones éticas.

Impacto en la Investigación y la Política de IA

La transformación del grupo de trabajo de Sociedad y Tecnología en Seguridad y Protección es un indicador claro de la lucha entre los esfuerzos de seguridad de IA y la necesidad de abordar los problemas que afectan al público. A lo largo de la última década, la narrativa sobre la IA ha cambiado de ética a confianza, de responsabilidad a seguridad, y ahora, con el CAISI, parece que se está ignorando por completo la consideración de valores.

Con la disminución de la financiación gubernamental para la investigación, desviar la atención de las preocupaciones más documentadas sobre la IA no solo estanca la investigación, sino que también deja a grupos vulnerables, como mujeres, niños, comunidades de color y la comunidad LGBTQ+, desprotegidos.

La Colaboración Internacional en Riesgo

El interés del gobierno en la colaboración para avanzar en la seguridad de la IA parece haber llegado a su fin. Mientras que países como el Reino Unido y Corea del Sur enfatizan la necesidad de cooperación internacional, la administración actual se centra en la creación de tecnologías de IA sin preocuparse por las regulaciones internacionales que podrían considerarse onerosas.

La creación del CAISI y su enfoque en «proteger contra regulaciones innecesarias» pone en duda la eficacia de iniciativas como la Red Internacional de Institutos de Seguridad de IA. En lugar de buscar colaboración, parece que el CAISI busca la captura de la narrativa y la investigación en IA.

Conclusión

La transformación del USAISI al CAISI ejemplifica las prioridades industriales y de seguridad nacional que dominarán la política de IA en EE.UU. durante los próximos años. Es lamentable que en un momento donde hay una amplia gama de investigaciones que podrían avanzar nuestra comprensión de la IA, los gobiernos y las empresas tecnológicas se unan en una búsqueda insaciable de poder.

La gobernanza democrática es más efectiva cuando múltiples partes interesadas son escuchadas y tienen poder. Actualmente, el futuro de la ciencia de la IA y la responsabilidad se encuentra en un delicado equilibrio mientras la industria toma su lugar junto al trono.

More Insights

Estados Unidos se aleja de la ONU en la regulación global de la IA

Los funcionarios de EE. UU. rechazaron un esfuerzo por establecer un marco de gobernanza global de inteligencia artificial en la Asamblea General de las Naciones Unidas, a pesar del amplio apoyo de...

Riesgos y Necesidades de Gobernanza en la Expansión de la IA Agente

En un mundo de inteligencia artificial en rápida evolución, las empresas están adoptando cada vez más sistemas de IA agentiva, programas autónomos que pueden tomar decisiones y ejecutar tareas sin...

El papel creciente de la IA como guardián de opiniones y sus sesgos ocultos

A medida que los modelos de lenguaje grande (LLMs) se vuelven comunes en áreas como la atención médica, las finanzas y la educación, su papel como guardianes de la opinión genera alarmas sobre sesgos...

AI y Regulación: Hacia una Era de Responsabilidad

El mundo en expansión de la inteligencia artificial (IA) se encuentra en un momento crítico, ya que una ola de acciones regulatorias y precedentes legales subraya un cambio global hacia la...

Herramientas Efectivas para la Gobernanza de la IA

A medida que la adopción de la inteligencia artificial generativa se acelera, también lo hacen los riesgos asociados. Las herramientas de gobernanza de IA ofrecen una forma de gestionar estos riesgos...

La ONU impulsa un consenso global para una IA segura y confiable

Las Naciones Unidas están impulsando la influencia global sobre la política de inteligencia artificial, enfocándose en estándares técnicos y de políticas para una IA "segura, confiable y protegida"...

El Ministerio de Algoritmos: Cómo los Científicos de Datos Influyen en la Toma de Decisiones

Recientemente, en Singapur, dos hombres discutieron sobre cómo la regulación de la IA puede ser impulsada por los científicos de datos. Su conversación destacó el innovador Proyecto MindForge, que...

Preparación de las PYMES ante las regulaciones de IA de la UE

Las pequeñas y medianas empresas (PYMES) deben prepararse para la normativa de IA de la UE, que establece requisitos estrictos para las aplicaciones de IA de alto riesgo, como los sistemas de...