Advertencias de críticos sobre la estrategia de IA de EE. UU.
La administración actual ha priorizado la dominación de EE. UU. en inteligencia artificial (IA) como una meta nacional. Sin embargo, algunos críticos advierten que un enfoque de regulación ligera en modelos de IA en EE. UU. está dificultando la adopción en otros países.
Enfoque de la administración actual
Desde el inicio de su mandato, la administración ha indicado su intención de alejarse del énfasis en la seguridad de la IA que tenía la administración anterior. En su lugar, se busca permitir que las empresas estadounidenses prueben y mejoren sus modelos con una regulación mínima, priorizando la rapidez y la capacidad.
Esto ha dejado a otros actores, incluidas las empresas estadounidenses, a la deriva en cuanto a las reglas que deben seguir.
Riesgos de la falta de regulación
Algunas organizaciones no comprenden que la seguridad es parte del rendimiento. Esto implica establecer controles de gobernanza y seguridad para asegurar que la IA funcione como se espera. Sin embargo, muchas organizaciones simplemente quieren avanzar rápidamente y no saben cómo equilibrar esto.
Se han visto casos donde las organizaciones han puesto en riesgo a sus usuarios al otorgar demasiada autoridad a los agentes de IA y poca supervisión, lo que ha llevado a resultados desastrosos.
Competencia global y regulaciones
La administración actual y los republicanos en el Congreso han hecho del liderazgo global en IA una prioridad nacional. Argumentan que nuevas regulaciones para la industria de IA inhibirían la innovación y harían que las empresas tecnológicas de EE. UU. sean menos competitivas.
Sin embargo, algunos temen que este impulso pueda tener repercusiones negativas. Se sostiene que las regulaciones de IA en EE. UU. son insuficientes para lograr una adopción amplia en otras partes del mundo, como Europa, donde los estándares de seguridad y regulación son más altos.
Ejemplo reciente de falta de control
Un ejemplo reciente involucra una empresa que está siendo investigada por múltiples reguladores debido a la generación de contenido sexual no consensuado por parte de su herramienta de IA. Esto ha llevado a varios países a amenazar con prohibir el uso de sus servicios.
Los expertos han señalado que la falta de alineación en las regulaciones sobre propiedad intelectual y derechos humanos ha permitido que se produzcan imágenes no consensuadas a gran escala sin consecuencias legales consistentes en EE. UU.
Conclusiones y recomendaciones
Un grupo creciente de responsables políticos en EE. UU. ha argumentado que establecer fuertes medidas de seguridad y protección ayudará a que los modelos de IA fabricados en EE. UU. compitan en el escenario global. Se sugiere que estas protecciones se integren como parte fundamental en la construcción de herramientas de IA.
En la ausencia de dirección o regulación del gobierno federal, se espera que las organizaciones busquen establecer sus propias reglas en torno a la seguridad y la fiabilidad de la IA, aunque esto no está sucediendo de manera generalizada. Es probable que la responsabilidad legal por fallos de seguridad y privacidad en IA se defina a través de litigios, lo que podría no ser la mejor manera de establecer precedentes adecuados para la industria.