Enfoque de la Gobernanza de IA en Amenazas Emergentes

Enfoque de la Gobernanza de IA en Saltos de Capacidad Cualitativa

La gobernanza de la IA debería centrarse en amenazas novedosas en lugar de riesgos familiares. Un nuevo capítulo de la gobernanza de la inteligencia artificial (IA) está en marcha, catalizado por dos desarrollos significativos. Primero, el éxito de DeepSeek en el desarrollo de un modelo de peso abierto a un costo relativamente bajo demuestra que alcanzar la frontera tecnológica es más accesible para más actores de lo que se había anticipado anteriormente. La economía del desarrollo de capacidades ha cambiado fundamentalmente, permitiendo que una gama más amplia de entidades, incluidos posibles adversarios, creen y desplieguen sistemas avanzados de IA con recursos relativamente limitados. Segundo, un discurso del Vicepresidente JD Vance en la Cumbre de Acción de IA en París y observaciones en la Cumbre de Dinamismo Americano socavan el impulso hacia un enfoque internacional unificado para la seguridad de la IA, señalando un cambio hacia enfoques más nacionalistas en el desarrollo y regulación de la IA.

Si, como dijo el Vicepresidente Vance, la administración Trump ha dejado de hablar sobre la seguridad de la IA, entonces la seguridad de la IA ahora sirve como la narrativa regulatoria dominante. Sin embargo, esta clara pivotación plantea una pregunta mayor: ¿Qué implica la seguridad de la IA?

Comprendiendo la Seguridad de la IA

La seguridad de la IA se ocupa fundamentalmente de los saltos de capacidad de la IA, atributos que crean nuevos vectores de amenaza o métodos para ataques de seguridad. Un enfoque en la seguridad de la IA implica redirigir la atención y los recursos regulatorios a la defensa contra amenazas habilitadas por las capacidades novedosas de la IA que representan un marcado salto más allá de los peligros existentes. Estas capacidades de cruce de umbral permiten a los actores maliciosos lograr objetivos dañinos que antes eran imposibles o imprácticos.

Los esfuerzos legislativos actuales en todo el mundo se centran abrumadoramente en preocupaciones basadas en contenido y culturales, como la regulación de medios generados por IA, la atención a sesgos y la gestión de la desinformación. Aunque estos problemas merecen atención, representan principalmente extensiones de problemas existentes en lugar de amenazas novedosas. Por ejemplo, los deepfakes generados por IA pueden ser más convincentes y fáciles de producir, pero existen en el mismo continuo que las tácticas de desinformación previamente existentes.

El Caso de la Privacidad

La privacidad, sin embargo, presenta un caso instructivo que ayuda a demostrar tanto la utilidad como las limitaciones de nuestro marco de umbral de capacidad. A diferencia de las preocupaciones de moderación de contenido, el impacto de la IA en la privacidad no es simplemente una intensificación de problemas existentes; representa algo cualitativamente diferente.

La regulación de la privacidad tradicional opera bajo una premisa simple: las organizaciones deben obtener consentimiento antes de recopilar ciertos datos, y los individuos pueden controlar qué información personal comparten. Este modelo funcionó razonablemente bien en un mundo donde la recopilación de datos era explícita y directa. Sin embargo, la IA avanzada cambia fundamentalmente esta ecuación.

Consideremos tres ejemplos concretos:

Primero, los sistemas de IA pueden inferir información altamente sensible que nunca se compartió explícitamente. La investigación ha demostrado que los modelos de aprendizaje automático pueden predecir atributos personales y condiciones médicas a partir de huellas digitales aparentemente no relacionadas, identificando marcadores de depresión a partir de patrones de lenguaje, embarazo a partir de historial de compras o enfermedades crónicas a partir de consultas de búsqueda, incluso antes de que los usuarios compartan esta información públicamente.

Segundo, la IA permite el reconocimiento de patrones a través de fuentes de datos dispares que revelan información privada que ningún conjunto de datos único contiene. Cuando se analizan los registros de compras de un minorista junto con datos de transporte público y actividad en redes sociales, la IA puede construir perfiles detallados que revelan información que los individuos eligieron específicamente ocultar de cualquier empresa individual.

Finalmente, las capacidades predictivas de la IA pueden anticipar comportamientos futuros o cambios en la vida antes de que los individuos sean conscientes de ellos. Estos desarrollos representan una verdadera violación de umbral: no se trata simplemente de aumentos en las violaciones de las leyes de privacidad existentes, sino de alterar fundamentalmente lo que se puede conocer sobre los individuos sin su conocimiento o consentimiento.

Desafíos en la Legislación Actual

La actual legislación está desalineada con estas amenazas novedosas. En todo el mundo, el enfoque principal ha sido la regulación de contenido, como requerir marcas de agua o etiquetado de medios generados por IA; preocupaciones de discriminación, como prohibir el uso de IA que pueda perjudicar a grupos protegidos; protecciones de privacidad, como limitar la recopilación y procesamiento de datos por parte de sistemas de IA; y requisitos de transparencia, como exigir divulgaciones sobre el uso y capacidades de la IA.

Aunque estas preocupaciones son legítimas, representan un territorio regulatorio familiar. Los marcos existentes para abordar medios engañosos, discriminación y privacidad pueden adaptarse modestamente para abordar versiones mejoradas por IA de estos desafíos.

Sin embargo, las amenazas verdaderamente novedosas, aquellas que representan saltos genuinos de capacidad, permanecen en gran medida sin abordar por marcos regulatorios específicos. Esta discrepancia crea peligrosos vacíos de seguridad mientras que, al mismo tiempo, arriesga una sobre-regulación en áreas donde los marcos existentes podrían ser suficientes.

Propuestas para un Marco de Seguridad Efectivo

Un marco efectivo de seguridad de IA debe comenzar con el principio de violación de umbral, que consiste en identificar y priorizar amenazas donde la IA crea capacidades cualitativamente nuevas en lugar de simplemente intensificar desafíos existentes. Hay múltiples ejemplos de intervenciones potenciales que encajarían dentro de ese marco.

Primero, en lugar de regular los sistemas de IA de manera amplia, el Congreso debería instituir controles específicos para las capacidades que presentan amenazas novedosas. El acceso supervisado a las capacidades de diseño biológico requeriría protocolos de seguridad rigurosos y monitoreo para sistemas capaces de predecir el plegamiento de proteínas o la optimización de secuencias genéticas.

En segundo lugar, para abordar los desafíos de bioseguridad sin precedentes presentados por las capacidades de la IA, el Congreso debería establecer una iniciativa nacional de modernización de biodefensa que integre soluciones tecnológicas avanzadas con marcos tradicionales de bioseguridad.

Finalmente, el Congreso debería autorizar y financiar un programa integral de endurecimiento de infraestructura crítica a través de legislación dedicada que provea tanto los recursos como las autoridades necesarias para defender sistemas esenciales contra amenazas mejoradas por IA.

Al centrarse en amenazas novedosas, se permite que la IA «aburrida» se desarrolle bajo marcos legales existentes sin imponer cargas adicionales específicas de IA. Este enfoque garantiza que se aborden los riesgos genuinamente nuevos mientras se permite que la innovación beneficiosa prospere.

La ventana para establecer estas medidas de seguridad específicas es ahora, antes de que los actores maliciosos puedan explotar estas capacidades novedosas. Al priorizar amenazas que cruzan umbrales críticos de seguridad, podemos crear un marco de seguridad que proteja contra los aspectos más peligrosos de la IA mientras se permite la continua innovación en aplicaciones beneficiosas.

More Insights

Inteligencia Artificial y Ciberseguridad: Desafíos de Responsabilidad

A medida que las organizaciones adoptan la inteligencia artificial (IA) para impulsar la innovación y transformar las operaciones, deben enfrentar una nueva realidad: la IA está remodelando...

Enfoque Inteligente para la Gobernanza de la IA en Tailandia

El Sr. Sak menciona que la próxima legislación tiene como objetivo proteger a los usuarios de los posibles riesgos de la IA y eliminar las barreras legales que las leyes existentes no pueden abordar...

Texas Establece Leyes de Gobernanza de IA con Enfoque en Salud

Texas ha dado un paso significativo en la regulación de la inteligencia artificial (IA) con la aprobación de los proyectos de ley HB 149 y SB 1188, que establecen un marco amplio para el uso...

Gillian K. Hadfield: Nueva Líder en Gobernanza de IA

Gillian K. Hadfield ha sido nombrada Profesora Distinguida Bloomberg de Alineación y Gobernanza de la IA en la Universidad Johns Hopkins. Su investigación se centra en asegurar que los sistemas de...

Gobernanza Ética e Inclusiva de la IA en Indonesia

El Ministerio de Comunicación y Digital de Indonesia ha reafirmado su compromiso de incorporar principios éticos e inclusivos en sus políticas de inteligencia artificial (IA). El Vice Ministro Nezar...

Texas y la Nueva Ley de Gobernanza de IA Responsable

El 22 de junio de 2025, el gobernador Abbott firmó la Ley de Gobernanza de Inteligencia Artificial Responsable de Texas, convirtiendo a Texas en el tercer estado de EE. UU. en adoptar una ley integral...

La IA como Ventaja Competitiva en Cumplimiento Normativo

La inteligencia artificial está ayudando a las empresas a cumplir con una compleja gama de regulaciones en constante evolución, brindándoles una ventaja competitiva. Las herramientas basadas en IA...