ICE impulsa el crecimiento de casos de uso de IA en Seguridad Nacional
El Departamento de Seguridad Nacional está trabajando activamente en más de 200 casos de uso de inteligencia artificial, lo que representa un aumento de casi el 37 % en comparación con julio de 2025, según su último inventario de IA publicado recientemente. La Oficina de Inmigración y Control de Aduanas es un motor clave detrás de este crecimiento.
ICE ha añadido 25 casos de uso de IA desde su divulgación el verano pasado, incluyendo el procesamiento de denuncias, la revisión de datos de dispositivos móviles relevantes para investigaciones, la confirmación de identidades de individuos a través de datos biométricos y la detección de identificaciones intencionadas incorrectas. De los nuevos usos añadidos en ICE, tres son productos de un socio tecnológico notable.
Cuestiones legales y de privacidad
Expertos en política han expresado preocupaciones sobre la legalidad de las acciones tomadas por el Departamento de Seguridad Nacional y su posible infracción sobre las libertades civiles y la privacidad de millones de personas en el país. Se ha señalado que el inventario deja mucho que desear en términos de claridad y transparencia.
El proceso de inventario anual tiene sus raíces en un decreto ejecutivo de 2020, y aunque se han tomado medidas para mejorar el proceso, se espera que haya retrasos debido al cierre del gobierno federal más largo de la historia.
Casos de uso de IA en ICE
Palantir, un proveedor familiar para el Departamento de Seguridad Nacional, ha aparecido este año en el inventario de IA de la agencia. Su tecnología se utiliza en un caso titulado «Identificación y Orientación Mejoradas para la Aplicación» que ayuda a los oficiales a extraer información de registros.
Otro caso de uso es Mobile Fortify, una aplicación móvil que compara información biométrica con registros de la agencia para ayudar en la verificación de identidades. Esta aplicación ha atraído la atención de legisladores que buscan limitar su uso indebido.
Riesgos y gestión
El inventario de DHS clasifica varios casos de uso como de alto impacto, pero también hay una categoría de «presunto alto impacto pero determinado no alto impacto». Esta clasificación ha generado preocupación entre los expertos, quienes destacan que algunas aplicaciones que afectan los derechos y libertades civiles aún no cumplen con las prácticas mínimas de gestión de riesgos.
Aunque se están realizando esfuerzos para identificar y mitigar riesgos, se requiere una mayor transparencia y rigor en la implementación de prácticas de gestión de riesgos en el uso de IA.
Conclusión
El uso de inteligencia artificial por parte de ICE y otros departamentos de seguridad nacional plantea importantes cuestiones sobre derechos civiles y gestión de riesgos. Con el creciente número de casos de uso, es fundamental que las agencias proporcionen información clara y accesible sobre cómo están utilizando estas tecnologías y las decisiones que están tomando en el proceso.