Regulación de la vigilancia con IA en el Condado de Thurston

Guardrails para la vigilancia con IA en el Condado de Thurston: ¿Cómo funcionaría?

Los comisionados del Condado de Thurston están considerando regular la adquisición y el uso de tecnología de vigilancia habilitada por inteligencia artificial en el condado.

La comisionada Carolina Mejia compartió un borrador de ordenanza que no propone la expansión de la vigilancia, la introducción de tecnologías específicas ni la aprobación de algún proveedor en particular. Establece «guardrails» para que las herramientas habilitadas por IA no se expandan silenciosamente o de manera incremental sin el conocimiento y aprobación de la junta.

La tecnología ha cambiado más rápido que nuestras políticas, y las herramientas capaces de inferencia, predicción y análisis biométrico requieren un mayor nivel de transparencia y gobernanza intencional que el equipo tradicional.

Riesgos y normalización

La comisionada señaló que el verdadero riesgo no es una sola tecnología, sino la normalización de los sistemas, que ocurre cuando se convierten en algo rutinario. Esto impide que las personas puedan afirmar quién los aprobó, qué datos recopilan, cuánto tiempo se almacenan y quién controla la información.

La junta votó de manera unánime para que el administrador del condado trabaje con el fiscal del condado y el departamento de tecnología de la información para presentar una propuesta a la junta.

Motivación y contexto

La comisionada ha reflexionado sobre este problema a nivel local en los últimos meses y ha conversado con colegas a nivel nacional. La motivación proviene de la rápida integración de tecnologías habilitadas por IA en los sistemas gubernamentales, a menudo sin marcos de políticas locales claros.

El objetivo es garantizar que el Condado de Thurston sea proactivo en lugar de reactivo, estableciendo expectativas claras sobre transparencia, responsabilidad y libertades civiles antes de adquirir nuevas tecnologías.

Propuesta de ordenanza

La propuesta de ordenanza establece que las tecnologías de vigilancia habilitadas por IA pueden asistir en las operaciones gubernamentales, pero también pueden crear riesgos para la privacidad, las libertades civiles y la equidad racial. La ordenanza busca asegurar que la adquisición y el uso de tales tecnologías sean transparentes, responsables, éticos y consistentes con los requisitos constitucionales y estatutarios.

Define la tecnología de vigilancia IA como cualquier software o dispositivo que utiliza IA, aprendizaje automático o análisis automatizado para recopilar e interpretar información sobre individuos o grupos.

Se prohibirá a todas las oficinas y departamentos del condado utilizar tecnologías de vigilancia IA para:

  • Desplegar reconocimiento facial en tiempo real en espacios públicos.
  • Usar tecnologías de vigilancia IA para perfilar o discriminar según características protegidas.
  • Implementar sistemas de vigilancia predictiva dirigidos a individuos o comunidades.
  • Realizar vigilancia encubierta habilitada por IA sin la aprobación del sheriff.
  • Compartir datos de vigilancia con entidades externas, excepto según lo autorizado por la junta o requerido por ley.

Informes y auditorías

Las oficinas que busquen aprobación para tecnología de vigilancia IA deberán presentar un «informe de impacto de vigilancia», que incluirá descripciones detalladas de la tecnología, una evaluación de los posibles impactos en la privacidad y las políticas de privacidad de datos.

También se requerirá un «informe anual de vigilancia» que incluya un resumen de auditorías, eventos de acceso o intercambio de datos y cualquier queja o incidente de uso indebido.

Por último, la ordenanza exige que el departamento de TI del condado implemente medidas de seguridad robustas, como controles de acceso y políticas de documentación.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...