Ex-empleado alega que Google ayudó a contratista del IDF con IA, violando políticas éticas
Un ex-empleado de Google ha acusado a la empresa de violar políticas éticas de inteligencia artificial al ayudar a un contratista militar israelí a analizar imágenes de drones en 2024, según una queja de un denunciante vista por un medio de comunicación y reportada recientemente.
La queja fue presentada ante la Comisión de Bolsa y Valores de Estados Unidos y alega que Google infringió sus propios «principios de IA», los cuales, en el momento del incidente, estipulaban que la empresa no utilizaría tecnología de IA para realizar vigilancia de manera que «violara normas internacionalmente aceptadas» o en relación con armas.
Detalles de la Queja
Según los documentos de la queja, se detalla que se recibió una solicitud de soporte al cliente supuestamente enviada desde una dirección de correo del IDF. El nombre del cliente asociado con la solicitud coincidía con un empleado de una empresa tecnológica israelí. La queja también alegó que esta empresa es contratista del IDF.
Documentos internos incluidos en la queja describieron que el cliente solicitó ayuda tras notar un error al intentar utilizar la IA Gemini de Google para analizar imágenes aéreas, un problema que supuestamente llevó al software a fallar ocasionalmente en la identificación de drones, soldados y otros objetos.
El personal de soporte de Google respondió con sugerencias y realizó pruebas internas relacionadas con la solicitud. Después de varios intercambios de mensajes, el problema aparentemente se resolvió por sí solo.
Además, otro empleado de Google fue copiado en la solicitud de soporte, según los documentos de la queja. Se alegó que este segundo empleado trabajaba en la cuenta de Google Cloud del IDF.
Implicaciones de la Queja
La queja afirmó que las imágenes aéreas estaban relacionadas con operaciones israelíes en Gaza durante el conflicto entre Israel y Hamas, aunque no se proporcionó evidencia específica que respalde esa afirmación.
El denunciante también afirmó que la respuesta del servicio al cliente contradice las políticas públicamente establecidas por Google y alegó que la compañía engañó a los reguladores e inversores.
Google ha declarado previamente que cualquier trabajo realizado con el gobierno israelí no estaba «dirigido a cargas de trabajo altamente sensibles, clasificadas o militares relevantes para armas o servicios de inteligencia.»
Reacción de Google
El ex-empleado que presentó la queja indicó que muchos de sus proyectos en Google habían pasado por procesos internos de revisión ética de IA. Este afirmó que decidió presentar la queja porque sentía que la empresa necesitaba ser «responsabilizada» por la acusada «doble moral».
Un portavoz de Google disputó la afirmación de «doble moral» y aseguró que la solicitud de soporte no violó las políticas éticas de IA, ya que el uso del solicitante de los servicios de Gemini era demasiado pequeño para considerarse «significativo».
La queja ante la SEC puede ser presentada por cualquier individuo y no conduce automáticamente a una investigación posterior.
En febrero de 2025, Google actualizó la sección de su política de IA que prometía prohibir el uso de su tecnología para vigilancia y armas, afirmando que necesitaba ayudar a los gobiernos democráticamente elegidos a evolucionar y mantenerse al día con el uso global de la IA.