Acusaciones éticas contra Google por colaboración con contratista militar israelí

Ex-empleado alega que Google ayudó a contratista del IDF con IA, violando políticas éticas

Un ex-empleado de Google ha acusado a la empresa de violar políticas éticas de inteligencia artificial al ayudar a un contratista militar israelí a analizar imágenes de drones en 2024, según una queja de un denunciante vista por un medio de comunicación y reportada recientemente.

La queja fue presentada ante la Comisión de Bolsa y Valores de Estados Unidos y alega que Google infringió sus propios «principios de IA», los cuales, en el momento del incidente, estipulaban que la empresa no utilizaría tecnología de IA para realizar vigilancia de manera que «violara normas internacionalmente aceptadas» o en relación con armas.

Detalles de la Queja

Según los documentos de la queja, se detalla que se recibió una solicitud de soporte al cliente supuestamente enviada desde una dirección de correo del IDF. El nombre del cliente asociado con la solicitud coincidía con un empleado de una empresa tecnológica israelí. La queja también alegó que esta empresa es contratista del IDF.

Documentos internos incluidos en la queja describieron que el cliente solicitó ayuda tras notar un error al intentar utilizar la IA Gemini de Google para analizar imágenes aéreas, un problema que supuestamente llevó al software a fallar ocasionalmente en la identificación de drones, soldados y otros objetos.

El personal de soporte de Google respondió con sugerencias y realizó pruebas internas relacionadas con la solicitud. Después de varios intercambios de mensajes, el problema aparentemente se resolvió por sí solo.

Además, otro empleado de Google fue copiado en la solicitud de soporte, según los documentos de la queja. Se alegó que este segundo empleado trabajaba en la cuenta de Google Cloud del IDF.

Implicaciones de la Queja

La queja afirmó que las imágenes aéreas estaban relacionadas con operaciones israelíes en Gaza durante el conflicto entre Israel y Hamas, aunque no se proporcionó evidencia específica que respalde esa afirmación.

El denunciante también afirmó que la respuesta del servicio al cliente contradice las políticas públicamente establecidas por Google y alegó que la compañía engañó a los reguladores e inversores.

Google ha declarado previamente que cualquier trabajo realizado con el gobierno israelí no estaba «dirigido a cargas de trabajo altamente sensibles, clasificadas o militares relevantes para armas o servicios de inteligencia.»

Reacción de Google

El ex-empleado que presentó la queja indicó que muchos de sus proyectos en Google habían pasado por procesos internos de revisión ética de IA. Este afirmó que decidió presentar la queja porque sentía que la empresa necesitaba ser «responsabilizada» por la acusada «doble moral».

Un portavoz de Google disputó la afirmación de «doble moral» y aseguró que la solicitud de soporte no violó las políticas éticas de IA, ya que el uso del solicitante de los servicios de Gemini era demasiado pequeño para considerarse «significativo».

La queja ante la SEC puede ser presentada por cualquier individuo y no conduce automáticamente a una investigación posterior.

En febrero de 2025, Google actualizó la sección de su política de IA que prometía prohibir el uso de su tecnología para vigilancia y armas, afirmando que necesitaba ayudar a los gobiernos democráticamente elegidos a evolucionar y mantenerse al día con el uso global de la IA.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...