Google y la paradoja de la inteligencia artificial responsable

Informe sobre IA Responsable de Google

El reciente informe de Google sobre la IA responsable ha generado un debate significativo debido a lo que no menciona, específicamente la falta de referencias a armas y vigilancia. Este informe, que es el sexto en su serie anual, detalla los «métodos para gobernar, mapear, medir y gestionar los riesgos de la IA», además de actualizaciones sobre cómo la empresa está operativizando la innovación responsable en este campo.

Aspectos Destacados del Informe

En el informe, Google señala una serie de logros en su investigación de seguridad durante 2024, incluyendo más de 300 documentos de investigación publicados y una inversión de 120 millones de dólares en educación y capacitación en IA. Además, destaca que su plataforma Cloud AI recibió una calificación de «madurez» por parte del Instituto Nacional de Estándares y Tecnología (NIST) en su Marco de Gestión de Riesgos.

El enfoque del informe se centra principalmente en la seguridad y en el red-teaming orientado al contenido, explorando en profundidad proyectos como Gemini, AlphaFold y Gemma, y cómo la empresa protege sus modelos de generar o difundir contenido dañino. También se mencionan herramientas de proveniencia como SynthID, una herramienta de marcado de contenido diseñada para rastrear mejor la desinformación generada por IA.

Marco de Seguridad y Nuevas Recomendaciones

Google ha actualizado su Marco de Seguridad de Frontera, añadiendo nuevas recomendaciones de seguridad y procedimientos de mitigación de abusos. Un aspecto notable es el riesgo de alineación engañosa, que se refiere al riesgo de que un sistema autónomo socave deliberadamente el control humano. Este fenómeno ha sido observado recientemente en modelos como OpenAI o1 y Claude 3 Opus.

A pesar de la atención al usuario final, la empresa ha eliminado de su sitio web su compromiso de no usar IA para desarrollar armas o vigilar a los ciudadanos. Esto ha sido documentado por diversas fuentes y plantea la pregunta: ¿qué constituye una IA responsable?

Principios de IA y Enfoque Futuros

Como parte del anuncio del informe, Google ha renovado sus principios de IA en torno a tres tenencias clave: innovación audaz, progreso colaborativo y desarrollo y despliegue responsables. Estos principios actualizados refuerzan el despliegue responsable como un compromiso con los «objetivos del usuario, la responsabilidad social y los principios ampliamente aceptados de derecho internacional y derechos humanos». Sin embargo, esta formulación puede interpretarse como lo suficientemente vaga como para permitir la reevaluación de casos de uso relacionados con armas sin contradecir su propia guía.

El informe concluye reafirmando el compromiso de Google de enfocar su investigación y aplicaciones de IA en alineación con su misión y áreas de especialización, evaluando siempre el trabajo específico considerando si los beneficios superan sustancialmente los riesgos potenciales.

Esta evolución en la postura de Google se alinea con una tendencia creciente entre los gigantes tecnológicos hacia las aplicaciones militares de la IA, reflejando un cambio significativo en la percepción y el uso de estas tecnologías en la sociedad moderna.

More Insights

Gobernanza de la IA: Retos y Oportunidades para Profesionales de Seguridad

La inteligencia artificial (IA) está teniendo un amplio efecto en las líneas de negocio, incluida la ciberseguridad, con un estudio que muestra que el 63% de los profesionales de ciberseguridad creen...

Gobierno británico en la mira por la implementación de reconocimiento facial sin regulación

El gobierno del Reino Unido ha sido criticado por la implementación de tecnología de reconocimiento facial sin un marco legal adecuado. El Instituto Ada Lovelace ha expresado preocupaciones sobre el...

El Auge de Startups de Gobernanza en la Era de la IA

A medida que la explosión de la inteligencia artificial avanza, las soluciones de gobernanza están en gran demanda. La industria global de gobernanza de IA se valoró en 890 millones de dólares el año...

Perspectivas sobre la Moratoria de 10 Años en las Leyes Estatales de IA en EE. UU.

La Cámara de Representantes de EE. UU. aprobó un paquete de presupuesto que incluye una moratoria de 10 años sobre la aplicación de leyes estatales de inteligencia artificial. Tech Policy Press busca...

El Futuro de la IA en los Tribunales: Lecciones de 500 Casos

A través del mundo, la regulación de la inteligencia artificial (IA) es desigual, con algunas jurisdicciones que ya cuentan con regulaciones integrales y otras que solo se centran en reglas...

Estrategias Efectivas para Mitigar los Riesgos de la IA Responsable

La inteligencia artificial responsable se está transformando de una impresionante palabra de moda en una necesidad crítica para los negocios, especialmente en la región de Asia-Pacífico. A pesar de...

La necesidad urgente de gobernanza legal en la IA

En esta entrevista de Help Net Security, Brooke Johnson, Asesor Legal Principal de Ivanti, explora las responsabilidades legales en la gobernanza de la IA, destacando cómo la colaboración...

Reformando las Regulaciones de IA

La Cámara de Representantes aprobó recientemente un importante proyecto de ley que impide a los estados regular modelos de inteligencia artificial durante diez años. Esto preocupa a algunos...