Grok, una prueba para la gobernanza de la IA
En las últimas semanas, Grok —el sistema de IA desarrollado por xAI— ha estado generando imágenes sexualizadas y no consensuadas de mujeres y niños en una plataforma de redes sociales. Esto ha provocado investigaciones y un examen formal por parte de reguladores en varias jurisdicciones. Los funcionarios europeos han descrito esta conducta como ilegal, y los reguladores británicos han iniciado investigaciones urgentes. Otros gobiernos han advertido que los resultados de Grok podrían violar leyes de seguridad en plataformas y delitos domésticos.
Premisas de la gobernanza de la IA
Los gobiernos de todo el mundo coinciden en que los sistemas de IA desplegados a gran escala deben ser seguros, controlables y estar sujetos a una supervisión significativa. Ya sea enmarcado por la legislación sobre servicios digitales, principios de IA o marcos éticos, estos estándares son claros. Los sistemas de IA que permiten daños previsibles, especialmente la explotación sexual, son incompatibles con las expectativas de la sociedad.
Además, existe un consenso global de que la imagen sexualizada que involucra a menores constituye una de las líneas rojas más claras en la gobernanza tecnológica.
Fallo fundamental
La generación de dicho material por parte de Grok no se encuentra justificada ni excusada. Este hecho revela importantes fallos en los controles y filtros que debían impedir contenidos ofensivos o ilegales. La ausencia de mecanismos robustos para evitar la creación de imágenes sexualizadas no consensuadas demuestra una falta de gobernanza eficaz y responsabilidad por parte de los desarrolladores.