La Unión Europea investiga a X de Elon Musk por imágenes sexualizadas de Grok tras protestas públicas

Investigación de la UE sobre imágenes sexualizadas de Grok de Musk tras la indignación pública

La plataforma social enfrenta una investigación por parte de la Unión Europea para determinar si difunde contenido ilegal, luego de una reacción pública por la propagación de imágenes sexualizadas manipuladas generadas por su chatbot de inteligencia artificial.

Contexto de la investigación

La Comisión Europea, el órgano ejecutivo de la UE, anunció que investigará si la plataforma protege a los consumidores mediante una adecuada evaluación y mitigación de riesgos relacionados con las funcionalidades de Grok.

Esta investigación se produce dos semanas después de que el regulador de medios británico lanzara su propia indagación debido a preocupaciones sobre la creación de imágenes de «deepfake» sexualmente íntimas, y tras el bloqueo temporal del chatbot en varios países.

Imágenes de deepfake y reacciones globales

La Comisión ha calificado las imágenes generadas de mujeres y niños desnudos como ilegales y horripilantes, recibiendo condenas a nivel mundial. Un alto funcionario de la UE señaló que los «deepfakes sexuales no consensuados son una forma violenta e inaceptable de degradación».

Medidas tomadas por la plataforma

La plataforma informó en un comunicado que ha restringido la edición de imágenes para usuarios de Grok y bloqueado a quienes generaban imágenes de personas en ropa reveladora en jurisdicciones donde esto es ilegal.

Tras la implementación de medidas de seguridad adicionales, algunos países restauraron el acceso a Grok.

Implicaciones de la investigación

La investigación se enmarca dentro de la Ley de Servicios Digitales de la UE, que exige a las grandes empresas tecnológicas abordar el contenido ilegal y dañino en línea. Las empresas pueden enfrentar multas de hasta el 6% de su facturación anual global por incumplimientos de esta ley.

Aunque las medidas adoptadas fueron bien recibidas, no resuelven todos los problemas y riesgos sistémicos. Se considera que la plataforma no realizó una evaluación adecuada al implementar las funcionalidades de Grok en Europa.

Conclusión

La investigación podría tensar las relaciones con las administraciones gubernamentales y resaltar debilidades en la regulación de las tecnologías de inteligencia artificial. Se espera que esta situación impulse la legislación en la UE para garantizar una supervisión más efectiva y en tiempo real de los daños graves causados por estas tecnologías.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...