AGs Exigen a xAI Más Medidas contra Deepfakes de Grok

Demandas para que xAI detenga los deepfakes de Grok

Una coalición bipartidista de 35 fiscales generales ha enviado una carta a xAI, instando a la empresa a tomar medidas adicionales para prevenir que su chatbot de inteligencia artificial, Grok, genere y difunda imágenes íntimas no consensuadas (NCII), incluyendo contenido que involucra a menores.

Preocupaciones sobre el uso indebido de Grok

En la carta, la coalición destacó informes que indican que Grok fue utilizado para «nudificar» a personas reales y amplificar el contenido resultante. Además, se alegó que las decisiones de producto de xAI, incluyendo un «modo picante», y su marketing contribuyeron al problema.

Solicitudes específicas a xAI

A pesar de reconocer los esfuerzos recientes de mitigación por parte de xAI, los fiscales generales pidieron a la empresa que proporcione información específica sobre cómo planea:

  1. Prevenir que Grok produzca NCII.
  2. Eliminar contenido existente de NCII.
  3. Suspender y, cuando corresponda, reportar a los usuarios responsables.
  4. Ofrecer a los usuarios controles sencillos para bloquear a Grok de responder o editar su contenido.
  5. Asegurar que las salvaguardas limiten la producción de contenido dañino en toda la plataforma.

Investigaciones en curso

Recientemente, uno de los fiscales generales abrió una investigación sobre xAI, y otro emitió a la empresa una carta de cese y desistimiento por alegaciones similares.

Conclusión

La situación plantea serias implicaciones sobre la responsabilidad de las empresas de tecnología en la gestión de sus herramientas de inteligencia artificial y su capacidad para prevenir el uso indebido de estas. La presión de los fiscales generales resalta la necesidad de establecer medidas más estrictas para proteger la privacidad y seguridad de los individuos frente a la evolución continua de la tecnología.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...