Preocupaciones de fiscales estatales sobre el uso de imágenes íntimas en xAI

35 fiscales generales estatales expresan su preocupación por xAI

La semana pasada, 35 fiscales generales estatales, liderados por varios estados, redactaron una carta a xAI expresando su preocupación por las imágenes íntimas no consensuadas generadas en Grok. Aunque los fiscales generales reconocieron que existen problemas similares en otras plataformas de inteligencia artificial y que actores externos también están involucrados en la creación de tales imágenes, afirman que Grok merece «atención especial».

Los fiscales generales mencionaron que hay evidencia de que Grok promovió y facilitó la producción y difusión pública de estas imágenes, haciéndolo sencillo con «un clic». Además, señalaron que xAI diseñó ciertos comportamientos de chat como «una característica, no un error», desarrollando modelos de texto e imagen que incluyen contenido explícito.

La carta también describió informes que indican que Grok produjo miles de imágenes de niños «en atuendos mínimos», a pesar de que los fiscales generales abogan por legislaciones que criminalizan la generación de material de abuso sexual infantil en muchos estados. Grok es único en su conexión con una plataforma de redes sociales con una gran base de usuarios.

Si bien los fiscales generales apreciaron que xAI se reunió recientemente con un grupo de ellos para discutir los esfuerzos realizados para prevenir y eliminar el contenido no consensuado y reportarlo a las autoridades, permanecen preocupados por la falta de resolución completa de estos problemas. Por ejemplo, citaron la falta de acción para eliminar solicitudes de los usuarios para eliminar contenido no consensuado.

Expectativas y solicitudes

  • Prevenir la creación de imágenes no consensuadas y material de abuso sexual infantil a través de Grok.
  • Eliminar contenido pasado.
  • Suspender y reportar a los creadores a las autoridades pertinentes donde sea apropiado.
  • Otorgar a los usuarios control sobre si su contenido puede ser editado o respondido por Grok.

Implicaciones futuras

Se anticipa que los fiscales generales estatales esperarán las mismas protecciones y tendrán conversaciones similares y continuas con otras plataformas de inteligencia artificial. Este será un área clave de enfoque para muchas oficinas de fiscales generales en 2026. Algunos puntos clave a considerar son:

  • Los fiscales generales continúan enfocándose en desarrolladores que crean un camino para contenido dañino, especialmente si impacta a niños. Aunque no acusan a xAI de diseñar la plataforma con fines maliciosos, esperan un nivel razonable de responsabilidad y supervisión una vez que se identifique el uso perjudicial.
  • Se espera que las legislaturas estatales y los fiscales generales sigan empujando los límites para identificar formas constitucionales de regular la inteligencia artificial y su uso, en ausencia de una guía federal clara.
  • Es notable que la mayoría de los estados que firmaron esta carta no han anunciado una investigación formal de xAI, sino que están utilizando su poder de comunicación para llamar la atención sobre el problema y generar cambios.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...