Problemas de contenido obsceno en Grok AI: X acepta el error y elimina 600 cuentas; asegura cumplimiento
Un importante problema ha surgido en una plataforma de microblogging, donde se admitió un error por parte de la empresa al eliminar alrededor de 3,500 piezas de contenido y más de 600 cuentas, tras preocupaciones planteadas por el Ministerio de Tecnología de la Información sobre contenido obsceno vinculado a un chatbot de inteligencia artificial. La empresa ha asegurado a las autoridades que cumplirá con las leyes locales.
Acciones tomadas y cumplimiento de las normativas
La acción se produce en medio de una creciente presión sobre el chatbot Grok, ya que los reguladores de todo el mundo intensifican el escrutinio sobre la moderación de contenido y la seguridad de datos. La plataforma ha bloqueado un número significativo de contenido inapropiado y ha declarado que no permitirá más imágenes obscenas en el futuro.
La empresa ha afirmado que cualquier usuario que utilice Grok para crear contenido ilegal enfrentará las mismas consecuencias que si subiera dicho contenido. Esto se alinea con la postura de la empresa sobre el contenido ilegal y su compromiso de trabajar con los gobiernos y la ley para abordar estos problemas.
Reacciones y advertencias de los gobiernos
La plataforma ha sido criticada a nivel global por permitir la «desnudación digital» de imágenes mediante solicitudes de usuarios en el chatbot Grok. Gobiernos de diferentes regiones, incluyendo Europa y Asia, han advertido sobre las consecuencias si la plataforma no se adhiere a las normas de seguridad en línea.
El Ministerio de Tecnología de la Información había instado a la empresa a eliminar inmediatamente todo contenido vulgar y obsceno generado por Grok, bajo la amenaza de acciones legales. Se les solicitó un informe detallado sobre las acciones tomadas para cumplir con las normativas.
Futuro y medidas preventivas
La empresa ha reconocido su error y ha expresado su compromiso de cumplir con las leyes y regulaciones. Además, se le ha indicado que debe hacer cumplir los términos de servicio y las restricciones de uso de inteligencia artificial, incluidas medidas de disuasión como la suspensión y terminación de cuentas infractoras.
El gobierno ha dejado claro que el cumplimiento de la Ley de Tecnología de la Información no es opcional y que cualquier falta en el cumplimiento podría llevar a la pérdida de inmunidad ante responsabilidades legales. Además, se ha pedido a la empresa que elimine o desactive rápidamente cualquier contenido ya generado que infrinja las leyes aplicables.
Conclusión
La situación actual refleja la creciente necesidad de una moderación efectiva del contenido en plataformas de redes sociales, especialmente en el contexto de tecnologías emergentes como la inteligencia artificial. Con la presión de gobiernos y la opinión pública, la empresa deberá implementar medidas más estrictas para asegurar que se cumplan las normativas y proteger a los usuarios de contenido inapropiado.