Reformas de seguridad para chatbots de IA en el Reino Unido

El Reino Unido añadirá chatbots de IA a las leyes de seguridad tras el escándalo de Grok

El gobierno del Reino Unido anunció que incluirá los chatbots de IA en las leyes de seguridad en línea, cerrando una laguna legal expuesta después de que el chatbot de IA Grok fuera utilizado para crear deepfakes sexualizados.

Responsabilidad de los proveedores de chatbots

Los proveedores de chatbots serán responsables de prevenir la generación de contenido ilegal o dañino, extendiendo las reglas que actualmente solo se aplican al contenido compartido entre usuarios en redes sociales. El primer ministro del Reino Unido afirmó que el gobierno tomará medidas para cerrar esta laguna legal y forzar a todos los proveedores de chatbots de IA a cumplir con las obligaciones sobre contenido ilegal en la Ley de Seguridad en Línea, o enfrentar las consecuencias de violar la ley.

Requisitos de la Ley de Seguridad en Línea

Bajo la Ley de Seguridad en Línea, que entró en vigor en julio, las plataformas que albergan contenido potencialmente dañino deben implementar una verificación de edad estricta a través de herramientas como imágenes faciales o verificaciones de tarjetas de crédito. También es ilegal para los sitios crear imágenes íntimas no consensuadas o material de abuso sexual infantil, incluyendo deepfakes sexuales creados con IA.

Investigación de Ofcom

En enero, el regulador de medios del Reino Unido abrió una investigación sobre la plataforma de redes sociales que alberga a Grok, por no cumplir con sus obligaciones de seguridad. Se ha observado que no todos los chatbots de IA están regulados, incluyendo aquellos que «solo permiten a las personas interactuar con el chatbot mismo y no con otros usuarios».

Implicaciones y riesgos

La rápida evolución de la tecnología ha hecho que la legislación no pueda mantenerse al día, lo que resalta la necesidad de tomar medidas necesarias para regular los chatbots de IA.

Conclusión

La inclusión de chatbots de IA en las leyes de seguridad en línea representa un paso significativo hacia la regulación de la tecnología emergente, asegurando la protección de los usuarios y la prevención de abusos en el espacio digital.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...