Investigaciones de Ofcom sobre Plataformas de IA y el Marco de la Ley de Seguridad en Línea

Investigaciones sobre Plataformas de IA – El Marco de la Ley de Seguridad en Línea

Desde que la Ley de Seguridad en Línea (OSA) entró en vigor hace menos de un año, se han iniciado investigaciones sobre más de 90 plataformas y se han impuesto seis multas por incumplimiento, incluyendo sanciones contra un sitio de nudificación de IA por no tener controles de edad robustos. Este mes, se han abierto dos nuevas investigaciones sobre servicios de IA generativa.

¿Cómo Caen los Chatbots de IA Bajo la Ley de Seguridad en Línea?

A medida que aumenta el uso de la tecnología de chatbots, también lo hace el potencial de daño. Según la OSA, un chatbot que cumpla con las definiciones de un servicio regulado está cubierto por las reglas de la ley. Cualquier contenido generado por IA compartido por usuarios en un servicio de usuario a usuario se clasifica como contenido generado por el usuario y está regulado de la misma manera que el contenido creado por humanos.

Sin embargo, algunos chatbots no están cubiertos por la ley. Los chatbots quedan fuera de la regulación si solo permiten la interacción con el propio chatbot, no buscan en múltiples sitios web o bases de datos al responder, y no pueden generar contenido pornográfico.

La Investigación sobre X y Grok

Se abrió una investigación formal tras informes de que el chatbot Grok estaba siendo utilizado para generar y compartir contenido preocupante, incluyendo imágenes íntimas no consensuadas y material de abuso sexual infantil. La investigación se centra en varios aspectos clave de la OSA, incluyendo la evaluación de riesgos de contenido ilegal, las obligaciones de seguridad respecto al contenido ilegal y la protección de los niños.

Se está examinando si X falló en implementar medidas adecuadas de aseguramiento de edad para prevenir que los niños accedan a contenido prioritario como la pornografía. Se ha confirmado que X ha implementado medidas para prevenir que la cuenta Grok se use para crear imágenes íntimas, pero la investigación sigue en curso.

La Investigación sobre Novi Ltd

En otra investigación, se está examinando a Novi Ltd en relación con su servicio de IA generativa. Esta investigación forma parte de un programa más amplio de cumplimiento sobre medidas de aseguramiento de edad en el sector de contenido para adultos. Se está evaluando si Novi Ltd ha fallado en implementar medidas efectivas de aseguramiento de edad para prevenir que los niños accedan a contenido pornográfico.

Un Punto de Inflexión

El incidente de Grok ha provocado llamados generalizados a la implementación de protecciones legales más fuertes. Muchos sostienen que un cambio fundamental en el enfoque es necesario para prevenir abusos habilitados por IA, actuando más temprano en el diseño de sistemas y en la responsabilidad de las empresas.

Mirando Hacia Adelante

Estas investigaciones demuestran que, por ahora, se está aplicando la OSA con la misma fuerza a los servicios impulsados por IA que a las plataformas tradicionales. Los proveedores de servicios de IA generativa que operan en el país deben asegurarse de que sus evaluaciones de riesgos y sistemas de moderación de contenido cumplan con los estándares requeridos bajo la ley. Sin embargo, a medida que aumentan los llamados a un cambio sistémico, tanto los reguladores como la industria deben estar preparados para la posibilidad de que se requiera una legislación específica para la IA.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...