Investigaciones sobre Plataformas de IA – El Marco de la Ley de Seguridad en Línea
Desde que la Ley de Seguridad en Línea (OSA) entró en vigor hace menos de un año, se han iniciado investigaciones sobre más de 90 plataformas y se han impuesto seis multas por incumplimiento, incluyendo sanciones contra un sitio de nudificación de IA por no tener controles de edad robustos. Este mes, se han abierto dos nuevas investigaciones sobre servicios de IA generativa.
¿Cómo Caen los Chatbots de IA Bajo la Ley de Seguridad en Línea?
A medida que aumenta el uso de la tecnología de chatbots, también lo hace el potencial de daño. Según la OSA, un chatbot que cumpla con las definiciones de un servicio regulado está cubierto por las reglas de la ley. Cualquier contenido generado por IA compartido por usuarios en un servicio de usuario a usuario se clasifica como contenido generado por el usuario y está regulado de la misma manera que el contenido creado por humanos.
Sin embargo, algunos chatbots no están cubiertos por la ley. Los chatbots quedan fuera de la regulación si solo permiten la interacción con el propio chatbot, no buscan en múltiples sitios web o bases de datos al responder, y no pueden generar contenido pornográfico.
La Investigación sobre X y Grok
Se abrió una investigación formal tras informes de que el chatbot Grok estaba siendo utilizado para generar y compartir contenido preocupante, incluyendo imágenes íntimas no consensuadas y material de abuso sexual infantil. La investigación se centra en varios aspectos clave de la OSA, incluyendo la evaluación de riesgos de contenido ilegal, las obligaciones de seguridad respecto al contenido ilegal y la protección de los niños.
Se está examinando si X falló en implementar medidas adecuadas de aseguramiento de edad para prevenir que los niños accedan a contenido prioritario como la pornografía. Se ha confirmado que X ha implementado medidas para prevenir que la cuenta Grok se use para crear imágenes íntimas, pero la investigación sigue en curso.
La Investigación sobre Novi Ltd
En otra investigación, se está examinando a Novi Ltd en relación con su servicio de IA generativa. Esta investigación forma parte de un programa más amplio de cumplimiento sobre medidas de aseguramiento de edad en el sector de contenido para adultos. Se está evaluando si Novi Ltd ha fallado en implementar medidas efectivas de aseguramiento de edad para prevenir que los niños accedan a contenido pornográfico.
Un Punto de Inflexión
El incidente de Grok ha provocado llamados generalizados a la implementación de protecciones legales más fuertes. Muchos sostienen que un cambio fundamental en el enfoque es necesario para prevenir abusos habilitados por IA, actuando más temprano en el diseño de sistemas y en la responsabilidad de las empresas.
Mirando Hacia Adelante
Estas investigaciones demuestran que, por ahora, se está aplicando la OSA con la misma fuerza a los servicios impulsados por IA que a las plataformas tradicionales. Los proveedores de servicios de IA generativa que operan en el país deben asegurarse de que sus evaluaciones de riesgos y sistemas de moderación de contenido cumplan con los estándares requeridos bajo la ley. Sin embargo, a medida que aumentan los llamados a un cambio sistémico, tanto los reguladores como la industria deben estar preparados para la posibilidad de que se requiera una legislación específica para la IA.