Ottawa intenta regular los chatbots de IA – y lo está haciendo de la manera equivocada
El Ministro de IA convocó a ejecutivos de OpenAI para discutir la negativa de la empresa a alertar a las autoridades sobre una cuenta relacionada con un tirador. La empresa determinó que la actividad de la cuenta no representaba un «riesgo inminente y creíble de daño físico serio a otros». Tras la reunión, el Ministro expresó su decepción y dijo que el gobierno intervendría si OpenAI no realizaba cambios.
La atención se centró rápidamente en el Proyecto de Ley de Daños en Línea como una solución reguladora. Aunque este proyecto murió el año pasado, se espera que regrese en alguna forma. Sin embargo, el proyecto fue diseñado para evitar que los políticos logren lo que desean de las empresas de IA, ya que excluye expresamente la comunicación privada y el monitoreo proactivo de su alcance.
Análisis de la Regulación Propuesta
Aplicar el Proyecto de Ley de Daños en Línea a los chatbots de IA no solo ampliaría las reglas existentes de seguridad en línea a una nueva tecnología, sino que también requeriría desmantelar las salvaguardias de privacidad fundamentales. Las interacciones con chatbots no implican comunicación entre usuarios ni difusión pública, lo que contrasta con el marco del proyecto de ley, que se centra en la difusión masiva de contenido dañino.
El proyecto refuerza estas limitaciones mediante una salvaguarda de privacidad, excluyendo los mensajes privados de sus deberes. Esto refleja una clara política de regulación de los daños públicos amplificados mientras se deja fuera la comunicación digital interpersonal. Las interacciones con chatbots se asemejan más a mensajería privada que a publicaciones en redes sociales, ya que se producen intercambios uno a uno.
Implicaciones de la Regulación
La actual presión para aplicar el Proyecto de Ley de Daños en Línea a las conversaciones con chatbots podría reabrir preocupaciones sobre la vigilancia que el gobierno intentó evitar anteriormente. Requerir monitoreo activo de las comunicaciones de los usuarios podría resultar en un aumento de la vigilancia de las expresiones legales.
El proyecto fracasó en gran medida porque intentaba abarcar demasiado, y expandirlo para incluir chatbots enfrenta el mismo riesgo. Es necesario regular los chatbots de IA, pero no a través de una expansión del Proyecto de Ley de Daños en Línea. En su lugar, se debe comenzar con una legislación específica centrada en la transparencia y la divulgación de políticas de seguridad para los usuarios.
Conclusión
La regulación de los chatbots de IA es un tema complejo que requiere un enfoque cuidadoso. Las propuestas actuales podrían reintroducir problemas de privacidad y vigilancia que ya habían sido criticados. Por lo tanto, es esencial encontrar un equilibrio que proteja la privacidad de los usuarios mientras se aborda la seguridad en línea de manera efectiva.