Ottawa sta tentando di regolare i chatbot AI—e lo sta facendo nel modo sbagliato
Il Ministro dell’AI ha convocato i dirigenti di un’importante azienda tecnologica per discutere la questione di un account sospetto associato a un tragico evento. Durante l’incontro, il Ministro ha espresso delusione per la mancanza di nuovi protocolli di sicurezza presentati dall’azienda, sottolineando la necessità di apportare modifiche per evitare l’intervento del governo nella regolamentazione delle aziende di intelligenza artificiale.
Il contesto della questione
La legislazione proposta, nota come Online Harms Act, è stata creata per affrontare i danni online, ma è stata concepita per escludere comunicazioni private e monitoraggio proattivo. L’applicazione di questa legge ai chatbot AI richiederebbe la demolizione di salvaguardie fondamentali sulla privacy, che erano state introdotte in risposta a preoccupazioni precedenti sulla sorveglianza.
Limiti della legislazione esistente
La legge era specificamente progettata per i social media e non per tutti i servizi digitali. Le interazioni con i chatbot non coinvolgono comunicazioni tra utenti o diffusione pubblica. Pertanto, la loro regolamentazione tramite l’Online Harms Act appare inappropriata, poiché gli scambi avvengono in modo privato e non pubblico.
Implicazioni della regolazione proposta
Applicare l’Online Harms Act ai chatbot AI significa ripristinare preoccupazioni di sorveglianza che il governo ha cercato di evitare. Si corre il rischio di confondere contenuti pubblici dannosi con comunicazioni private. Se il monitoraggio proattivo di email e messaggi è protetto da regolamentazioni sulla privacy, lo stesso dovrebbe valere per i chatbot.
Conclusione
La legge Online Harms ha fallito in parte perché cercava di coprire troppi aspetti. Espandere il progetto per includere i chatbot AI non è la soluzione. È necessaria una legislazione specifica che metta l’accento sulla trasparenza e sulla sicurezza degli utenti, garantendo che ci siano politiche chiare e implementabili.