O que o Instituto de Segurança em IA do Reino Unido significa para compradores, não para construtores
A criação pelo governo do Reino Unido do Instituto de Segurança em IA (AISI) pode inicialmente ter sido vista por compradores e equipes de aquisição como uma forma de garantia, fornecendo indicadores fáceis para saber quais modelos de IA de fronteira passaram pela avaliação de segurança liderada pelo governo. No entanto, como um serviço de IA se comporta ainda depende firmemente do implementador. Isso significa que as organizações devem continuar a realizar sua própria diligência para garantir que os modelos e serviços associados operem conforme o esperado.
O que os compradores de IA precisam fazer?
Para os compradores, o AISI não avalia os efeitos de um modelo de IA de fronteira em organizações, implantações e indústrias específicas. Também não fornece orientações sobre como uma organização deve implantar uma IA de forma segura ou mitigar quaisquer riscos levantados em sua avaliação de um modelo de IA de fronteira. Isso significa que os implementadores de sistemas de IA são responsáveis por qualquer coisa que dê errado durante a implantação.
Embora o AISI possa fornecer um selo de “fornecedor confiável” para esses modelos, sua função é mais parecida com a de um emissor de padrões de segurança para ferramentas elétricas. Se o comprador, então, furar um cabo elétrico ao vivo ou não usar equipamento de proteção, ele é responsável pelas consequências de suas ações.
Diferentemente de uma ferramenta elétrica, alguns dos riscos da implantação de IA não são tão óbvios. Os compradores precisam estar cientes da conformidade regulatória, com a adesão a regulamentos e proteções regionais e nacionais, além da privacidade de dados e do processamento correto das informações. Compreender como uma IA interagirá durante uma falha ou entrada incorreta pode evitar danos reputacionais custosos. As organizações também devem acompanhar a deriva de modelos para garantir a estabilidade de desempenho.
Monitoramento contínuo de modelos de IA
Parte dessa observação ocorre após a implantação, com os reguladores alterando frequentemente as regras em torno da IA. O monitoramento de falhas e da deriva do modelo é um processo contínuo. Os compradores precisam estar cientes do ciclo de vida de cada modelo e garantir que possuem um provedor de modelo de IA ativo que esteja lançando atualizações regulares para melhorar a segurança e a proteção do modelo.
A resposta prática para os compradores é não se deferir ao AISI, mas evoluir seus próprios padrões de aquisição e contrato. O AISI e outros institutos de segurança em IA ao redor do mundo classificaram a IA como software de alto risco, portanto, a aquisição desse software deve se assemelhar a outras compras de software crítico em segurança, em vez de processos padrão de aquisição de SaaS.
Como vários especialistas legais notaram, a responsabilidade não pode ser terceirizada por meio da aquisição. Discutindo o uso de IA em um tribunal, foi dito que é necessário garantir que você adquira o tipo certo de IA para uma tarefa, e o tipo certo é determinado em parte pela essencialidade da responsabilidade humana.
Onde o AISI pode ser útil é em fazer com que esses fornecedores de IA forneçam mais feedback, responsabilidade e transparência sobre defeitos e atualizações dos modelos. Se houver mais olhos sobre o funcionamento interno de um modelo e mais testes realizados por atores neutros, os compradores terão uma qualidade de informação muito maior ao adquirir.
Isso não elimina o risco completamente, e o ponto-chave é que o AISI não reduziu a responsabilidade, mas aumentou as expectativas de todos os envolvidos. O AISI pode filtrar os modelos de IA realmente ruins dos ciclos de aquisição, mas também coloca a responsabilidade ainda mais sobre os compradores para testar adequadamente os modelos de IA e garantir que eles sejam adequados para sua própria implantação.