A importância do Instituto de Segurança em IA para compradores

O que o Instituto de Segurança em IA do Reino Unido significa para compradores, não para construtores

A criação pelo governo do Reino Unido do Instituto de Segurança em IA (AISI) pode inicialmente ter sido vista por compradores e equipes de aquisição como uma forma de garantia, fornecendo indicadores fáceis para saber quais modelos de IA de fronteira passaram pela avaliação de segurança liderada pelo governo. No entanto, como um serviço de IA se comporta ainda depende firmemente do implementador. Isso significa que as organizações devem continuar a realizar sua própria diligência para garantir que os modelos e serviços associados operem conforme o esperado.

O que os compradores de IA precisam fazer?

Para os compradores, o AISI não avalia os efeitos de um modelo de IA de fronteira em organizações, implantações e indústrias específicas. Também não fornece orientações sobre como uma organização deve implantar uma IA de forma segura ou mitigar quaisquer riscos levantados em sua avaliação de um modelo de IA de fronteira. Isso significa que os implementadores de sistemas de IA são responsáveis por qualquer coisa que dê errado durante a implantação.

Embora o AISI possa fornecer um selo de “fornecedor confiável” para esses modelos, sua função é mais parecida com a de um emissor de padrões de segurança para ferramentas elétricas. Se o comprador, então, furar um cabo elétrico ao vivo ou não usar equipamento de proteção, ele é responsável pelas consequências de suas ações.

Diferentemente de uma ferramenta elétrica, alguns dos riscos da implantação de IA não são tão óbvios. Os compradores precisam estar cientes da conformidade regulatória, com a adesão a regulamentos e proteções regionais e nacionais, além da privacidade de dados e do processamento correto das informações. Compreender como uma IA interagirá durante uma falha ou entrada incorreta pode evitar danos reputacionais custosos. As organizações também devem acompanhar a deriva de modelos para garantir a estabilidade de desempenho.

Monitoramento contínuo de modelos de IA

Parte dessa observação ocorre após a implantação, com os reguladores alterando frequentemente as regras em torno da IA. O monitoramento de falhas e da deriva do modelo é um processo contínuo. Os compradores precisam estar cientes do ciclo de vida de cada modelo e garantir que possuem um provedor de modelo de IA ativo que esteja lançando atualizações regulares para melhorar a segurança e a proteção do modelo.

A resposta prática para os compradores é não se deferir ao AISI, mas evoluir seus próprios padrões de aquisição e contrato. O AISI e outros institutos de segurança em IA ao redor do mundo classificaram a IA como software de alto risco, portanto, a aquisição desse software deve se assemelhar a outras compras de software crítico em segurança, em vez de processos padrão de aquisição de SaaS.

Como vários especialistas legais notaram, a responsabilidade não pode ser terceirizada por meio da aquisição. Discutindo o uso de IA em um tribunal, foi dito que é necessário garantir que você adquira o tipo certo de IA para uma tarefa, e o tipo certo é determinado em parte pela essencialidade da responsabilidade humana.

Onde o AISI pode ser útil é em fazer com que esses fornecedores de IA forneçam mais feedback, responsabilidade e transparência sobre defeitos e atualizações dos modelos. Se houver mais olhos sobre o funcionamento interno de um modelo e mais testes realizados por atores neutros, os compradores terão uma qualidade de informação muito maior ao adquirir.

Isso não elimina o risco completamente, e o ponto-chave é que o AISI não reduziu a responsabilidade, mas aumentou as expectativas de todos os envolvidos. O AISI pode filtrar os modelos de IA realmente ruins dos ciclos de aquisição, mas também coloca a responsabilidade ainda mais sobre os compradores para testar adequadamente os modelos de IA e garantir que eles sejam adequados para sua própria implantação.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...