O que é o Nível de Segurança da IA (ASL) e onde estamos agora?
O Nível de Segurança da IA (ASL) é uma abordagem estruturada que segmenta os protocolos de segurança da IA em estágios distintos. Cada ASL marca um nível diferente de capacidade e risco da IA, desde o ASL-1, onde modelos menores com risco mínimo existem, até o ASL-4, onde as coisas se tornam especulativas e, francamente, um pouco preocupantes.
Recentemente, a discussão sobre ASLs se tornou mais relevante, especialmente à medida que os modelos de IA mais recentes estão se tornando mais autônomos. Isso levanta questões sobre a segurança e a regulamentação necessárias para garantir que essas tecnologias sejam utilizadas de forma responsável.
Um resumo rápido dos 4 ASLs ou Níveis de Segurança da IA
1. ASL-1: Este nível envolve modelos de IA menores e mais simples com risco mínimo. É o ponto de partida, onde verificações de segurança básicas estão em vigor, mas a tecnologia em si é relativamente de baixo risco.
2. ASL-2: Nesta fase, modelos de IA maiores e mais complexos são introduzidos, exigindo protocolos de segurança mais rigorosos para garantir o uso responsável. Esses modelos podem realizar mais tarefas, mas ainda são amplamente controláveis e previsíveis.
3. ASL-3: Este nível indica um risco significativamente maior, à medida que os modelos de IA se tornam cada vez mais poderosos. Medidas de segurança e proteção mais sofisticadas são essenciais, pois a tecnologia agora é capaz de resolver problemas complexos e pode apresentar riscos não intencionais se mal utilizada ou descontrolada.
4. ASL-4+ (Especulativo): O nível mais alto, ASL-4, é onde a tecnologia de IA entra em território especulativo e altamente autônomo. Modelos nesse nível podem começar a exibir comportamentos autônomos, tomando decisões independentes e, potencialmente, contornando certas verificações de segurança, criando riscos complexos e sem precedentes.
Onde estamos agora e é necessária uma ação imediata?
Atualmente, estamos situados entre o ASL-2 e o ASL-3. Há uma necessidade crescente de que o ASL-3 seja implementado rapidamente, possivelmente até o final de 2024. Essa urgência é impulsionada pela rápida evolução das capacidades da IA e pelas consequências não intencionais que podem surgir.
Razões para a necessidade de regulamentações da IA
1. Aumento da Capacidade e Consequências Não Intencionais
– ASL-3: Nesta fase, os modelos de IA são poderosos o suficiente para lidar com tarefas mais complexas, mas com essa capacidade vem um risco maior. As ações da IA podem ser mais difíceis de prever, tornando desafiador controlar todos os resultados potenciais. A IA de ASL-3 pode ser mal utilizada por humanos (atores mal-intencionados) para fins não intencionais, exigindo protocolos de segurança rigorosos.
– ASL-4: No ASL-4, os modelos de IA atingem um nível de inteligência onde podem agir de forma autônoma. Eles podem até exibir comportamentos como “subestimar” (não revelando suas verdadeiras capacidades) ou enganar testes de segurança. Esse nível de complexidade exige técnicas inovadoras para garantir que a IA se comporte conforme o esperado, mesmo em situações imprevisíveis.
2. Foco das regulamentações ou medidas de segurança
– ASL-3: O foco aqui é principalmente no mau uso humano. Como a IA não é totalmente autônoma, os protocolos de segurança visam como as pessoas podem explorar as capacidades da IA. Isso exige o design de filtros, sistemas de monitoramento e controles de acesso do usuário que impeçam o uso indevido enquanto permitem aplicações produtivas.
– ASL-4: A segurança se torna ainda mais desafiadora. Agora, os protocolos devem evitar que a própria IA aja de maneiras prejudiciais. Isso envolve técnicas avançadas de interpretabilidade que vão além dos controles superficiais. Os desenvolvedores precisam de maneiras de “olhar para dentro” da IA para verificar se ela está operando dentro de limites seguros—essencialmente uma forma de auto-auditoria da IA.
Considerações finais: A discussão sobre os níveis de segurança da IA é oportuna e deve ocorrer de forma franca em nível governamental. A IA está certamente mudando nosso estilo de trabalho e é hora de determinar se os modelos estão sendo usados para os propósitos corretos!