portuguese
Quais são as principais considerações na abordagem predominante em nível estadual para governar a IA na tomada de decisões consequentes?
Em todos os EUA, os legisladores estaduais estão cada vez mais focados em regulamentar a IA usada em “decisões consequentes” — aquelas que impactam significativamente os meios de subsistência e as oportunidades de vida dos indivíduos. Essa abordagem é projetada para promover justiça, transparência, supervisão e responsabilização, particularmente em áreas tradicionalmente cobertas pelas leis de direitos civis, como educação, moradia, serviços financeiros, saúde e emprego. O cenário regulatório é complexo, mas as principais considerações definem essa abordagem predominante.
Definindo o Escopo
Os legisladores geralmente seguem uma estrutura de cinco partes para definir o escopo dos “sistemas de IA de alto risco” ou “ferramentas automatizadas de tomada de decisão”:
- Definindo IA: A maioria dos estados se alinha com a definição da OCDE: um sistema de IA infere a partir de entradas para gerar saídas como previsões, conteúdo ou decisões que influenciam ambientes físicos ou virtuais.
- Contexto Relevante: A regulamentação se concentra principalmente em setores protegidos pelas leis de direitos civis, onde a IA impacta a educação, o emprego, a moradia, as finanças, os serviços governamentais essenciais, a saúde, os seguros e os serviços jurídicos. Algumas propostas, como a AB 2930 da Califórnia, são mais prescritivas, incluindo serviços essenciais, justiça criminal, serviços de adoção, serviços reprodutivos e votação.
- Impacto e Papel da IA: Esta é a área mais debatida. Os legisladores consideram termos como “facilitar a tomada de decisão” (limiar mais baixo), “fator substancial” (mediana) e “fator de controle” (mais alto). A questão central é equilibrar a amplitude regulatória com a clareza operacional para os inovadores.
- Entidades Regulamentadas: A abordagem normalmente distingue entre desenvolvedores (aqueles que constroem sistemas de IA) e implementadores (aqueles que os usam), atribuindo obrigações específicas de função para transparência, avaliações de risco e governança.
- Exceções Comuns: Muitas vezes, existem exceções para tecnologias específicas (calculadoras, bancos de dados, etc.), setores já regidos por leis existentes, pequenas empresas e atividades de interesse público.
Abordando a Discriminação Algorítmica
Mitigar a discriminação algorítmica contra classes protegidas é um objetivo primordial. A maioria das propostas a define como tratamento diferencial injustificado com base na classe protegida. Algumas estruturas legislativas estabelecem uma proibição geral contra a discriminação algorítmica, enquanto outras estruturas, como em Colorado, criam um dever de cuidado para prevenir a discriminação algorítmica. As interações entre as novas leis e as leis de direitos civis existentes não são claras atualmente, levando à confusão e incerteza. Além disso, existe uma disparidade entre as opiniões dos consumidores e os representantes da indústria, onde os consumidores buscam maior proteção, enquanto as indústrias exigem menos restrições.
Obrigações para Desenvolvedores e Implementadores
Obrigações comuns para desenvolvedores e implementadores giram em torno de:
- Transparência: Isso inclui avisos aos indivíduos sobre o uso de IA, medidas de transparência pública e documentação compartilhada entre desenvolvedores e implementadores.
- Avaliações: Existem diferenças substanciais entre testar sistemas de IA para avaliar aspectos técnicos com base em certas métricas, como precisão e confiabilidade para viés com base em características protegidas, e Avaliações ou avaliações de impacto de IA que avaliam e documentam se e em que medida um sistema de IA representa um risco de discriminação para indivíduos.
- Programas de Governança de IA: Estruturas estruturadas são necessárias para supervisionar e gerenciar o desenvolvimento e a implantação de IA de forma responsável.
Direitos do Consumidor
As estruturas estabelecem direitos para indivíduos impactados por sistemas de IA, incluindo:
- Direito a Aviso e Explicação: Os indivíduos devem ser informados sobre o uso da IA e seu impacto.
- Direito de Correção: Oportunidade de corrigir informações imprecisas usadas na tomada de decisão.
- Direito de Optar por Não Participar ou Apelar: Capacidade de optar por não participar de decisões automatizadas ou apelar para revisão humana.
Execução
A execução é normalmente gerenciada pelo gabinete do Procurador-Geral do estado. As ferramentas regulatórias incluem relatórios afirmativos e produção de documentos, juntamente com mecanismos de execução, como direitos de correção e presunções refutáveis de conformidade. Atualmente, a maioria dos legisladores estaduais hesitou em incluir um direito privado de ação em projetos de lei de IA e privacidade de dados, devido ao potencial ônus legal.
Como as abordagens específicas da tecnologia para regular a IA abordam desafios únicos, considerando exemplos de IA generativa e modelos de fronteira?
Embora muitos estados dos EUA estejam adotando uma abordagem baseada em riscos para a regulamentação da IA, alguns legisladores estão buscando regras específicas da tecnologia. Estas se concentram em riscos únicos associados a certos tipos de IA, nomeadamente a IA generativa e os modelos de fronteira.
IA Generativa: Transparência e Divulgação
As regulamentações para a IA generativa visam principalmente aumentar a transparência. Isso envolve:
- Avisos ao Consumidor: Informar os usuários quando eles interagirem com sistemas de IA generativa. Um bom exemplo disso é a SB 149 de Utah, que exige que as entidades divulguem quando um indivíduo está interagindo com a IA generativa.
- Rotulagem de Conteúdo: Marcar claramente o conteúdo como sintético ou gerado por IA.
- Marca d’água: Implementar marcas d’água para identificar o conteúdo criado por IA.
- Ferramentas de Detecção de IA: Como na SB 942 da Califórnia, fornecer ferramentas para verificar se o conteúdo foi gerado ou modificado por IA.
- Divulgação de Documentação: A AB 2013 da Califórnia exige que os desenvolvedores de IA generativa divulguem publicamente os dados usados para treinar seus sistemas.
Modelos de Fronteira: Segurança e Supervisão
As regulamentações para IA de fronteira ou Modelos de Fundação (grandes modelos de IA que podem ser usados em uma ampla variedade de casos de uso e aplicações, às vezes referidos como “IA de propósito geral”) abordam os riscos decorrentes de sua escala e poder. As principais áreas que estão sendo consideradas incluem:
- Protocolos de Segurança: Exigir que os desenvolvedores tenham protocolos de segurança documentados. Um exemplo vem da legislação proposta na Califórnia em 2024, SB 1047.
- Capacidade de Desligamento: Garantir a capacidade de desligar prontamente os modelos, se necessário. A SB 1047 aprovada pela legislatura é um exemplo disso.
Desafios na Regulamentação de Modelos de Fronteira/Fundação
Regulamentar tais modelos apresenta desafios únicos:
- Complexidade e Escala: As complexidades desses modelos dificultam o estabelecimento de padrões eficazes.
- Poder de Computação como um Limiar: Algumas propostas usam o poder de computação (por exemplo, FLOPs) como uma restrição padrão. Os críticos argumentam que esta medição nem sempre é um indicador de risco fiável. Eles argumentam que há muita concentração em riscos especulativos versus riscos comprovados, como o viés algorítmico.
- Impacto no Código Aberto: Os requisitos impostos aos desenvolvedores podem limitar a disponibilidade e a modificação de modelos de código aberto. Respondendo às preocupações sobre o impacto no código aberto, a SB 1047 da Califórnia recebeu emendas para excluir modelos criados pelo ajuste fino de um modelo coberto, usando menos de dez milhões de dólares em custo de computação.
Quais obrigações e direitos específicos relacionados a sistemas de IA são tipicamente estabelecidos para desenvolvedores, implementadores e consumidores, e como são aplicados?
A legislação estadual sobre IA está cada vez mais focada em definir direitos e obrigações específicos para desenvolvedores, implementadores e consumidores, a fim de garantir justiça, transparência e responsabilidade. Vamos detalhar o que cada papel normalmente implica.
Obrigações para Desenvolvedores
Os desenvolvedores, que constroem sistemas de IA, enfrentam obrigações relacionadas a:
- Transparência e Documentação: Fornecer documentação abrangente sobre a funcionalidade do sistema de IA, finalidade pretendida e riscos potenciais. Isso frequentemente inclui divulgar informações sobre os dados usados para treinar o modelo.
- Avaliação de Risco: Testar sistemas quanto a vieses e vulnerabilidades de discriminação e fornecer essas informações aos implementadores.
- Cuidado Razoável: Em estados com um modelo regulatório de dever de diligência, os desenvolvedores assumem a responsabilidade de “cuidado razoável” para proteger os consumidores da discriminação algorítmica.
Obrigações para Implementadores
Os implementadores, que usam sistemas de IA, são geralmente responsáveis por:
- Transparência e Notificação: Informar os indivíduos quando e como um sistema de IA está sendo usado para tomar decisões consequenciais que os impactam.
- Programas de Governança de IA: Implementar programas estruturados e políticas de gerenciamento de riscos para supervisionar o uso de IA. Esses programas frequentemente exigem especificações com relação à mitigação de riscos e atualizações iterativas.
- Monitoramento Pós-Implementação: Monitorar continuamente os sistemas de IA quanto a vieses, precisão e riscos de discriminação.
- Fornecimento de Direitos Individuais: Honrar os direitos do consumidor (detalhados abaixo), o que frequentemente inclui corrigir informações imprecisas usadas na tomada de decisões.
Direitos do Consumidor
Os consumidores estão recebendo novos direitos sob a legislação de IA proposta:
- Direito à Notificação e Explicação: Receber informações claras e acessíveis sobre o uso de IA em processos de tomada de decisão. Isso inclui entender o propósito do sistema e como ele funciona.
- Direito de Correção: Corrigir dados pessoais errôneos usados pelo sistema de IA, particularmente se uma decisão adversa foi tomada.
- Direito de Apelação ou Exclusão: Algumas legislações preveem o direito de apelar de uma decisão orientada por IA para revisão humana ou de optar por não participar da tomada de decisão automatizada.
Mecanismos de Aplicação
A aplicação é tipicamente tratada pelo Procurador-Geral do estado. Os mecanismos comuns incluem:
- Relatórios Afirmativos: Desenvolvedores divulgando os riscos potenciais associados aos sistemas de IA.
- Produção de Documentos: Exigir que desenvolvedores e implementadores mantenham e produzam documentação.
- Direito de Correção: Dar às organizações a oportunidade de corrigir violações dentro de um prazo específico.
- Presunção Relativa: Fornecer uma “presunção relativa” de conformidade se as empresas cumprirem os requisitos regulamentares.
- Defesa Afirmativa: Fornecer defesas contra ações se os desenvolvedores corrigirem quaisquer violações em 30 dias e estiverem em conformidade com estruturas de gerenciamento de risco reconhecidas.
Vale a pena notar que os legisladores estaduais hesitam em incluir um direito privado de ação na legislação de IA, porque isso poderia potencialmente levar a litígios excessivos.