Estrutura Legal Proposta para Agentes de IA Seguros e Responsáveis
Com o avanço da tecnologia de IA, a capacidade de autonomia dos sistemas de IA tem aumentado consideravelmente. Esses sistemas são capazes de tomar decisões independentes, frequentemente com supervisão humana mínima ou inexistente. Exemplos incluem carros autônomos e robôs humanoides. Esses sistemas de IA agentiva apresentam novos desafios éticos e legais que vão além da responsabilidade tradicional de software.
No entanto, a tecnologia de IA atual é baseada em redes neurais, que são sistemas de caixa-preta. As redes neurais mais avançadas, especialmente para modelos GenAI, contêm bilhões de parâmetros. Apesar dos melhores esforços dos pesquisadores, o funcionamento interno dessas redes ainda não é totalmente compreendido. Essas redes frequentemente produzem resultados inesperados e indesejados.
Com o aumento da autonomia, os riscos e impactos do fracasso dos sistemas de IA se multiplicam enormemente. Como resultado, muito poucas empresas e organizações estão implementando agentes de IA em seus processos de negócios principais. Além disso, a adoção de agentes de IA para tarefas de alto impacto, como direção autônoma e diagnóstico médico, permanece baixa, apesar da maturação dessas tecnologias.
A peça fundamental que falta é a falta de regulamentações e estruturas legais para a responsabilidade e responsabilidade dos agentes de IA quando as coisas dão errado. Isso resulta em falta de transparência e clareza, impedindo o progresso da humanidade em direção a uma sociedade capacitada por IA, da qual mais pessoas podem se beneficiar.
O Princípio Central
O princípio central deste artigo é registrar e regular agentes e sistemas de IA como uma entidade comercial. Este conceito legal é conhecido como Personalidade Jurídica Corporativa. Na maioria dos países, uma corporação possui os mesmos direitos que uma pessoa natural para possuir bens, celebrar contratos e processar ou ser processada.
Para agentes/sistemas de IA, os direitos de posse de bens não são críticos para suas funções principais. Em vez disso, os direitos de celebrar contratos e processar ou ser processado formarão a base para o desenvolvimento e implantação responsável e bem considerado de agentes de IA. No quadro legal atual, um agente/sistema de IA não pode ser considerado legalmente responsável por qualquer perda ou danos que causar. Por outro lado, ele não possui direitos legais para se proteger contra uso indevido e uso não intencional, pois não está protegido pelas leis contratuais.
Recomendações para Regulamentação
- Agentes/sistemas de IA de alto impacto devem ser registrados pelas autoridades relevantes antes da implantação.
- Dependendo dos piores cenários potenciais, o agente/sistema de IA registrado deve ser coberto por capital social adequado e suficiente e/ou seguro para quaisquer responsabilidades ou danos causados por suas ações e atividades.
- PARA MAIORES CONSIDERAÇÕES E DELIBERAÇÕES. Em casos de responsabilidades criminais, os principais tomadores de decisão dos agentes/sistemas de IA serão processados de acordo com as leis aplicáveis. Isso é semelhante às responsabilidades do CEO/COO/CFO em uma empresa/organização registrada.
Essa proposta busca promover um ambiente onde a inovação em IA possa prosperar, enquanto se garante a segurança e a responsabilidade das tecnologias emergentes.