California estabelece lei pioneira para a segurança da inteligência artificial

California se torna o primeiro estado dos EUA a promulgar uma lei dedicada à segurança de IA

A discussão global sobre a governança da inteligência artificial (IA) entrou em uma nova fase, com a Califórnia se tornando o primeiro estado dos EUA a promulgar uma lei dedicada à segurança de IA.

Lei de Transparência em Inteligência Artificial de Fronteira (TFAIA)

A Transparency in Frontier Artificial Intelligence Act (TFAIA) exige que empresas como Google, Meta e OpenAI, bem como outros desenvolvedores importantes, relatem incidentes de alto risco, divulguem medidas de segurança e protejam os denunciantes. A lei também manda que as empresas publiquem estruturas mostrando como incorporam padrões de segurança e criem um mecanismo para relatar incidentes críticos de segurança às autoridades estaduais.

A colunista Stefanie Schappert observou que a lei da Califórnia pode ser um passo significativo em direção à responsabilidade, mas sem coordenação federal, pode também levar a “mais confusão do que clareza”.

A abordagem da Índia em comparação

À medida que grandes economias correm para estabelecer regulamentações para IA, a abordagem da Índia se destaca por ser contrastante. Este desenvolvimento é um sinal oportuno para a Índia, que ainda não implementou uma estrutura especificamente dedicada à IA.

Os principais objetivos das iniciativas atuais da Índia, como a missão IndiaAI e a proposta do Digital India Act, são o desenvolvimento de infraestrutura e a facilitação da inovação. No entanto, nenhum deles aborda especificamente a responsabilidade dos modelos, o uso ético ou a segurança da IA, áreas que estão sendo definidas nas leis dos EUA e da Europa.

As empresas que utilizam modelos de IA em sistemas públicos vulneráveis, como saúde, finanças e educação, ainda não estão sujeitas a auditorias claras, requisitos de testes ou divulgação.

Desafios e lacunas na regulamentação da IA na Índia

“As estruturas atuais da Índia se concentram em habilitar a IA, não em regulamentá-la”, disse Arjun Goswami, diretor de políticas públicas em um escritório de advocacia. “Sem obrigações de segurança ou responsabilidade vinculativas, há pouca clareza sobre como as empresas devem gerenciar riscos em setores críticos como saúde ou finanças”, acrescentou.

As lacunas principais incluem questões de viés, qualidade de dados e explicabilidade dos modelos. “O maior abismo que enfrentamos é a responsabilidade. Não há clareza sobre quem é responsável se um sistema de IA causar danos, se é o desenvolvedor, o implementador ou o usuário final”, disse Goswami.

Direções divergentes na governança de IA

Países ao redor do mundo estão seguindo direções diferentes. O EU AI Act, que deve ser implementado no próximo ano, adota uma estratégia baseada em risco e impõe os requisitos mais rigorosos sobre sistemas que apresentam riscos significativos. Avaliações de segurança e registros de algoritmos já são obrigatórios na China. Os governos até se reuniram no AI Safety Summit do Reino Unido em 2023 para formular diretrizes uniformes de testes.

A Índia, por outro lado, está focando em uma abordagem setorial e voluntária, permitindo que ministérios ou reguladores específicos publiquem orientações sobre IA dentro de sua esfera de atuação. “Diretrizes éticas voluntárias são um primeiro passo útil”, disse Goswami, “porque incentivam as empresas a incorporar segurança e responsabilidade sem sufocar a inovação. Mas, sem um mandato legal, não há garantia de que sistemas de alto risco serão auditados ou monitorados adequadamente.”

Riscos da supervisão fragmentada

Especialistas alertam que uma supervisão fragmentada pode deixar a Índia vulnerável. “Precisaremos de uma estrutura nacional de governança de IA que alinhe inovação com segurança, especialmente à medida que o uso de IA no setor público se expande”, disse Varun Singh, sócio fundador de um escritório de advocacia.

Ele acrescentou que uma abordagem faseada poderia funcionar melhor. “A Índia poderia começar com a divulgação obrigatória, relatos de incidentes e auditorias para setores de alto risco como saúde, finanças e serviços governamentais. Com o tempo, essas normas podem ser ampliadas, equilibrando inovação com responsabilidade.”

A troca que os governos devem fazer é como exigir transparência sem limitar o crescimento, como demonstrado pelo experimento da Califórnia. A decisão é crucial para a Índia. À medida que a IA é incorporada em programas e serviços governamentais que interagem com os cidadãos, a falta de mecanismos claros de segurança e reparação pode aumentar os riscos antes mesmo de a nação estabelecer salvaguardas necessárias.

“Esperar muito tempo para definir a responsabilidade significa que acabaremos reagindo a crises em vez de preveni-las”, advertiu Singh. “A Índia precisa de uma estrutura modular e em camadas de riscos que imponha transparência, segurança e explicabilidade, ao mesmo tempo em que deixa espaço para inovação e experimentação.”

À medida que a Califórnia estabelece um precedente e outras jurisdições seguem o exemplo, a Índia enfrenta uma janela crítica para estabelecer sua própria abordagem equilibrada, uma que proteja os cidadãos enquanto preserva sua vantagem competitiva na corrida global de IA.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...