Inovação e Regulação: O Desafio da Inteligência Artificial

Equilibrando Inovação na Era da Regulamentação

À medida que a IA transforma indústrias, equilibrar a inovação com a responsabilidade torna-se crucial. Estruturas de governança e regulações em evolução em todo o mundo são fundamentais para garantir a implantação ética, segura e justa da IA em diversos setores.

Nos últimos anos, foi impossível não notar a explosão de interesse em IA. O ciclo de hype atual foi iniciado com o lançamento do ChatGPT em novembro de 2022, que despertou o interesse da indústria em como a IA poderia ser utilizada para aumentar a produtividade, melhorar a qualidade dos serviços e criar novos modelos de negócios. Dois anos e meio depois, estamos nos afastando da fase de experimentação, à medida que mais empresas começam a implementar soluções de IA e, assim, a obter retorno sobre seus investimentos.

Com a utilização da IA se tornando mais comum, surgem desafios. Sem controle, a IA pode apresentar preconceitos, expressar profanações e alucinações, levando a resultados negativos e prejudiciais. Experiências ruins podem ser evitadas através de barreiras de proteção e outros controles governamentais.

A Importância da Governança da IA

Em muitos casos de IA e aprendizado de máquina, é fundamental entender como o modelo gerou conteúdo ou fez recomendações. Por exemplo, em um contexto de saúde, é essencial que a IA não seja indevidamente influenciada pela raça, gênero ou outras características demográficas ao fazer recomendações para um determinado caminho de cuidado.

A governança da IA é um conjunto de processos que asseguram que a IA seja responsável: segura, ética, protegida e adequada ao propósito. Quando essa governança é utilizada juntamente com a IA, podemos garantir que a IA que utilizamos seja segura e controlada.

Desafios da Regulamentação

Como ocorre frequentemente com novas tecnologias, a regulação governamental da IA – diretrizes e leis que especificam como a IA deve e não deve ser utilizada – não acompanhou seu desenvolvimento e distribuição. Além disso, algumas pessoas influentes acreditam que a regulamentação da IA restringirá sua inovação. Atualmente, algumas jurisdições, como a União Europeia e a China, já possuem regulamentações em vigor, enquanto outras, como os Estados Unidos, ainda não. Neste ano, o presidente Trump revogou a Ordem Executiva de IA de Biden, que delineava a abordagem do governo Biden sobre a regulamentação da IA nos EUA.

Independentemente de as empresas e agências governamentais estarem operando em uma jurisdição regulamentada, geralmente há um impulso para que utilizem a IA de maneira responsável, a fim de evitar difamações, brechas de segurança ou desafios legais que podem surgir devido a consequências não intencionais do uso da IA.

Aumento da Conscientização e Desenvolvimento de Regulamentações

Assim, há uma crescente conscientização sobre os riscos associados ao uso da IA e que esses riscos precisam ser gerenciados. Enquanto as regulamentações de IA esclarecem quais são os riscos e fornecem estruturas para gerenciá-los, é perfeitamente possível utilizar essas estruturas de gerenciamento de riscos em um país não regulamentado, garantindo assim que a IA seja ética e responsável.

Globalmente, muitos países expressaram a intenção de regular a IA, incluindo a Índia e o Reino Unido, e alguns já iniciaram a invocação de legislações. No entanto, há uma abordagem de “esperar para ver” em muitos casos: o desenvolvimento da regulamentação é lento, pois os governos desejam entender qual será a abordagem de suas economias concorrentes.

No início deste mês, o governo dos EUA emitiu diretrizes para agências governamentais, instruindo-as a inovar com a IA, de forma responsável, para melhorar seus serviços: “Através deste memorando, as agências são direcionadas a fornecer serviços aprimorados ao público, enquanto mantêm fortes salvaguardas para os direitos civis, liberdades civis e privacidade.” A abordagem dessas diretrizes para garantir a inovação responsável em IA é semelhante àquelas que fundamentam a Lei de IA da UE: catalogar toda a IA em uso, avaliar os riscos de cada IA e garantir que a IA de maior risco seja gerenciada de acordo com um quadro de governança de IA apropriado.

Conclusão

Portanto, quer a jurisdição seja regulamentada ou não, as diretrizes sobre como garantir que a IA seja responsável estão se tornando cada vez mais claras. O gerenciamento de riscos da IA através de estruturas de governança pode garantir que a IA seja ética, segura, legal e, assim, facilitar a inovação responsável em IA. À medida que continuamos a explorar, experimentar e incorporar a IA na indústria e na sociedade, podemos assegurar a equidade e a justiça na IA enquanto construímos para o futuro.

More Insights

A ruptura dos EUA com a ONU sobre a supervisão global da IA

Oficiais dos EUA rejeitaram um esforço para estabelecer uma estrutura de governança global de IA na Assembleia Geral das Nações Unidas, apesar do apoio de muitas nações, incluindo a China. O diretor...

Riscos e Necessidades de Governança da IA Agentiva para Empresas

As empresas estão cada vez mais adotando sistemas de IA agentiva, mas a proliferação desses sistemas está criando um novo desafio conhecido como "expansão da IA agentiva". Essa situação pode resultar...

ONU busca consenso global para uma IA segura e confiável

As Nações Unidas estão se esforçando para influenciar diretamente a política global sobre inteligência artificial, promovendo padrões de políticas e técnicos em torno de uma IA "segura, protegida e...

Quando Cientistas de Dados Definem Políticas

Recentemente, em uma conversa em Cingapura, os executivos Thomas Roehm e Frankie Phua discutiram como a regulamentação da IA pode evoluir à medida que a tecnologia avança mais rapidamente do que as...