Equilibrando Inovação na Era da Regulamentação
À medida que a IA transforma indústrias, equilibrar a inovação com a responsabilidade torna-se crucial. Estruturas de governança e regulações em evolução em todo o mundo são fundamentais para garantir a implantação ética, segura e justa da IA em diversos setores.
Nos últimos anos, foi impossível não notar a explosão de interesse em IA. O ciclo de hype atual foi iniciado com o lançamento do ChatGPT em novembro de 2022, que despertou o interesse da indústria em como a IA poderia ser utilizada para aumentar a produtividade, melhorar a qualidade dos serviços e criar novos modelos de negócios. Dois anos e meio depois, estamos nos afastando da fase de experimentação, à medida que mais empresas começam a implementar soluções de IA e, assim, a obter retorno sobre seus investimentos.
Com a utilização da IA se tornando mais comum, surgem desafios. Sem controle, a IA pode apresentar preconceitos, expressar profanações e alucinações, levando a resultados negativos e prejudiciais. Experiências ruins podem ser evitadas através de barreiras de proteção e outros controles governamentais.
A Importância da Governança da IA
Em muitos casos de IA e aprendizado de máquina, é fundamental entender como o modelo gerou conteúdo ou fez recomendações. Por exemplo, em um contexto de saúde, é essencial que a IA não seja indevidamente influenciada pela raça, gênero ou outras características demográficas ao fazer recomendações para um determinado caminho de cuidado.
A governança da IA é um conjunto de processos que asseguram que a IA seja responsável: segura, ética, protegida e adequada ao propósito. Quando essa governança é utilizada juntamente com a IA, podemos garantir que a IA que utilizamos seja segura e controlada.
Desafios da Regulamentação
Como ocorre frequentemente com novas tecnologias, a regulação governamental da IA – diretrizes e leis que especificam como a IA deve e não deve ser utilizada – não acompanhou seu desenvolvimento e distribuição. Além disso, algumas pessoas influentes acreditam que a regulamentação da IA restringirá sua inovação. Atualmente, algumas jurisdições, como a União Europeia e a China, já possuem regulamentações em vigor, enquanto outras, como os Estados Unidos, ainda não. Neste ano, o presidente Trump revogou a Ordem Executiva de IA de Biden, que delineava a abordagem do governo Biden sobre a regulamentação da IA nos EUA.
Independentemente de as empresas e agências governamentais estarem operando em uma jurisdição regulamentada, geralmente há um impulso para que utilizem a IA de maneira responsável, a fim de evitar difamações, brechas de segurança ou desafios legais que podem surgir devido a consequências não intencionais do uso da IA.
Aumento da Conscientização e Desenvolvimento de Regulamentações
Assim, há uma crescente conscientização sobre os riscos associados ao uso da IA e que esses riscos precisam ser gerenciados. Enquanto as regulamentações de IA esclarecem quais são os riscos e fornecem estruturas para gerenciá-los, é perfeitamente possível utilizar essas estruturas de gerenciamento de riscos em um país não regulamentado, garantindo assim que a IA seja ética e responsável.
Globalmente, muitos países expressaram a intenção de regular a IA, incluindo a Índia e o Reino Unido, e alguns já iniciaram a invocação de legislações. No entanto, há uma abordagem de “esperar para ver” em muitos casos: o desenvolvimento da regulamentação é lento, pois os governos desejam entender qual será a abordagem de suas economias concorrentes.
No início deste mês, o governo dos EUA emitiu diretrizes para agências governamentais, instruindo-as a inovar com a IA, de forma responsável, para melhorar seus serviços: “Através deste memorando, as agências são direcionadas a fornecer serviços aprimorados ao público, enquanto mantêm fortes salvaguardas para os direitos civis, liberdades civis e privacidade.” A abordagem dessas diretrizes para garantir a inovação responsável em IA é semelhante àquelas que fundamentam a Lei de IA da UE: catalogar toda a IA em uso, avaliar os riscos de cada IA e garantir que a IA de maior risco seja gerenciada de acordo com um quadro de governança de IA apropriado.
Conclusão
Portanto, quer a jurisdição seja regulamentada ou não, as diretrizes sobre como garantir que a IA seja responsável estão se tornando cada vez mais claras. O gerenciamento de riscos da IA através de estruturas de governança pode garantir que a IA seja ética, segura, legal e, assim, facilitar a inovação responsável em IA. À medida que continuamos a explorar, experimentar e incorporar a IA na indústria e na sociedade, podemos assegurar a equidade e a justiça na IA enquanto construímos para o futuro.