A Regulação Responsável da Inteligência Artificial
A inteligência artificial (IA) está evoluindo mais rápido do que qualquer tecnologia na história da humanidade. Embora este avanço traga benefícios, como descobertas científicas e desenvolvimento de medicamentos, também apresenta riscos existenciais que não podem ser ignorados.
Os Riscos da IA
Desenvolvedores de IA, cientistas e organismos internacionais têm alertado sobre o potencial da IA ser utilizada para ciberataques devastadores, produção de armas biológicas e causar danos financeiros significativos a consumidores e empresas. Por exemplo, modelos de IA americanos foram utilizados em vigilância de cidadãos na China e em fraudes originadas no Camboja.
Um relatório internacional identificou um modelo de IA capaz de criar planos para armas biológicas que eram superiores aos gerados por especialistas em 72% das vezes. Essa capacidade de auto-codificação está cada vez mais próxima, com, por exemplo, mais de 25% do novo código do Google já sendo escrito por IA.
A Necessidade de Regulação
Desde 2023, líderes do setor tecnológico têm pedido medidas de regulação. Um grupo de mais de 1.000 profissionais assinou uma carta pedindo uma pausa temporária no avanço da IA, afirmando que os desenvolvedores estão em uma corrida desenfreada para criar sistemas que não podem ser compreendidos ou controlados.
Recentemente, a empresa de IA Anthropic alertou que a janela para prevenção de riscos está se fechando rapidamente e pediu que os governos implementassem regulação até abril de 2026. A legislação federal pode não ser rápida o suficiente para lidar com os riscos, o que torna a ação em nível estadual ainda mais urgente.
O Projeto de Lei RAISE
Em resposta a essa necessidade, foi introduzido o Responsible AI Safety and Education Act (RAISE Act), que estabelece quatro responsabilidades claras para as empresas que desenvolvem modelos de IA:
- Elaborar um plano de segurança.
- Submeter esse plano a auditoria de terceiros.
- Divulgar incidentes críticos de segurança.
- Proteger funcionários ou contratados que sinalizem riscos.
Essas salvaguardas são simples e de bom senso. O RAISE Act se concentra nos riscos mais urgentes que podem causar danos significativos, em vez de tentar abordar cada possível problema levantado pela IA.
Conclusão
Uma legislação inteligente sobre IA deve proteger a sociedade dos riscos enquanto permite que usos benéficos da tecnologia prosperem. O RAISE Act adota uma abordagem flexível, garantindo que as empresas cumpram seus compromissos e criando transparência em como gerenciam riscos severos. Com essas proteções, é possível garantir uma indústria de IA competitiva que atenda às necessidades da sociedade sem comprometer a segurança.