Nova Lei de Nova York Exige Protocolos de Segurança para Modelos de IA

Nova Legislação de Segurança da IA em Nova York

O estado de Nova York está prestes a implementar uma das primeiras leis que regulam modelos avançados de inteligência artificial (IA) nos Estados Unidos. O Responsible AI Safety and Education (RAISE) Act, que já passou pelo Senado estadual, aguarda agora a decisão da Governadora Kathy Hochul. Esta legislação visa estabelecer diretrizes rigorosas para a segurança e a responsabilidade no desenvolvimento de tecnologias de IA.

Requisitos da Lei

Se aprovada, a lei exigirá que grandes desenvolvedores de IA, como OpenAI, Google e Anthropic, implementem medidas de segurança rigorosas para minimizar os riscos associados aos chamados modelos de “fronteira”. Esses sistemas poderosos só poderão ser disponibilizados publicamente em Nova York se os desenvolvedores publicarem protocolos de segurança e avaliações de risco. Além disso, a legislação também exigirá a notificação de incidentes graves, como roubo de modelos ou comportamentos perigosos da IA.

As penalidades civis para violações podem chegar a até 30 milhões de dólares.

Foco nas Grandes Empresas de IA

O senador democrata Andrew Gounardes, um dos patrocinadores do projeto, enfatizou que a lei é direcionada apenas a grandes empresas que gastam mais de 100 milhões de dólares em treinamento de modelos. Startups e instituições acadêmicas estarão isentas. O objetivo, conforme Gounardes, é equilibrar a segurança e a inovação, alertando que a janela para estabelecer essas proteções está se fechando rapidamente.

Críticas da Indústria de Tecnologia

Apesar das limitações, a proposta recebeu críticas de figuras do Vale do Silício. O parceiro da Andreessen Horowitz, Anjney Midha, chamou o projeto de “estúpido” em uma plataforma social, alertando que isso poderia colocar os Estados Unidos em desvantagem competitiva. Jack Clark, cofundador da Anthropic, também expressou preocupações sobre o impacto potencial nas empresas menores. Gounardes refutou esses argumentos, enfatizando que o projeto visa deliberadamente apenas os maiores players do setor.

Grandes empresas de tecnologia, como OpenAI, Google e Meta, ainda não comentaram publicamente sobre a proposta. Alguns críticos alertam que as empresas podem optar por não oferecer seus modelos em Nova York. No entanto, Bores considera isso improvável, observando que Nova York é a terceira maior economia dos EUA e se retirar do mercado seria uma decisão economicamente insensata.

Possível Proibição Federal

Recentemente, a Câmara dos Representantes dos EUA aprovou um pacote legislativo que imporia uma proibição de dez anos sobre regulamentações estaduais de IA. Se o chamado projeto de lei “One Big, Beautiful” também passar pelo Senado, leis como o RAISE Act poderiam ser bloqueadas no futuro. Os apoiadores da moratória, incluindo grandes empresas de tecnologia e think tanks de livre mercado, argumentam que regras federais unificadas são necessárias. Por outro lado, críticos alertam que isso poderia prejudicar as proteções ao consumidor e favorecer os interesses da indústria.

Assim, a legislação proposta em Nova York representa um passo significativo na regulação da IA, refletindo as preocupações crescentes sobre a segurança e a responsabilidade no desenvolvimento de tecnologias que têm o potencial de impactar a sociedade de maneiras profundas e duradouras.

More Insights

Aliança Escocesa de IA Destaca Ética em Inteligência Artificial

A Scottish AI Alliance lançou seu Relatório de Impacto 2024/2025, destacando um ano transformador de progresso na promoção de inteligência artificial confiável, ética e inclusiva na Escócia. O...

Controles de IA de Trump: Oportunidades e Desafios para o Mercado

A administração Trump está se preparando para novas restrições nas exportações de chips de IA para a Malásia e Tailândia, visando impedir que processadores avançados cheguem à China por meio de...

LLMOps: Potencializando IA Responsável com Python

Neste ambiente altamente competitivo, não é suficiente apenas implantar Modelos de Linguagem de Grande Escala (LLMs) — é necessário um robusto framework LLMOps para garantir a confiabilidade e o...

Fortalecendo a Proteção de Dados e a Governança de IA em Cingapura

Cingapura está respondendo proativamente aos desafios evolutivos impostos pelo uso de dados na era da inteligência artificial (IA), afirmou a Ministra de Comunicações e Informação, Josephine Teo. O...

Vigilância por IA e a Lacuna de Governança na Ásia-Pacífico

A tecnologia de vigilância alimentada por IA, especialmente o reconhecimento facial, é um exemplo clássico de tecnologias de uso duplo, promovidas como ferramentas de prevenção ao crime, mas...