Nova Lei de Segurança em IA: O Impacto do RAISE Act em Nova York

Responsabilidade da IA Ganha Destaque com a Aprovação da Lei RAISE em Nova York

A aprovação da Lei RAISE (Responsible AI Safety and Education Act) pela Assembleia Legislativa do Estado de Nova York marca um passo significativo na regulamentação de tecnologias de Inteligência Artificial (IA). Esta legislação exige que as principais empresas de IA generativa publiquem relatórios de segurança e informem os consumidores sobre incidentes de segurança.

Objetivos da Lei RAISE

A Lei RAISE tem como objetivos principais:

  • Publicar relatórios abrangentes sobre a segurança e a segurança de modelos avançados;
  • Relatar incidentes de segurança, como violações por agentes externos ou comportamentos alarmantes dos modelos;
  • Implementar salvaguardas para prevenir riscos;
  • Evitar a implementação de modelos de fronteira que possam causar “um risco injustificável de dano crítico”;
  • Realizar auditorias de terceiros para garantir a conformidade com a lei.

O ato concede ao Procurador Geral do Estado de Nova York a autoridade para impor multas civis de até 30 milhões de dólares contra empresas que violarem a legislação.

Definição de Empresas de IA Generativa

De acordo com a lei, as empresas de IA generativa são definidas como aquelas que gastam mais de 100 milhões de dólares em recursos de computação em nuvem. Essa definição busca focar nas grandes empresas que têm maior capacidade de impactar o mercado e a sociedade com suas tecnologias.

Um Equilíbrio entre Segurança e Inovação

O co-patrocinador da lei, o Senador Andrew Gounardes, afirmou que a legislação foi elaborada para permitir a inovação enquanto mantém salvaguardas essenciais. Ele declarou: “Minha Lei RAISE garante que a IA possa prosperar enquanto exige que as maiores empresas tenham um plano de segurança para que seus produtos não sejam usados para prejudicar as pessoas.”

Essa abordagem é vista como uma salvaguarda razoável, considerando o potencial da IA em criar produtos que possam representar riscos significativos.

Críticas e Desafios

Criticos de legislações semelhantes, como a famosa lei de segurança de IA da Califórnia, que foi vetada em setembro de 2024, argumentam que tais medidas podem prejudicar a inovação ou não levar em conta o contexto, especialmente no que diz respeito à IA generativa de empresas menores em cenários de alto risco.

Nova York e a Transparência nas Demissões Relacionadas à IA

Além da Lei RAISE, Nova York também se tornou o primeiro estado a exigir que as empresas divulguem se as demissões foram causadas por IA. Esta nova exigência visa aumentar a transparência sobre o impacto da tecnologia no emprego e na força de trabalho.

Essas iniciativas refletem uma crescente preocupação com a ética e a segurança na implementação de tecnologias avançadas e a necessidade de regulamentação que garanta a proteção dos cidadãos.

More Insights

Aliança Escocesa de IA Destaca Ética em Inteligência Artificial

A Scottish AI Alliance lançou seu Relatório de Impacto 2024/2025, destacando um ano transformador de progresso na promoção de inteligência artificial confiável, ética e inclusiva na Escócia. O...

Controles de IA de Trump: Oportunidades e Desafios para o Mercado

A administração Trump está se preparando para novas restrições nas exportações de chips de IA para a Malásia e Tailândia, visando impedir que processadores avançados cheguem à China por meio de...

LLMOps: Potencializando IA Responsável com Python

Neste ambiente altamente competitivo, não é suficiente apenas implantar Modelos de Linguagem de Grande Escala (LLMs) — é necessário um robusto framework LLMOps para garantir a confiabilidade e o...

Fortalecendo a Proteção de Dados e a Governança de IA em Cingapura

Cingapura está respondendo proativamente aos desafios evolutivos impostos pelo uso de dados na era da inteligência artificial (IA), afirmou a Ministra de Comunicações e Informação, Josephine Teo. O...

Vigilância por IA e a Lacuna de Governança na Ásia-Pacífico

A tecnologia de vigilância alimentada por IA, especialmente o reconhecimento facial, é um exemplo clássico de tecnologias de uso duplo, promovidas como ferramentas de prevenção ao crime, mas...