Novas regulamentações de IA para decisões ‘de alto risco’
À medida que a inteligência artificial se torna mais comum nos setores público e privado para tomar decisões importantes, os legisladores estaduais em Nova York estão buscando estabelecer novas diretrizes para essas ferramentas. O assunto foi discutido em uma audiência realizada recentemente, onde partes interessadas de sindicatos e da indústria de tecnologia apresentaram seus argumentos.
Preocupações com a discriminação
Nos últimos anos, houve um aumento nos relatos do uso dessas ferramentas em contextos de alto risco. Quando não funcionam como esperado, podem surgir danos reais. Um dos principais riscos é a possibilidade de que essas ferramentas sejam programadas de forma a levar a discriminação não intencional em áreas como emprego, habitação e saúde.
Além disso, a utilização de IA já está impactando a força de trabalho. Por exemplo, em centros de atendimento, a IA é utilizada para monitorar e dar feedback sobre o fluxo de chamadas, transcrever e resumir chamadas, gerenciar chatbots e recrutar. Em hospitais, essas ferramentas são empregadas para fazer diagnósticos e determinar a cobertura de serviços pelos planos de saúde.
O impacto na administração pública
Na administração pública, um sistema de IA foi treinado para tomar decisões com base em dados de uma década atrás, o que levanta preocupações sobre o uso de fatores que podem servir como proxies para raça e status socioeconômico. Esse algoritmo, segundo algumas fontes, não empodera os trabalhadores sociais, mas sim mina sua expertise profissional ao utilizar um sistema tendencioso.
O projeto de lei de IA de Nova York
Para abordar essas questões, um projeto de lei foi proposto, que exigiria que os desenvolvedores de ferramentas de IA e as entidades que buscam utilizá-las em decisões importantes tomassem cuidados razoáveis para prevenir a discriminação algorítmica. Isso se aplicaria a casos de uso considerados de alto risco, como decisões sobre emprego e saúde.
O projeto de lei também estipularia que as empresas devem notificar os usuários quando uma ferramenta de decisão automatizada estiver em uso e permitir que optem por uma análise humana em vez disso.
Reações da indústria de tecnologia
Representantes da indústria de tecnologia se opuseram ao projeto de lei, alegando que ele criaria um ônus regulatório, sufocaria a inovação e impediria pequenas empresas e organizações sem fins lucrativos de utilizar essas ferramentas devido aos custos envolvidos na manutenção.
Em vez de legislações estaduais, alguns representantes sugeriram que o governo federal deveria criar uma estrutura nacional para a regulamentação da IA, uma questão que ainda não foi considerada pelo Congresso.
Outras propostas legislativas
Outros projetos de lei em consideração incluem o BOT Act, que regularia como os empregadores monitoram os trabalhadores usando IA, e o Fair News Act, que estabeleceria regras sobre como a IA é utilizada em organizações de mídia. Os legisladores têm até o início de junho para considerar essas medidas.