As leis de IA da Flórida são mais fortes do que você pensa
Com a Sessão Legislativa de 2026 na Flórida se aproximando, a inteligência artificial deve ser um foco importante entre os formuladores de políticas. Impulsionada pelos apelos do governador por uma maior regulamentação, a legislatura já apresentou pelo menos 32 projetos de lei que vão desde a adoção da nova tecnologia até a proibição dela. No entanto, antes que os legisladores avaliem essas propostas, eles deveriam revisar as proteções que a Flórida já implementou.
Início da discussão
A Câmara começou a abordar o assunto durante sua inaugural Semana da IA, reunindo várias agências, indústrias e profissionais para discutir como estão lidando com a tecnologia emergente. Ao considerar novas propostas de IA, os legisladores devem seguir o conselho de um alto funcionário que alertou o estado a “definir o mínimo, não o máximo”.
Base de responsabilidade
Nos últimos anos, a Flórida estabeleceu uma forte base de responsabilidade para a IA, em alguns casos sem sequer tentar. Aqueles que testemunharam diante das comissões da Câmara notaram repetidamente que o quadro legal existente da Flórida já aborda muitas das preocupações que as pessoas têm sobre a IA. Isso ocorre em grande parte porque as leis preexistentes tendem a ser neutras em relação ao processo, fornecendo penalidades para resultados prejudiciais, independentemente da ferramenta ou tecnologia utilizada.
Se a tecnologia for um chatbot, gerador de imagens ou ferramenta de diagnóstico, os mesmos princípios de responsabilidade se aplicam.
Proteções existentes
Considere as proteções do estado contra o uso comercial não autorizado da imagem de alguém. Em 1967, muito antes da IA generativa ser conceitualizada, os legisladores estabeleceram penalidades para lucrar com a identidade de uma pessoa sem consentimento. Embora alguns temam que a mídia gerada por IA possa evadir essas restrições, o estatuto original se concentra na transgressão e não no método. O lucro não autorizado permanece ilegal, seja a imagem capturada por uma câmera ou gerada por um algoritmo.
Os mesmos princípios de responsabilidade se aplicam em práticas profissionais licenciadas. Advogados que citam casos gerados por IA já enfrentam ações disciplinares sob regras éticas de longa data que antecedem a tecnologia. Da mesma forma, os provedores de saúde confirmaram que os médicos permanecem totalmente responsáveis por qualquer diagnóstico ou documentação incorreta auxiliada por IA sob os padrões de negligência existentes. Portanto, os médicos têm razões fortes para verificar ativamente as saídas da IA em vez de se deferir a elas sem escrutínio.
Fechando lacunas regulatórias
Onde lacunas regulatórias surgiram, a legislatura agiu para fechá-las. Desde 2022, a legislatura reafirmou que promover intencionalmente uma representação sexual alterada de alguém sem seu consentimento é ilegal, mais recentemente com a aprovação de uma nova lei. Em 2024, a legislatura impôs requisitos para anúncios políticos que incluem uma divulgação de transparência quando o conteúdo é criado usando IA. Esses esforços estendem a mesma lógica neutra em relação ao processo a novos contextos, mantendo o foco no dano em si, em vez da tecnologia usada para cometê-lo.
Modelo para abordagem de tecnologias novas
A Semana da IA ofereceu à Flórida um modelo para abordar tecnologias novas. Os legisladores ouviram diretamente das agências, indústrias e profissionais que trabalham com essas ferramentas todos os dias. Esse tipo de deliberação informada é exatamente o que uma boa formulação de políticas deve ser. A Flórida adotou essa abordagem sem perceber. Através de décadas de leis neutras em relação ao processo, a Flórida construiu uma forte base de proteção ao consumidor, enquanto a legislação recente preencheu lacunas onde necessário.
Conclusão
Na próxima sessão, os legisladores têm a oportunidade de construir sobre essa base, em vez de abandoná-la. O mínimo já está estabelecido. O que resta é decidir se confiarão nele.