Coluna de Convidados: A IA precisa de regulamentação, a indústria deve liderar o caminho
Prezados executivos, membros do conselho e associações do setor que moldam a direção do desenvolvimento da IA: a era de estruturas de segurança vagas passou; a era de padrões aplicáveis deve começar.
As famílias da comunidade envolvida merecem mais do que uma reunião e declarações de imprensa expressando preocupação. Elas merecem saber que as empresas que operam plataformas e tecnologias de IA se comprometeram — publicamente e com consequências aplicáveis — a padrões que evitarão que a mesma falha ocorra novamente.
Deixe-me ser claro: muitas preocupações sobre os impactos negativos da IA são exageradas e não factuais. O valor de longo prazo que a IA traz para a sociedade supera substancialmente os riscos, desde que esses riscos sejam gerenciados. Graças ao seu poder e alcance, essa tecnologia trará um valor que muitos não conseguem imaginar neste momento da história humana.
É precisamente por isso que esforços sérios devem ser feitos para controlar e regular a IA — o que, por definição, aborda as empresas por trás das tecnologias de IA. O governo federal está certo em exigir mudanças que aumentem a segurança para todos.
No entanto, essas regras e regulamentações não devem vir do governo. As empresas que projetam esses sistemas compreendem melhor do que qualquer regulador. Elas estão em melhor posição para criar salvaguardas multilaterais que vão muito além de simples filtros, sem atrasar ainda mais o progresso tecnológico feito nos últimos anos.
Isso inclui definir os limites técnicos para o que constitui uma ameaça credível de violência, estabelecer protocolos de escalonamento que sejam operacionalmente sólidos e respeitem a privacidade, e determinar os pontos exatos onde a detecção automatizada deve passar para a revisão obrigatória por humanos. Investindo nessas salvaguardas sistêmicas, as empresas podem garantir que a segurança seja uma característica arquitetônica da tecnologia, não um pensamento posterior.
Além disso, faz sentido comercial. Empresas que operam em vazios regulatórios convidam a legislação reativa que tende a surgir após tragédias. Elas também convidam à exposição de responsabilidade, danos à reputação e erosão da confiança pública, que é, em última análise, a base sobre a qual seus produtos dependem.
A forma como uma empresa lidou com uma situação crítica gerou exatamente o tipo de escrutínio que nenhuma empresa que busca expandir sua presença deve permitir.
Além disso, isso cria consequências negativas para toda a indústria e, contra-intuitivamente, para a segurança da sociedade. Quando reagimos a uma crise com legislação reativa, muitas vezes priorizamos a ação em vez de resolver problemas. Decisões apressadas que desconsideram nuances técnicas não apenas sufocam nosso setor mais transformador; elas criam uma falsa sensação de segurança enquanto deixam brechas complexas amplas abertas.
Código de Conduta para Segurança em IA
Um código de conduta sério, projetado pela indústria para a segurança em IA — que tenha força genuína ao invés de servir como um documento de relações públicas — deve abordar várias questões centrais.
Deve fornecer padrões para toda a indústria para remover ambiguidades e definir salvaguardas claras e multilaterais. Além disso, estruturas de reporte claras e rigorosas são essenciais. Na prática, isso significa que, se um sistema automatizado sinalizar conteúdo, humanos devem intervir e revisar o conteúdo detectado de acordo com critérios consistentes. A violação disso deve levar a investigações sérias que resultem em desfechos transparentes e impactantes.
Por fim, qualquer estrutura deve ser estabelecida em genuína coordenação transfronteiriça. A internet não reconhece fronteiras nacionais. Uma estrutura apenas canadense será incompleta enquanto plataformas de IA importantes estiverem sediadas e governadas em outros locais. Isso pode ser o passo mais difícil, mas o país tem sinalizado repetidamente seu desejo de liderar.
Buscar essas mudanças significativas e requisitos de segurança requer um nível de cooperação que, historicamente, apenas eventos trágicos podem inspirar. Vamos responder a essa tragédia com a velocidade adequada — mas também com seriedade e honestidade intelectual.
A questão não é se as empresas de IA têm a responsabilidade exclusiva pelo que aconteceu. Elas não têm. A questão é se a indústria possui padrões adequados, vinculativos e aplicados de forma consistente para lidar com evidências credíveis de violência planejada. A resposta é não.
O setor privado tem aqui uma oportunidade que seria imprudente desperdiçar: demonstrar que a inovação tecnológica e a segurança pública não são valores concorrentes, e que a indústria é capaz de se governar com a seriedade que este momento exige. Se a indústria não aproveitar essa oportunidade, os governos agirão — e o farão em um cronograma e de uma maneira sobre a qual o setor tecnológico terá muito menos influência e que limitariam a capacidade da sociedade de se beneficiar do valor trazido por essa tecnologia transformadora.
É hora de liderar ou ser liderado. A escolha é nossa.