Governança Flexível para Dados Biológicos em Sistemas de IA

Construindo uma governança flexível para dados biológicos que alimentam sistemas de IA

Em um fórum de políticas, discute-se a necessidade de uma governança expandida – porém adaptada e flexível – para os dados biológicos usados no desenvolvimento de poderosos modelos de inteligência artificial (IA).

A importância dos dados biológicos na IA

Os sistemas de IA em rápida evolução, treinados com dados biológicos, permitiram que pesquisadores projetassem novas moléculas, previssem a estrutura e a função de proteínas e explorassem vastos e complexos conjuntos de dados biológicos em busca de novas percepções que poderiam expandir significativamente nossa compreensão da natureza e da saúde humana. No entanto, essas mesmas ferramentas também podem ser mal utilizadas para fins perigosos, como o design de patógenos nocivos ou a geração de sequências genéticas que burlam verificações de segurança.

Desafios da governança atual

Apesar dos riscos amplamente reconhecidos, a governança atual é severamente deficiente, e modelos cada vez mais poderosos são frequentemente lançados sem avaliação de segurança.

Propostas para uma governança eficaz

É discutido como a governança dos dados biológicos poderia ser alcançada para mitigar os riscos potenciais dos sistemas de IA biológica sem prejudicar seu potencial de pesquisa. Assim como os pesquisadores aceitam limites no acesso a informações pessoais em conjuntos de dados genéticos para proteger a privacidade, poderiam ser implementadas estruturas semelhantes que restrinjam apenas uma classe específica de dados de patógenos especialmente sensíveis, enquanto a maioria dos dados científicos permanecesse abertamente disponível.

Controle e flexibilidade

Esses controles direcionados dificultariam a obtenção de conjuntos de dados raros e caros necessários para treinar modelos perigosos, sem prejudicar significativamente a pesquisa legítima, especialmente se acompanhados de ambientes de pesquisa digital seguros.

Supervisão e revisão

É argumentado que essa supervisão deve, no entanto, permanecer limitada, focada e flexível, para que as estruturas de governança possam se adaptar conforme necessário, acompanhando os avanços tecnológicos e científicos. Além disso, para prevenir abusos ou controle burocrático excessivo, a comunidade de pesquisa deve ter a capacidade de contestar classificações de dados, e as agências governamentais devem se comprometer a garantir processos de revisão rápidos e transparentes, de modo que medidas de segurança necessárias não se tornem obstáculos aos processos científicos legítimos.

Conclusão

Formalizar um sistema de acesso a dados permitiria que os pesquisadores examinassem e desenvolvessem esses controles, proporcionando clareza a cientistas e empresas em um ambiente atualmente um tanto imprevisível. Iniciar esse trabalho também permitirá que cientistas e governos aprendam mais sobre a natureza do risco em IA e revisem os controles de acesso a dados à luz de evidências tangíveis, em vez de suposições.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...