DeepSeek adapta IA para o mercado italiano após investigação sobre alucinações

DeepSeek ajusta sua IA para a Itália após investigação sobre alucinações

Uma empresa chinesa de inteligência artificial anunciou que lançará sua primeira versão nacional de chatbot, especificamente adaptada às necessidades italianas, desde que consiga atender às exigências regulatórias. A notícia surge em um momento em que a agência reguladora italiana está se tornando mais rigorosa na regulação da inteligência artificial (IA) para eliminar alucinações.

Regulamentação Rigorosa

A Itália é um dos países mais rigorosos da UE em relação à regulação da IA, como demonstrado por suas frequentes investigações em empresas, resultando em multas, além de medidas contra a pirataria de streaming esportivo. Problemas mais sutis surgem na interpretação do termo “motor de busca”, que antes se referia a plataformas específicas, mas agora inclui chatbots de IA que podem compilar informações de várias fontes, muitas vezes criando narrativas fabricadas.

Compromissos da DeepSeek

A agência reguladora reconheceu que a DeepSeek afirmou que o fenômeno das alucinações em modelos de IA é um desafio global que não pode ser totalmente eliminado. A empresa se comprometeu a reduzir essas alucinações, recebendo elogios por essa iniciativa. No entanto, permanece incerto como isso será mensurado. A empresa organizou uma série de workshops para capacitar sua equipe em conformidade com a legislação italiana.

A DeepSeek deverá apresentar um relatório à agência reguladora para formalizar seus compromissos. A não conformidade pode resultar em uma multa significativa.

Desafios e Implicações

Um porta-voz da empresa observou que as mudanças na interface do usuário e nos termos e condições são relativamente fáceis de implementar, mas as melhorias técnicas são mais difíceis de garantir. As alucinações afetam toda a IA generativa, não apenas a da DeepSeek, e pesquisadores lamentam práticas atuais de treinamento que incentivam palpites em vez de reconhecer incertezas.

A agência reguladora afirma que a DeepSeek precisa ser mais transparente, inteligível e imediata ao divulgar os riscos de alucinações. Esses compromissos também marcam um possível retorno à Itália, após o chatbot da DeepSeek ter sido removido das lojas de aplicativos devido a preocupações sobre o tratamento de dados. O retorno dependerá da satisfação dos reguladores com suas medidas de transparência e da classificação do serviço sob a Lei de Serviços Digitais da UE.

More Insights

A Importância da IA Responsável: Riscos e Soluções

As empresas estão cientes da necessidade de uma IA responsável, mas muitas a tratam como um pensamento secundário ou um fluxo de trabalho separado. Isso pode levar a riscos legais, financeiros e de...

Modelo de Governança de IA que Combate o Shadow IT

As ferramentas de inteligência artificial (IA) estão se espalhando rapidamente pelos locais de trabalho, mudando a forma como as tarefas diárias são realizadas. A adoção da IA está ocorrendo de forma...

Acelerando Inovação com IA Ética

As empresas estão correndo para inovar com inteligência artificial, mas muitas vezes sem as diretrizes adequadas. A conformidade pode se tornar um acelerador da inovação, permitindo que as empresas se...

Riscos Ocultos da IA na Contratação

A inteligência artificial está transformando a forma como os empregadores recrutam e avaliam talentos, mas também introduz riscos legais significativos sob as leis federais de anti-discriminação. A...