DeepSeek ajuste son IA pour l’Italie après une enquête sur les hallucinations

A vintage Italian phonograph playing a record with a distorted, ever-changing melody, while a small, intricate AI circuit board is embedded in the phonograph's horn.

DeepSeek ajuste son IA pour l’Italie après une enquête sur les hallucinations

Une entreprise d’intelligence artificielle a annoncé le lancement de la première version nationale de son chatbot, spécifiquement adaptée aux besoins italiens, sous réserve de respecter les exigences réglementaires. Cette annonce intervient alors que l’autorité de régulation italienne devient plus stricte dans la régulation de l’intelligence artificielle (IA) pour éliminer les hallucinations.

Contexte réglementaire en Italie

L’Italie est l’un des pays les plus stricts de l’UE en matière de régulation de l’IA, comme en témoignent ses enquêtes régulières sur des entreprises, souvent suivies de sanctions. Des problèmes plus subtils émergent, notamment l’interprétation du terme « moteur de recherche », qui englobe désormais les chatbots IA capables d’extraire des informations de plusieurs sources, souvent en créant des narrations fabriquées.

Engagements de DeepSeek

L’entreprise a reconnu que le phénomène des hallucinations des modèles d’IA est un défi mondial qui ne peut être totalement éliminé. Cependant, elle s’est engagée à réduire ces hallucinations, un effort salué par les régulateurs. Bien que les modalités de mesure de cet engagement restent floues, l’entreprise a prévu des ateliers pour former son personnel aux lois italiennes.

DeepSeek doit soumettre un rapport à l’autorité de régulation pour formaliser ses engagements, sous peine d’une amende de 10 millions d’euros en cas de non-conformité.

Défis techniques et implications

Selon un porte-parole, les modifications de l’interface utilisateur et des conditions générales sont relativement faciles à mettre en œuvre, tandis que les améliorations techniques sont plus difficiles à garantir. Les hallucinations touchent toutes les IA génératives, et des chercheurs déplorent les pratiques actuelles de formation qui favorisent les conjectures plutôt que l’acceptation de l’incertitude.

Les régulateurs ont insisté sur la nécessité pour DeepSeek de rendre ses divulgations concernant le risque d’hallucinations plus transparentes et intelligibles.

Conclusion

Ces engagements marquent un potentiel retour en Italie pour DeepSeek, après que son chatbot a été retiré des magasins d’applications l’année dernière en raison de préoccupations relatives à la gestion des données. Ce retour dépendra de la satisfaction des régulateurs concernant les mesures de transparence et de la classification finale du service sous la loi sur les services numériques de l’UE.

Articles

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’EU AI Act et l’avenir des drones

Cet article examine l'impact de la loi sur l'IA de l'UE sur l'utilisation des drones. Il met en lumière les implications réglementaires et les défis auxquels les entreprises doivent faire face dans ce...

L’importance incontournable de l’IA responsable

Les entreprises sont conscientes de la nécessité d'une IA responsable, mais beaucoup la considèrent comme une réflexion après coup. En intégrant des pratiques de données fiables dès le départ, les...

Modèle de gouvernance AI : mettez fin à l’ère du Shadow IT

Les outils d'intelligence artificielle (IA) se répandent rapidement dans les lieux de travail, transformant la façon dont les tâches quotidiennes sont effectuées. Les organisations doivent établir des...

L’UE accorde un délai aux entreprises pour se conformer aux règles de l’IA

L'UE prévoit de retarder l'application des règles à haut risque de la loi sur l'IA jusqu'à fin 2027, afin de donner aux entreprises plus de temps pour se conformer. Les groupes de défense des droits...

Tensions autour des restrictions sur les exportations de puces AI et le GAIN AI Act

La Maison Blanche s'oppose au GAIN AI Act, qui vise à donner la priorité aux entreprises américaines pour l'achat de puces AI avancées avant leur vente à des pays étrangers. Cette mesure met en...

Défis de l’IA : Les experts appellent à des réformes pour l’industrie medtech en Europe

Un panel d'experts a exprimé des inquiétudes concernant la législation récemment adoptée sur l'intelligence artificielle (IA) de l'UE, affirmant qu'elle représente un fardeau significatif pour les...

Innover responsablement grâce à l’IA éthique

Les entreprises cherchent à innover avec l'intelligence artificielle, mais souvent sans les garde-fous nécessaires. En intégrant la conformité et l'éthique dans le développement technologique, elles...

Risques cachés de conformité liés à l’IA dans le recrutement

L'intelligence artificielle transforme la façon dont les employeurs recrutent et évaluent les talents, mais elle introduit également des risques juridiques importants en vertu des lois fédérales sur...