L’Italie inaugure une législation nationale sur l’IA dans l’UE

A lock and key set to symbolize the protection of data and privacy in AI legislation.

Italie : Première loi nationale sur l’IA dans l’UE

Italie est devenue le premier pays de l’Union européenne à adopter une loi nationale régissant l’intelligence artificielle (IA), suite à l’implémentation de la loi sur l’IA à l’échelle du bloc. Désormais, les enfants de moins de 14 ans doivent obtenir le consentement parental pour accéder aux systèmes d’IA.

La protection des enfants face à l’IA est un sujet brûlant parmi les politiciens, après une série d’incidents récents impliquant des chatbots. Par exemple, OpenAI est actuellement poursuivi par les parents d’un adolescent de 16 ans qui s’est suicidé, affirmant que ChatGPT avait renforcé ses pensées sombres et lui avait fourni des informations sur la façon de mettre fin à ses jours.

Sanctions et protections

La nouvelle loi, approuvée par le parlement, introduit des peines de prison allant de un à cinq ans pour l’utilisation abusive de l’IA, comme la diffusion de deepfakes, avec des peines plus sévères pour les crimes tels que le vol d’identité et la fraude commis avec l’IA. De plus, la loi définit plusieurs garanties sectorielles, telles que l’obligation pour les médecins de prendre les décisions finales même lorsqu’ils utilisent l’IA pour aider au diagnostic et au traitement.

Les juges ne peuvent pas déléguer leurs décisions à l’IA, et les employeurs doivent informer les travailleurs lorsque des outils d’IA sont utilisés.

Droits d’auteur et utilisation de l’IA

En ce qui concerne le sujet controversé du droit d’auteur, les œuvres humaines créées avec l’aide de l’IA peuvent être protégées par la loi sur le droit d’auteur si elles montrent un effort intellectuel. Cependant, l’exploration de textes et de données générés par l’IA n’est permise que pour des contenus non protégés par le droit d’auteur ou à des fins de recherche scientifique.

À l’échelle mondiale, les nations et les entreprises technologiques continuent de débattre de la manière de trouver un équilibre entre les droits des artistes, tels que le contrôle sur l’utilisation de leur travail et une juste compensation, et les avantages sociétaux de l’IA formée sur de vastes ensembles de données.

La loi italienne apporte certaines réponses pour les artistes et les développeurs d’IA, mais étant donné que de nombreux modèles fonctionnent à l’international, la législation pourrait également créer de nouvelles couches de confusion.

Investissements dans l’IA

La nouvelle loi autorise jusqu’à 1 milliard d’euros (1,18 milliard de dollars) par le biais d’un fonds de capital-risque soutenu par l’État pour soutenir les entreprises dans les domaines de l’IA, de la cybersécurité, de la technologie quantique et des télécommunications. Son application sera dirigée par l’Agence pour le numérique en Italie et l’Agence nationale de cybersécurité.

Antécédents de l’Italie en matière d’IA

L’Italie a une certaine réputation pour son examen de l’IA. En janvier 2024, l’autorité italienne de protection des données a accusé ChatGPT d’OpenAI de violer le RGPD en traitant des données personnelles sans base légale appropriée, entraînant une suspension temporaire. Avec sa nouvelle loi, l’Italie montre qu’elle ne attend pas l’adoption complète de la loi sur l’IA de l’UE en 2030 pour réglementer l’IA sur son territoire.

Coïncidence ou non, la loi sur l’IA de l’Italie a été autorisée juste un jour après que Mario Draghi, ancien président de la Banque centrale européenne, a suggéré de mettre en pause la loi sur l’IA de l’UE jusqu’à ce que nous comprenions mieux les inconvénients.

En outre, la Commission fédérale du commerce a lancé une enquête approfondie sur les chatbots d’IA, interrogeant sept géants technologiques sur les risques potentiels pour les enfants et les adolescents.

Articles

L’Amérique refuse la gouvernance mondiale de l’IA lors de l’Assemblée générale de l’ONU

Les responsables américains ont rejeté une proposition visant à établir un cadre de gouvernance mondial de l'IA lors de l'Assemblée générale des Nations Unies, malgré le soutien de nombreux pays, y...

Risques et enjeux de la prolifération de l’IA agentique pour les entreprises

Dans un monde en évolution rapide de l'intelligence artificielle, les entreprises adoptent de plus en plus des systèmes d'IA agentique, mais cela entraîne un nouveau défi : l'expansion incontrôlée de...

Biais cachés dans les intelligences artificielles : un danger pour la démocratie

Le rôle croissant des modèles de langage (LLM) comme gardiens d'opinion suscite des inquiétudes quant aux biais cachés qui pourraient fausser le discours public et compromettre les processus...

L’ère de la responsabilité : la régulation de l’IA en pleine ascension

Le monde en pleine expansion de l'intelligence artificielle (IA) est à un tournant critique, alors qu'une vague d'actions réglementaires souligne un virage mondial vers la responsabilité et le...

Choisir les outils de gouvernance AI adaptés aux entreprises

Alors que l'adoption de l'IA générative s'accélère, les risques associés deviennent de plus en plus préoccupants. Cet article explore comment les outils de gouvernance de l'IA peuvent aider à gérer...

L’ONU s’engage pour une intelligence artificielle sécurisée et digne de confiance

Les Nations Unies cherchent à influencer directement la politique mondiale sur l'intelligence artificielle, en promouvant des normes politiques et techniques autour d'une IA « sûre, sécurisée et digne...

L’essor de la gouvernance de l’IA : quand les données façonnent les politiques

Récemment, lors d'une audience captivée à Singapour, deux hommes ont discuté d'un sujet pouvant redéfinir la réglementation de l'IA. Leur conversation a mis en lumière le projet MindForge, une...

Préparez-vous aux nouvelles régulations de l’IA pour les PME

Les PME doivent se préparer aux nouvelles réglementations de l'UE sur l'IA, qui entrent en vigueur en 2026, en intégrant des systèmes d'IA de manière conforme dès le départ. En adoptant des...

Nouvelles obligations de déclaration pour les systèmes d’IA à haut risque en Europe

La Commission européenne a publié des lignes directrices provisoires sur les exigences de déclaration des incidents graves pour les systèmes d'IA à haut risque dans le cadre de la loi sur l'IA de...