Coexister avec l’intelligence artificielle : enjeux et régulations

A lightbulb surrounded by gears

L’Acte sur l’IA de l’UE – Réguler l’Invisible : Apprendre à Coexister avec l’Intelligence Artificielle

Les deux dernières années ont été très passionnantes ; nous avons consacré ce temps non seulement à discuter des possibilités de l’intelligence artificielle (IA), mais aussi à aborder ses véritables dangers et à identifier des moyens de les gérer. Est-ce que deux ans est un long terme ? Il est difficile de le dire, mais à mon avis, nous avons réagi de manière surprenante à ces défis : l’UE a été la première au monde à développer une loi réglementaire sur l’IA basée sur le risque. L’Acte sur l’Intelligence Artificielle de l’Union Européenne est entré en vigueur le 1er août 2024, et dans ce cadre, la première et la plus importante réglementation interdisant l’utilisation de systèmes posant des risques inacceptables est entrée en vigueur le 2 février dernier.

Il y a eu des tentatives précédentes pour contrôler l’IA. Les lignes directrices éthiques de l’UE pour l’intelligence artificielle sont en place depuis 2019. Ces directives fournissaient principalement des orientations pour les entreprises développant des technologies d’IA afin de garantir que leur développement et leur application restent sûrs, éthiques et fiables. En d’autres termes, nous avons essayé de définir un code éthique pour l’IA. C’était une bonne étape, mais à mon avis, elle ne se concentrait pas sur l’essentiel, car elle tentait de confiner la technologie dans des limites éthiques et morales. Le mot « éthique » – qui est un mot grec – fait référence à un comportement humain approprié dans des situations données, nous avons donc essayé d’attribuer des traits humains à la technologie – une mission impossible.

Ce n’est pas l’éthique de l’IA qui doit être repensée, mais notre propre éthique humaine et notre moralité, en tenant compte de l’existence de l’IA.

La mission de la loi est de sensibiliser le public à l’intelligence artificielle et de favoriser une sorte de « conscience numérique ». Nous devons toujours être conscients des risques que nous prenons en utilisant des services ou des produits utilisant l’IA. Cette compréhension nous aide à donner un sens aux opportunités et aux risques associés à l’IA. L’objectif n’est pas de façonner la technologie selon nos besoins, mais d’établir des règles encourageant une utilisation consciente et basée sur les risques. L’objectif est de protéger la société des dangers potentiels de l’IA.

Nous ne devrions pas craindre l’IA – ce n’est pas Skynet – mais les personnes qui ont l’intention de l’utiliser de manière abusive.

Un Cadre Réglementaire pour l’Avenir

L’Acte sur l’IA de l’UE répond non seulement aux circonstances actuelles, mais fournit également un cadre réglementaire à l’épreuve du temps capable de s’adapter aux évolutions technologiques futures. Son objectif principal est de bâtir et de maintenir la confiance dans l’IA, en préservant la transparence et la responsabilité.

À l’avenir, les solutions basées sur l’IA seront classées en quatre catégories. Les systèmes posant des risques inacceptables seront simplement interdits. Pour les trois autres catégories – risque élevé, limité et minimal – des mesures proportionnelles au niveau de risque doivent être appliquées. Celles-ci incluent la garantie de la transparence (par exemple, la génération de rapports opérationnels), le maintien d’une supervision humaine (l’IA ne doit pas prendre de décisions de manière indépendante) et la mise en œuvre d’exigences de test plus strictes pour les applications à risque plus élevé. Pour les classifications à risque minimal, informer les utilisateurs qu’ils interagissent avec une IA sera suffisant, et le contenu généré par l’IA doit être clairement étiqueté. Ces mesures reflètent d’une certaine manière les principes éthiques antérieurs mais garantissent que les utilisateurs comprennent toujours le niveau de risque qu’ils prennent en utilisant l’IA.

Exemple Pratique

Imaginons un système de service client d’un centre d’appels à travers les quatre niveaux de risque. Une IA à risque minimal pourrait impliquer un assistant IA nous divertissant pendant que nous attendons en ligne. Si l’IA aide à optimiser les processus de service client ou interagit avec les clients via un chatbot, elle tombe dans la catégorie à risque limité, nécessitant une divulgation claire que le client communique avec une IA. Si le système utilise une prise de décision automatisée ou une détection des émotions, il est catégorisé comme à risque élevé, nécessitant des protocoles plus stricts. Si l’IA est utilisée pour une surveillance clandestine ou une manipulation, elle est simplement interdite (risque inacceptable).

Les Défis de la Réglementation Globale

À présent, le débat autour de la régulation de l’IA commence à devenir intéressant. Réguler l’utilisation de l’IA au sein de l’UE est louable, mais qu’en est-il du reste du monde ? Dans des pays comme la Chine, les systèmes d’IA que l’UE juge inacceptables sont employés à l’échelle de l’État – par exemple, le système de crédit social, qui surveille les actions des citoyens en utilisant des technologies de surveillance, des transactions financières et des activités sur les réseaux sociaux. Les citoyens et les entreprises reçoivent ou perdent des points en fonction de leur comportement, impactant ainsi leur solvabilité, leurs opportunités de voyage et leur accès aux avantages sociaux.

L’Acte sur l’IA de l’UE interdit non seulement le classement social, mais aussi l’identification biométrique à distance en temps réel dans les espaces publics. Cela signifie que, par exemple, si nous entrons dans un centre commercial, le système ne doit pas être capable de nous identifier. La collecte de données générales, telles que le sexe, l’âge ou la taille, est autorisée pour améliorer le service, mais le stockage et l’analyse des données personnelles sont strictement réglementés et autorisés uniquement dans des conditions spécifiques ou complètement interdits.

Une autre pratique interdite est l’utilisation de systèmes d’IA qui manipulent le comportement cognitif. Nous avons tous vu des astuces comme « Dernier article disponible ! » ou « Trois personnes consultent actuellement ce produit ! » Ces tactiques créent un sentiment d’urgence ou utilisent des compteurs à rebours qui nous pressent psychologiquement à acheter. Toutes ces publicités ciblées émotionnellement sont conçues pour exploiter les vulnérabilités psychologiques afin d’influencer les décisions.

Un Avenir à Construire

L’une des pratiques les plus préoccupantes, considérées comme inacceptables par la loi, est l’utilisation de la détection des émotions cachées dans les lieux de travail et les établissements d’enseignement. Personne ne veut travailler pour une entreprise où un logiciel analyse ses émotions pendant des appels vidéo pour évaluer le stress ou les niveaux de satisfaction. C’était déjà inconfortable pendant la COVID lorsque notre température était surveillée ; nous ne voulons certainement pas que les entreprises évaluent nos niveaux d’engagement, ignorant nos droits fondamentaux et nous pressant à afficher constamment des émotions « positives ».

À l’avenir, les gens pourraient se déplacer entre les pays ou même les continents non pas à cause d’un meilleur climat ou d’un niveau de vie plus élevé, mais simplement pour échapper à la surveillance invasive de l’État sur leur vie privée. L’UE, à cet égard, sera un endroit sûr pour vivre. Les entreprises enfreignant la loi pourraient faire face à des amendes allant jusqu’à 35 millions d’euros ou 7% de leur chiffre d’affaires mondial de l’année précédente, selon le montant le plus élevé. Comme le RGPD, cela a un effet dissuasif significatif. Mais peut-être que son plus grand avantage est d’autonomiser les individus à décider de la quantité d’accès et d’influence que l’IA devrait avoir dans leur vie et de la profondeur avec laquelle ils partagent leurs pensées avec les technologies d’IA.

La Confiance en l’IA

La question qui se pose alors est : pouvons-nous faire confiance à l’IA ?

La véritable question n’est pas de savoir si nous pouvons faire confiance à l’IA, mais si nous pouvons nous permettre de ne pas faire confiance à l’IA.

Nous devons apprendre à coexister avec l’IA. La sensibilisation à l’IA deviendra une compétence, non seulement pour les entreprises mais aussi pour les individus. La sensibilité à l’IA peut signifier plusieurs choses au-delà de la sensibilisation et de la compréhension des utilisateurs. Cela peut impliquer une sensibilité éthique – garantissant une utilisation responsable de l’IA conforme à nos principes éthiques humains. Cela pourrait également impliquer une sensibilité environnementale – évitant la création de déchets numériques inutiles malgré des ressources apparemment infinies et étant conscient des demandes énergétiques des centres de données, où l’IA « vit ». Enfin, la sensibilité sociale est cruciale pour comprendre l’impact de l’IA sur la société, le marché du travail et divers groupes sociaux. Nous devons être préparés aux conséquences sociétales de l’IA, telles que les transformations du lieu de travail et les questions sociales émergentes en général.

Une chose est certaine : nous entrons dans une nouvelle ère passionnante. Il y a deux ans, les premières solutions majeures d’IA ont jailli comme des geysers ; depuis lors, de nombreux systèmes d’IA multimodaux plus sophistiqués – combinant texte, image, voix et vidéo – ont émergé. L’effet combiné de ces innovations va bientôt déferler sur le monde comme un tsunami et nous devons être préparés.

Articles

Régulation de l’IA : Vers une responsabilité accrue dans les services financiers

Le Chartered Insurance Institute (CII) a appelé à des cadres de responsabilité clairs et à une stratégie de compétences à l'échelle du secteur pour guider l'utilisation de l'intelligence artificielle...

L’essor de la réglementation de l’IA dans la santé en APAC

La réglementation de l'intelligence artificielle (IA) dans la région Asie-Pacifique est encore naissante et repose principalement sur des cadres réglementaires existants. Les techniques d'IA, telles...

Nouveaux défis législatifs pour l’IA à New York

Au début de 2025, New York a rejoint d'autres États pour réglementer l'intelligence artificielle (IA) au niveau de l'État, en introduisant le projet de loi NY AI Act. Ce projet de loi vise à prévenir...

Gérer les Risques de l’Intelligence Artificielle

L'article discute des risques associés aux systèmes d'intelligence artificielle et de l'importance d'une gouvernance responsable. Il souligne que les modèles d'IA doivent être gérés efficacement pour...

Comprendre les enjeux de la loi sur l’intelligence artificielle dans l’UE

L'Union européenne a introduit la loi sur l'intelligence artificielle (AI Act), une réglementation phare conçue pour gérer les risques et les opportunités des technologies d'IA. Cet article fournit un...

La Loi Fondamentale sur l’IA en Corée : Un Nouveau Cadre Réglementaire

La Corée du Sud se positionne en tête de la réglementation de l'IA en Asie avec l'adoption de la loi sur le développement de l'intelligence artificielle et l'établissement de la confiance, ou la loi...

Défis réglementaires de l’IA et résilience opérationnelle

Le règlement sur l'IA de l'UE et la DORA imposent une nouvelle complexité aux entités financières, nécessitant une approche basée sur les risques pour évaluer l'impact financier. Il est essentiel de...

Réguler l’IA : Défis et Perspectives Transatlantiques

L'intelligence artificielle (IA) est devenue l'une des forces technologiques les plus conséquentes de notre époque, capable de redéfinir les économies et les sociétés. Les gouvernements démocratiques...

Révolutionner l’IA en Europe : Vers des Gigafactories Innovantes

La Commission européenne souhaite réduire les obstacles au déploiement de l'intelligence artificielle (IA) afin de mieux préparer les entreprises européennes à la concurrence mondiale. Dans sa...