Comment la Loi sur l’IA de l’UE Façonnera l’Avenir de la Digitalisation
Cette année, la première réglementation complète au monde sur l’intelligence artificielle (IA) – la Loi sur l’Intelligence Artificielle de l’Union Européenne – est entrée en vigueur. Cela est également contraignant pour les pays baltes. Dans certains domaines, les États membres auront le droit ou l’obligation d’apporter des ajustements, et la loi sera mise en œuvre progressivement jusqu’à l’été 2027. Lors de la clarification des exigences de la loi au niveau national, il est important d’éviter les erreurs commises avec le Règlement Général sur la Protection des Données (RGPD), qui ont entraîné une charge bureaucratique excessive. L’objectif de la Loi sur l’IA est d’assurer que les systèmes d’IA sont développés et utilisés de manière responsable. Cependant, il est essentiel d’éviter que toute la responsabilité ne soit imputée uniquement aux développeurs, ce qui pourrait nuire à la concurrence et à la rapidité de la digitalisation.
Classification des Systèmes en Quatre Niveaux de Risque
La Loi sur l’IA classe tous les systèmes d’IA en quatre niveaux : risque inacceptable, risque élevé, risque limité et risque minimal. La nouvelle réglementation interdit complètement les systèmes d’IA considérés comme une menace indiscutable pour la sécurité humaine, les moyens de subsistance et les droits. Cela inclut le score social dirigé par le gouvernement, comme on le voit en Chine, et les jouets utilisant une assistance vocale pour encourager des comportements dangereux, classés comme « risque inacceptable ». Les systèmes à haut risque, tels que ceux utilisés dans les infrastructures critiques, les applications chirurgicales, les évaluations d’examens, les procédures d’embauche ou la gestion des migrations et des frontières, seront soumis aux exigences les plus strictes.
Ensuite, il y a les systèmes à risque limité, tels que les systèmes de recommandation basés sur des achats précédents ou l’historique de recherche, les assistants virtuels, les systèmes de traduction, etc. Enfin, les systèmes à faible risque, tels que les filtres de courriels pour le spam et la détection de contenu indésirable, sont inclus.
Étant donné que la Loi sur l’IA comprend des pénalités pour non-conformité, y compris des amendes importantes, elle aura un impact significatif sur les processus de développement et d’implémentation des systèmes informatiques. Pour les développeurs et les implémenteurs, comprendre les règles de la loi sur les actions permises et interdites dans diverses situations sera crucial. En même temps, il est tout aussi important que les clients ou propriétaires de systèmes, y compris le gouvernement, comprennent les objectifs de la loi et évitent de créer une charge bureaucratique excessive.
Maintenir les Avantages de la Digitalisation
L’analyse de l’utilisation de l’IA et de la digitalisation dans l’UE montre que les pays baltes sont en avance sur certains pays d’Europe occidentale, comme l’Allemagne, dans la mise en œuvre et le maintien de divers systèmes d’infrastructure critiques et dans l’accessibilité des services d’État. Il est important de ne pas entraver ce progrès ou de répéter les erreurs commises lors de la mise en œuvre du RGPD, où les malentendus concernant les exigences de la réglementation non seulement ont compliqué divers processus du secteur informatique, mais ont également limité le travail des journalistes. Les petites et moyennes entreprises rencontrent des défis particuliers, il est donc crucial cette fois-ci de se concentrer sur la recherche de solutions pour réduire les charges financières et administratives pour ce groupe.
Équilibrer l’Innovation et la Responsabilité Légale
Par exemple, une entreprise qui développe des solutions et des systèmes informatiques quotidiennement, y compris des infrastructures critiques pour des institutions gouvernementales, utilise à la fois des outils d’IA largement connus comme ChatGPT et des outils spécialisés comme GitHub Copilot pour un codage efficace. De plus, elle recherche, adapte et intègre régulièrement de nouveaux outils et modèles d’IA spécifiques dans son travail. Des pratiques similaires sont suivies par d’autres développeurs de systèmes informatiques, donc l’impact de la Loi sur l’IA sur leur travail est déjà activement analysé. Les entreprises qui utilisent l’IA devront équilibrer l’innovation et la conformité légale.
Dans le processus de développement des systèmes, une évaluation initiale des risques, des procédures de traçabilité des données, des mécanismes de contrôle de qualité et une documentation technique détaillée tout au long du cycle de développement seront nécessaires. La responsabilité de la conformité aux exigences de la Loi sur l’IA doit être partagée entre le propriétaire du système (qui dans certains cas inclut des institutions gouvernementales et municipales) et le développeur. Si la plupart de la charge et des risques incombent uniquement aux développeurs, ceux-ci pourraient être réticents à participer à divers projets de systèmes informatiques, ce qui pourrait réduire la concurrence et affecter la qualité. Un autre facteur compliqué est que les pénalités pour violations des exigences de la loi sont calculées en pourcentage du chiffre d’affaires annuel total de l’entreprise de l’exercice précédent. Cela signifie que les amendes pour violations pourraient dépasser le coût total du projet de développement respectif.
C’est l’une des raisons pour lesquelles une association a été fondée pour promouvoir l’utilisation responsable de l’IA, faciliter la coopération transfrontalière et l’échange de connaissances, et partager l’expérience avec les institutions gouvernementales. L’association peut être un partenaire solide et professionnel pour le gouvernement, aidant à garantir la proportionnalité dans le processus de mise en œuvre de la Loi sur l’IA, afin que l’utilisation responsable de l’IA soit réalisée sans freiner la digitalisation.