Impact de la Loi sur l’IA de l’UE sur les entreprises
La Loi sur l’IA de l’Union Européenne a déjà un impact considérable sur les entreprises, tant à l’intérieur qu’à l’extérieur de l’espace économique. Parmi les conséquences, on note l’ajout de couches de complexité, des défis d’adaptation, et des coûts de conformité.
Cependant, il existe également des aspects positifs. Des experts en affaires, comme ceux cités par des médias financiers, soulignent que l’UE a démontré une application stricte des règles en matière d’IA, notamment en interdisant certaines applications et en lançant des enquêtes sur la vie privée. Ces actions montrent que l’UE est préoccupée par le traitement opaque des données, ce qui pourrait entraîner des règles plus strictes sur le transfert international des données.
Les implications de la Loi sur l’IA sont particulièrement significatives pour les petits développeurs d’IA européens, car les grandes entreprises technologiques disposent déjà de contrôles rigoureux pour leurs produits d’IA. Cependant, cette réglementation créera également des opportunités pour les entreprises spécialisées dans l’IA de confiance, l’explicabilité et la sûreté de l’IA. Les grandes entreprises européennes pourraient tirer profit de solutions d’IA conformes et guidées par la réglementation.
Il demeure encore beaucoup d’incertitude quant à la manière dont la réglementation sur l’IA la plus complète au monde sera appliquée et mise en œuvre. L’impact dépendra de l’application des règles à travers les États membres de l’UE, ce qui pourrait ne pas être uniforme. De plus, la Loi sur l’IA sera probablement débattue dans le cadre des négociations commerciales avec les États-Unis.
Considérations pour la simplification de la Loi sur l’IA
Alors que le secteur des affaires débat des effets potentiels de la Loi sur l’IA, les bureaucrates européens proposent déjà des mesures pour simplifier la réglementation, en se basant sur les retours du secteur. L’UE souhaite que l’IA devienne un modèle d’innovation et un outil pour aider chaque entreprise, comme l’a déclaré un responsable de la Commission européenne.
“Nous sommes très déterminés à simplifier – lorsque cela est nécessaire – les règles”, a déclaré un officiel. “Nous avons écouté attentivement les préoccupations concernant le fait qu’il y ait un fardeau supplémentaire pour les entreprises, notamment en ce qui concerne les obligations de reporting et la complexité de la conformité à certaines dispositions de la Loi sur l’IA.”
Une des zones susceptibles d’être simplifiées est l’obligation de reporting. Selon le règlement, les fournisseurs et utilisateurs de systèmes d’IA doivent informer toute personne exposée à ces systèmes, sauf si cela est évident dans le contexte. Les États membres de l’UE sont attendus pour débuter des consultations sur la simplification de la loi.
Il est également souligné l’importance des normes dans l’approche de l’UE concernant l’IA, y compris celles qui mesurent, évaluent ou réalisent des évaluations de conformité par des tiers. Cependant, les normes techniques doivent encore parcourir un long chemin avant d’être officiellement reconnues.
Régulation de l’IA au Royaume-Uni : Une approche moins stricte
Dans le Royaume-Uni voisin, le gouvernement adopte une approche plus laissez-faire en matière de régulation de l’IA. L’Institut de Sécurité de l’IA du Royaume-Uni (UK AISI) affirme que les évaluations des risques liés à l’IA sont une science émergente et ne sont pas suffisamment matures pour délivrer des certificats de sécurité.
Ces opinions ont été partagées lors du Sommet Mondial sur les Normes de l’IA à Londres. “Les évaluations que nous menons ne couvrent pas tous les risques, et ces évaluations sont une science émergente”, a déclaré le directeur de l’institut. “Nous pensons que ce n’est pas suffisamment mature pour délivrer un certificat de sécurité.”
Actuellement, il n’existe aucune réglementation au Royaume-Uni obligeant les développeurs de modèles d’IA à tester leurs modèles avant déploiement par des organismes tels que l’Institut de Sécurité de l’IA. De plus, l’institut ne fournit pas de certificat de sécurité à l’issue du processus.
Comme l’institut ne peut pas forcer les tests, la coopération des développeurs dépend de leur désir de découvrir des problèmes dans la technologie qu’ils ont créée. Des normes matures pour les applications d’IA actuelles ne doivent pas non plus être attendues, car les développeurs se concentrent sur la création de technologies encore plus disruptives.