Pourquoi l’IA a besoin de l’équivalent de la ‘boîte noire’ en aviation—et pourquoi l’Amérique devrait mener la charge
L’évolution rapide de l’IA à l’échelle mondiale, allant de la sortie du GPT-4.5 d’OpenAI au développement par la Chine de modèles comme DeepSeek, Baichuan et d’autres, met en lumière un défi critique pour la politique américaine en matière d’IA. Avec l’industrie de l’IA en Chine évaluée à 70 milliards de dollars en 2023 et les investissements privés mondiaux en IA dépassant 150 milliards de dollars l’année dernière, il ne s’agit pas seulement d’une course pour la domination technologique, mais d’une lutte pour sécuriser la sécurité économique et l’influence géopolitique des États-Unis. Pourtant, deux faiblesses cruciales entravent la capacité de l’Amérique à diriger : une alphabétisation en IA alarmante et un manque de mécanismes systématiques pour apprendre des échecs de l’IA.
Nous devons nous attendre à un va-et-vient compétitif entre les puissances mondiales pendant qu’une technologie massivement transformative se développe et atteint une adoption généralisée. Les leçons tirées de l’adoption de l’électricité ou de l’aviation commerciale peuvent informer l’intégration efficace de l’IA, pour réaliser son potentiel dans des domaines tels que la detection précoce de maladies et l’éducation personnalisée.
Leadership en IA
Les entreprises qui se précipitent pour déployer l’IA font face à un calcul économique critique : combien investir dans la sécurité et la gouvernance au-delà des tests de conformité de base. Ceux qui choisissent de minimiser ces investissements risquent des conséquences financières lorsque les systèmes échouent, y compris la dévaluation du marché, les coûts de litige et la perte de confiance des consommateurs.
La première administration Trump a démontré son engagement envers le leadership américain en IA par le biais de décrets exécutifs en 2019 et 2020. De nouveaux décrets et mandats indiquent un intérêt à poursuivre cet accent sur le leadership. Maintenir le leadership technologique des États-Unis nécessite des travailleurs qualifiés, des consommateurs engagés et une gouvernance intelligente qui favorise plutôt que d’entraver le progrès.
Aujourd’hui, bien que imparfaite, l’industrie aérienne fonctionne sous un système de partage d’informations qui favorise une culture d’amélioration continue et de sécurité. Une approche similaire est nécessaire pour l’IA, notamment par la mise en place d’un système de reporting des incidents qui permet d’apprendre des échecs et d’éviter leur répétition.
Régulation équilibrée de l’IA
Les États-Unis ont besoin d’une boîte noire pour les systèmes d’IA, capturant des informations importantes lorsque les choses tournent mal. Cela permet d’apprendre des échecs et d’améliorer l’industrie dans son ensemble plutôt que de traiter les problèmes de manière isolée.
Nous proposons deux étapes clés : d’abord, lancer une initiative nationale pour l’alphabétisation en IA afin d’aider les Américains à comprendre comment ces technologies affectent leur vie quotidienne. Ensuite, établir des mécanismes de reporting d’incidents qui permettent un apprentissage systématique des risques liés à l’IA.
Les entreprises qui établissent des programmes de suivi des incidents et d’alphabétisation de la main-d’œuvre seront mieux placées pour un leadership durable sur le marché. Cette approche collaborative entre le secteur public et privé garantit que les mesures de sécurité évoluent en même temps que les capacités technologiques.
Les quatre prochaines années sont cruciales pour la compétitivité économique des États-Unis sur la scène mondiale. En se concentrant sur l’alphabétisation, le suivi des incidents et la collaboration entre le gouvernement et l’industrie, nous pouvons garantir que les outils d’IA aident les Américains à atteindre de nouveaux sommets d’innovation et de prospérité.