Microsoft déclare que l’« IA Responsable » est désormais sa plus grande priorité – mais à quoi cela ressemble-t-il ?
Microsoft a récemment publié son Rapport de transparence sur l’IA responsable 2025, dans lequel il décrit ses plans pour construire et maintenir des modèles d’IA responsables. Dans un contexte où l’utilisation de l’IA et des modèles de langage de grande taille (LLM) se généralise, la fiabilité et la sécurité de ces modèles sont devenues des considérations cruciales pour des entreprises comme Microsoft.
Avec l’adoption croissante de l’IA par les entreprises, nous assistons également à une vague de réglementations à travers le monde, visant à établir une utilisation sûre et responsable des outils d’IA. Microsoft souhaite se préparer à ces nouvelles exigences réglementaires.
Une approche pragmatique
Dans le rapport, Microsoft souligne les investissements significatifs réalisés dans des outils, des politiques et des pratiques d’IA responsables. Cela inclut une gestion des risques élargie pour des « modalités au-delà du texte – comme les images, l’audio et la vidéo – et un soutien supplémentaire pour les systèmes agentiques ». L’entreprise adopte également une approche « proactive et stratifiée » face aux nouvelles réglementations, telles que la Loi sur l’IA de l’UE, en fournissant aux clients des ressources pour les aider à se conformer aux nouvelles exigences.
La gestion continue des risques, la surveillance, l’examen et les tests de résistance des IA et des générateurs d’IA sont également mis en avant, accompagnés de recherches pour mieux comprendre les enjeux sociotechniques liés aux avancées les plus récentes en matière d’IA.
Plans d’avenir
Alors que l’IA continue d’évoluer, Microsoft prévoit de développer des outils et des pratiques plus adaptables et d’investir dans des systèmes de gestion des risques pour fournir des outils pour les risques les plus courants dans divers scénarios de déploiement.
Microsoft s’engage également à approfondir son travail concernant les réglementations à venir en soutenant une gouvernance efficace tout au long de la chaîne d’approvisionnement de l’IA. L’entreprise travaille en interne et en externe pour clarifier les rôles et les attentes et continue de rechercher des moyens de mesurer et d’évaluer les risques liés à l’IA.
Conclusion
Le rapport souligne les développements récents concernant la manière dont Microsoft construit et déploie des systèmes d’IA de manière responsable. L’entreprise espère rassembler des retours d’expérience sur ses progrès et des opportunités de collaboration pour renforcer la gouvernance de l’IA, en favorisant la confiance dans les systèmes d’IA à un rythme qui corresponde aux opportunités à venir.