Microsoft integra Claude en Copilot: nuevos retos de gobernanza en IA

Microsoft añade Claude a Copilot, pero la IA en múltiples nubes podría generar nuevos retos de gobernanza

Microsoft ha ampliado los modelos de IA en su suite Microsoft 365 Copilot al incluir los modelos Claude Sonnet 4 y Claude Opus 4.1 de Anthropic, junto a la familia de modelos de OpenAI. Con esta actualización, los usuarios pueden alternar entre los modelos de OpenAI y Anthropic en el agente Researcher o al construir agentes en Copilot Studio.

“Copilot seguirá siendo alimentado por los últimos modelos de OpenAI, y ahora nuestros clientes tendrán la flexibilidad de utilizar también los modelos de Anthropic”, afirmó un portavoz de Microsoft. El modelo Claude en Researcher está siendo implementado a través del Frontier Program para clientes licenciados de Microsoft 365 Copilot que opten por participar.

Soporte de Anthropic en Researcher y Copilot Studio

Microsoft ha descrito Researcher como un agente de razonamiento pionero que ahora puede ser potenciado por los modelos de razonamiento profundo de OpenAI o el Claude Opus 4.1. Este agente está diseñado para ayudar a los usuarios a construir estrategias de mercado detalladas, analizar tendencias emergentes de productos o crear informes trimestrales completos.

En Copilot Studio, los modelos Claude Sonnet 4 y Claude Opus 4.1 permiten a los usuarios crear y personalizar agentes de grado empresarial. Las empresas pueden construir, orquestar y gestionar agentes impulsados por modelos de Anthropic para razonamiento profundo, automatización de flujos de trabajo y tareas flexibles. Con sistemas de múltiples agentes y herramientas de solicitud en Copilot Studio, los usuarios tendrán la opción de mezclar modelos de Anthropic, OpenAI y otros del Azure AI Model Catalog para tareas especializadas.

Microsoft presenta a Claude no como un reemplazo de los modelos de GPT, sino como una opción complementaria. Según los análisis, Claude ha producido presentaciones más pulidas y modelos financieros, mientras que los modelos de GPT han demostrado ser más rápidos y fluidos al redactar.

Redundancia como resiliencia

Durante años, las empresas han asociado Copilot exclusivamente con OpenAI, creando una dependencia no deseada. La caída de ChatGPT en septiembre resultó en la pérdida de acceso a los modelos de GPT, mientras que Copilot y Claude continuaron funcionando. Este incidente ayudó a las empresas a entender el riesgo de depender de un solo modelo y resaltó la importancia de la resiliencia en la IA.

Complicaciones en múltiples nubes

A diferencia de los modelos GPT de OpenAI, que funcionan en Azure, los modelos de Claude se alojan en AWS. Microsoft ha advertido a los clientes que los modelos de Anthropic están alojados fuera de los entornos gestionados por Microsoft y están sujetos a los términos de servicio de Anthropic. Por lo tanto, cada vez que se utiliza Claude, se cruzan fronteras de nube que traen desafíos de gobernanza y nuevos costos de egress.

Los CIOs deben diseñar estrategias que cataloguen dónde se utilizan los modelos, impongan barreras para los datos de Graph, y vinculen cada solicitud a un usuario, región y etiqueta de modelo. La mejor práctica es vincular el uso de Anthropic a la región de AWS más cercana, almacenar en caché el contexto repetido para ahorrar ciclos y preaprobar las reglas de firewall antes de que los usuarios hagan clic en Try Claude.

En resumen, la introducción de modelos de Anthropic junto a OpenAI destaca el cambio de Microsoft hacia una estrategia multimodal. Esto también actúa como respaldo; si un sistema falla, otro toma el control. Microsoft está respondiendo a la dinámica del mercado al expandir sus opciones y fortalecer su posición en un entorno empresarial en constante evolución.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...