Moderne lanza Prethink para mejorar la gobernanza del código AI

Moderne presenta Prethink para mejorar la gobernanza del código de IA

Se ha lanzado una nueva función llamada Prethink, que proporciona a los agentes de IA un conocimiento estructurado y precomputado sobre el software de una organización antes de que generen cambios en el código o recomendaciones.

Contexto y necesidad

Prethink aborda las brechas que surgen al aplicar herramientas de IA a grandes repositorios maduros, que a menudo incluyen servicios de larga duración, gráficos de dependencias densos, marcos internos y configuraciones de construcción y despliegue complejas. Muchos sistemas de codificación de IA aún procesan el código principalmente como archivos y texto, lo que obliga a los modelos a inferir la intención arquitectónica y las limitaciones operativas.

Esta limitación puede tener un costo medible. Un estudio reveló que los desarrolladores experimentados eran un 19% más lentos al usar herramientas de IA, principalmente debido al tiempo dedicado a revisar y rehacer salidas que carecían de conciencia arquitectónica. Prethink busca reducir esta carga de revisión al mostrar la estructura del sistema y las limitaciones desde el principio.

Contexto estructurado

Prethink proporciona a los agentes de IA una capa de conocimiento estructurado derivada del código y la arquitectura. Los agentes comienzan con un mapa explícito de dependencias, límites de servicio, configuraciones y otras limitaciones, en lugar de reconstruir ese contexto a partir de archivos en bruto durante una sesión.

Según la empresa, esto desplaza el uso de tokens de la comprensión hacia el análisis y la implementación. También se afirma que una capa de conocimiento compartido puede reducir las alucinaciones y los resultados inconsistentes al permitir que los agentes razonen sobre relaciones conocidas en lugar de inferir a partir de entradas incompletas.

Implicaciones arquitectónicas

En grandes organizaciones, la arquitectura y la gobernanza pueden ser tan importantes como el código sintácticamente correcto. Los cambios que compilan pueden violar la intención de diseño, crear riesgos operativos o entrar en conflicto con estándares internos. Estos errores pueden ralentizar los ciclos de entrega, aumentar los requisitos de revisión y elevar el consumo de computación cuando los equipos solicitan repetidamente a los modelos que revisen la salida.

Modelo de código

Prethink se basa en un modelo de código preciso que captura tipos, dependencias y metadatos, exponiendo información como límites de servicio, puntos finales, dependencias y relaciones arquitectónicas. Este conocimiento se almacena junto al código y puede ser utilizado tanto por humanos como por agentes de IA. Los equipos pueden decidir qué hechos y limitaciones se generan y comparten, lo que puede ser relevante para organizaciones con políticas estrictas o entornos regulados.

Conclusiones

Prethink se sitúa dentro de una plataforma más amplia para gestionar cambios en grandes bases de código multi-repositorio. La plataforma se ha centrado en la automatización determinista para la evolución de la base de código, incluyendo refactorización estructurada y cambios impulsados por políticas a gran escala. Prethink extiende este enfoque a los flujos de trabajo de los agentes de IA, proporcionando a los modelos la misma representación subyacente utilizada en otros lugares de la plataforma.

Para los líderes de ingeniería, el desafío a menudo es menos sobre generar código que sobre coordinar cambios de manera segura a través de muchos equipos y repositorios. En entornos con miles de repositorios, pequeños malentendidos pueden provocar fallos más amplios. Prethink está construido para esas condiciones, enmarcando al agente de IA como un participante en un sistema de entrega gobernado, en lugar de un asistente aislado que hace sugerencias sin un contexto completo.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...