Darwin Lanza una Herramienta Gratuita para Simplificar la Gobernanza de IA en Agencias Públicas

Darwin Presenta el Asistente de Políticas Gratuito para Simplificar la Gobernanza de la IA en Agencias del Sector Público

El 5 de mayo de 2025, se anunció el lanzamiento del Asistente de Políticas de IA de Darwin, una herramienta gratuita e interactiva diseñada para ayudar a los gobiernos locales y las agencias públicas a construir políticas de IA prácticas, cumplidoras y personalizadas desde cero.

El Contexto de la IA en el Sector Público

A medida que la inteligencia artificial continúa ganando terreno en los servicios públicos, desde permisos hasta adquisiciones y vigilancia, las agencias enfrentan la presión de adoptar la IA de manera responsable. Marcos nacionales como el Marco de Gestión de Riesgos de IA (RMF) del NIST y la orientación de la Coalición GovAI han ofrecido una estructura valiosa. Sin embargo, las agencias locales a menudo enfrentan un desafío más matizado: alinear estos marcos con las leyes estatales, políticas municipales y las necesidades particulares de sus departamentos.

La Visión de la Gobernanza de IA

Según el CEO de Darwin, Noam Maital, “la IA está llamada a ser una fuerza transformadora para las agencias estatales y locales. Sin embargo, muchas de estas agencias tienen dificultades para encontrar un punto de partida para sus políticas de IA. Desarrollar una política de IA desde cero puede ser abrumador, especialmente para aquellas agencias que ya están limitadas en tiempo, personal y conocimientos técnicos.”

Características del Asistente de Políticas

Con el Asistente de Políticas, las agencias locales pueden construir sus políticas iniciales de gobernanza de IA en minutos, no en meses. La herramienta guía a los usuarios a través de un proceso simple y estructurado:

  • Seleccionar la tolerancia al riesgo de la agencia y los objetivos de gobernanza.
  • Elegir entre múltiples marcos, como NIST, la Coalición GovAI o una combinación de marcos.
  • Subir documentos de políticas relacionadas, como políticas de retención de datos, reglas de adquisiciones o políticas de TI existentes, que la herramienta analizará e integrará en la política de IA personalizada.
  • La herramienta genera una política de IA adaptada, alineada tanto con los marcos seleccionados como con la documentación existente de la agencia.
  • Las agencias pueden refinar la política utilizando preguntas guiadas o hacer clic en “Crear Informe” para recibir un documento final listo para compartir por correo electrónico.

Importancia de una Gobernanza Estructurada

A medida que las regulaciones continúan evolucionando y el escrutinio aumenta, el Asistente de Políticas de Darwin ofrece un punto de partida vital para cualquier agencia que busque convertir buenas intenciones en una gobernanza estructurada y accionable.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...