Construyendo Responsabilidad en la Inteligencia Artificial

Cómo Construir Responsabilidad en su IA

Cuando se trata de gestionar la inteligencia artificial, no hay escasez de principios y conceptos que apoyan el uso justo y responsable. Sin embargo, las organizaciones y sus líderes a menudo se encuentran confundidos ante preguntas difíciles sobre cómo gestionar y desplegar responsablemente los sistemas de IA en la actualidad.

Por esta razón, se ha desarrollado un marco que busca asegurar la responsabilidad y el uso responsable de los sistemas de IA en el gobierno federal. Este marco define las condiciones básicas para la responsabilidad a lo largo del ciclo de vida de la IA, desde el diseño y desarrollo hasta el despliegue y monitoreo.

Entender el Ciclo de Vida Completo de la IA

Frecuentemente, las preguntas de supervisión se plantean sobre un sistema de IA después de que ha sido construido y ya está en funcionamiento. Sin embargo, esto no es suficiente: las evaluaciones de un sistema de IA deberían ocurrir en cada etapa de su ciclo de vida. Esto ayudará a identificar problemas sistémicos que pueden ser pasados por alto durante evaluaciones “puntuales” definidas de manera estrecha.

Las etapas importantes del ciclo de vida de un sistema de IA incluyen:

  • Diseño: articular los objetivos y metas del sistema, incluyendo suposiciones subyacentes y requisitos de rendimiento generales.
  • Desarrollo: definir requisitos técnicos, recopilar y procesar datos, construir el modelo y validar el sistema.
  • Despliegue: pilotar, comprobar la compatibilidad con otros sistemas, asegurar el cumplimiento regulatorio y evaluar la experiencia del usuario.
  • Monitoreo: evaluar continuamente los resultados e impactos del sistema (tanto intencionados como no intencionados), refinar el modelo y tomar decisiones sobre la expansión o el retiro del sistema.

Incluir a Toda la Comunidad de Interesados

En todas las etapas del ciclo de vida de la IA, es importante reunir al conjunto adecuado de interesados. Algunos expertos son necesarios para proporcionar información sobre el rendimiento técnico de un sistema. Estos interesados técnicos pueden incluir científicos de datos, desarrolladores de software, especialistas en ciberseguridad y ingenieros.

Sin embargo, la comunidad completa de interesados va más allá de los expertos técnicos. También son necesarios interesados que puedan abordar el impacto social de la implementación de un sistema de IA. Esto incluye a expertos en políticas y legales, expertos en la materia, usuarios del sistema y, lo que es más importante, individuos afectados por el sistema de IA.

Todos los interesados desempeñan un papel esencial en la identificación, evaluación y mitigación de preocupaciones éticas, legales, económicas o sociales relacionadas con el sistema de IA. La entrada de un amplio rango de interesados —tanto técnicos como no técnicos— es un paso clave para ayudar a protegerse contra consecuencias no deseadas o sesgos en un sistema de IA.

Cuatro Dimensiones de la Responsabilidad de la IA

A medida que las organizaciones, líderes y evaluadores externos se enfocan en la responsabilidad a lo largo de todo el ciclo de vida de los sistemas de IA, hay cuatro dimensiones a considerar: gobernanza, datos, rendimiento y monitoreo. Dentro de cada área, hay acciones importantes a tomar y aspectos a observar.

  • Evaluar las estructuras de gobernanza: Un ecosistema saludable para gestionar la IA debe incluir procesos y estructuras de gobernanza. La gobernanza apropiada de la IA puede ayudar a gestionar riesgos, demostrar valores éticos y asegurar el cumplimiento.
  • Entender los datos: Los datos son el corazón de muchos sistemas de IA. Es crucial tener documentación sobre cómo se utilizan los datos en las diferentes etapas del sistema.
  • Definir objetivos y métricas de rendimiento: Después de que un sistema de IA ha sido desarrollado y desplegado, es importante no perder de vista las preguntas fundamentales sobre su propósito y su efectividad.
  • Revisar los planes de monitoreo: La IA no debe ser considerada un sistema “que se establece y se olvida”. Es esencial realizar un monitoreo continuo del rendimiento.

Pensar como un Auditor

El marco se basa en estándares existentes de auditoría gubernamental y control interno. Esto permite que sus prácticas de auditoría y preguntas sean utilizadas por los recursos de responsabilidad y supervisión que las organizaciones ya tienen a su disposición. El marco está redactado en un lenguaje claro para que los usuarios no técnicos puedan aplicar sus principios y prácticas al interactuar con equipos técnicos.

Cuando se trata de construir responsabilidad en la IA, no está de más pensar como un auditor.

More Insights

Los riesgos ocultos de la inteligencia artificial en el lugar de trabajo

La adopción de la inteligencia artificial en las empresas plantea riesgos significativos que muchas organizaciones están ignorando. A medida que los agentes de IA se convierten en colegas digitales...

La Imperativa de Colaboración en Seguridad de IA

La revolución de la inteligencia artificial ya no es una promesa distante, está aquí y está remodelando industrias y la vida diaria. La clave para garantizar que el poder de la IA se utilice de manera...

El papel de la inteligencia artificial en la policía

Las agencias de aplicación de la ley (LEAs) están utilizando cada vez más la inteligencia artificial (IA) para mejorar su funcionamiento, especialmente con capacidades avanzadas para la policía...

Guía esencial de la AMA para la adopción y gobernanza de la IA en el sector salud

La AMA ha publicado una guía sobre la adopción y gobernanza de la inteligencia artificial (IA) para sistemas de salud, destacando la importancia de establecer políticas adecuadas en un entorno...

La ONU establece un panel sobre IA y un diálogo global para su gobernanza

La Asamblea General de las Naciones Unidas ha adoptado una resolución para establecer un Panel Científico Internacional Independiente sobre Inteligencia Artificial y un Diálogo Global sobre la...

La próxima ola de amenazas cibernéticas: del envenenamiento de datos a los agentes de IA

A medida que la inteligencia artificial (IA) se adopta rápidamente en diversas industrias, también aumenta la exposición a riesgos cibernéticos. Los modelos de IA generativa están creando nuevas...

Ética y Gobernanza de la IA en el Sudeste Asiático

En este artículo, Nguyen Hoang Minh Ngoc explora el panorama actual de la gobernanza y la ética de la inteligencia artificial (IA) en los seis países del sudeste asiático. Se destaca la necesidad de...