La Curaduría Responsable de la IA en las Organizaciones

Lo que las organizaciones necesitan para curar la IA de manera responsable

Las organizaciones utilizan inteligencia artificial (IA) de diversas formas, a menudo sin ser conscientes de ello. La clave está en entender cómo la utilizan y si lo hacen de manera responsable.

Desafío socio-técnico

El desafío de ganar confianza en la IA es un reto socio-técnico, donde el componente humano resulta ser el más complicado. Para abordar esta cuestión, es necesario considerar tres componentes fundamentales: personas, procesos y herramientas.

Personas

El primer paso es identificar la cultura organizacional adecuada para curar la IA de forma responsable. Esto implica establecer procesos de gobernanza de IA que incluyan la recopilación de datos relevantes, evaluaciones de riesgo y más. Las organizaciones también requieren las herramientas adecuadas dentro de los marcos de ingeniería de IA para garantizar que estos modelos reflejen la intención correcta.

Tres principios clave

Dentro de los componentes mencionados, las personas son el aspecto más complicado para lograr un equilibrio adecuado en la IA responsable.

Principio 1: Humildad

El primer principio implica abordar el tema con humildad, reconociendo que los miembros de la organización deben aprender y desaprender. Esto incluye redefinir quién tiene voz en las conversaciones sobre IA, integrando a individuos de diversas disciplinas y antecedentes para desarrollar la IA de manera holística.

Fomentar una mentalidad de crecimiento y proporcionar un ambiente de seguridad psicológica es clave para facilitar conversaciones difíciles sobre la IA.

Principio 2: Vistas diversas

El segundo principio es reconocer que las personas provienen de experiencias diversas y que todas las perspectivas son importantes. Las organizaciones deben valorar la diversidad de su fuerza laboral y de aquellos que construyen y gobiernan los modelos de IA.

Es crucial que las personas con diferentes experiencias vitales participen en discusiones sobre la adecuación de los datos y los posibles riesgos asociados.

Principio 3: Multidisciplinariedad

Finalmente, los equipos que desarrollan y gestionan estos modelos de IA deben ser multidisciplinarios. Esto implica contar con expertos de distintos campos, como sociología, antropología y derecho, para construir una IA responsable.

Reconocimiento de sesgos

Un mito común sobre la IA es que el 100% del esfuerzo se dedica a la programación. En realidad, más del 70% del esfuerzo radica en determinar si se están utilizando los datos correctos. Los datos son un artefacto de la experiencia humana, y es fundamental reconocer que todos tenemos sesgos.

La IA puede compararse con un espejo que refleja los sesgos de una persona. La clave está en ser lo suficientemente valiente como para mirar introspectivamente y evaluar si esa reflexión se alinea con los valores organizacionales.

Impulsar la transparencia

Las organizaciones deben ser transparentes sobre las decisiones tomadas en relación con los datos y los métodos utilizados. Es aconsejable crear una hoja de hechos para las soluciones de IA que detalle información importante sobre el modelo, incluyendo su uso previsto, origen de los datos, metodología y frecuencia de auditoría.

Es vital que las personas sean auto-conscientes y reconozcan si sus enfoques no se alinean con sus valores. Si no lo hacen, deben ajustar sus métodos.

En resumen, la confianza en la IA se gana y no se otorga. Es esencial tener conversaciones difíciles sobre los sesgos y reconocer que crear un modelo de IA responsable no es un proceso lineal, sino que requiere esfuerzo y compromiso.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...