Lo que las organizaciones necesitan para curar la IA de manera responsable
Las organizaciones utilizan inteligencia artificial (IA) de diversas formas, a menudo sin ser conscientes de ello. La clave está en entender cómo la utilizan y si lo hacen de manera responsable.
Desafío socio-técnico
El desafío de ganar confianza en la IA es un reto socio-técnico, donde el componente humano resulta ser el más complicado. Para abordar esta cuestión, es necesario considerar tres componentes fundamentales: personas, procesos y herramientas.
Personas
El primer paso es identificar la cultura organizacional adecuada para curar la IA de forma responsable. Esto implica establecer procesos de gobernanza de IA que incluyan la recopilación de datos relevantes, evaluaciones de riesgo y más. Las organizaciones también requieren las herramientas adecuadas dentro de los marcos de ingeniería de IA para garantizar que estos modelos reflejen la intención correcta.
Tres principios clave
Dentro de los componentes mencionados, las personas son el aspecto más complicado para lograr un equilibrio adecuado en la IA responsable.
Principio 1: Humildad
El primer principio implica abordar el tema con humildad, reconociendo que los miembros de la organización deben aprender y desaprender. Esto incluye redefinir quién tiene voz en las conversaciones sobre IA, integrando a individuos de diversas disciplinas y antecedentes para desarrollar la IA de manera holística.
Fomentar una mentalidad de crecimiento y proporcionar un ambiente de seguridad psicológica es clave para facilitar conversaciones difíciles sobre la IA.
Principio 2: Vistas diversas
El segundo principio es reconocer que las personas provienen de experiencias diversas y que todas las perspectivas son importantes. Las organizaciones deben valorar la diversidad de su fuerza laboral y de aquellos que construyen y gobiernan los modelos de IA.
Es crucial que las personas con diferentes experiencias vitales participen en discusiones sobre la adecuación de los datos y los posibles riesgos asociados.
Principio 3: Multidisciplinariedad
Finalmente, los equipos que desarrollan y gestionan estos modelos de IA deben ser multidisciplinarios. Esto implica contar con expertos de distintos campos, como sociología, antropología y derecho, para construir una IA responsable.
Reconocimiento de sesgos
Un mito común sobre la IA es que el 100% del esfuerzo se dedica a la programación. En realidad, más del 70% del esfuerzo radica en determinar si se están utilizando los datos correctos. Los datos son un artefacto de la experiencia humana, y es fundamental reconocer que todos tenemos sesgos.
La IA puede compararse con un espejo que refleja los sesgos de una persona. La clave está en ser lo suficientemente valiente como para mirar introspectivamente y evaluar si esa reflexión se alinea con los valores organizacionales.
Impulsar la transparencia
Las organizaciones deben ser transparentes sobre las decisiones tomadas en relación con los datos y los métodos utilizados. Es aconsejable crear una hoja de hechos para las soluciones de IA que detalle información importante sobre el modelo, incluyendo su uso previsto, origen de los datos, metodología y frecuencia de auditoría.
Es vital que las personas sean auto-conscientes y reconozcan si sus enfoques no se alinean con sus valores. Si no lo hacen, deben ajustar sus métodos.
En resumen, la confianza en la IA se gana y no se otorga. Es esencial tener conversaciones difíciles sobre los sesgos y reconocer que crear un modelo de IA responsable no es un proceso lineal, sino que requiere esfuerzo y compromiso.