La Curaduría Responsable de la IA en las Organizaciones

Lo que las organizaciones necesitan para curar la IA de manera responsable

Las organizaciones utilizan inteligencia artificial (IA) de diversas formas, a menudo sin ser conscientes de ello. La clave está en entender cómo la utilizan y si lo hacen de manera responsable.

Desafío socio-técnico

El desafío de ganar confianza en la IA es un reto socio-técnico, donde el componente humano resulta ser el más complicado. Para abordar esta cuestión, es necesario considerar tres componentes fundamentales: personas, procesos y herramientas.

Personas

El primer paso es identificar la cultura organizacional adecuada para curar la IA de forma responsable. Esto implica establecer procesos de gobernanza de IA que incluyan la recopilación de datos relevantes, evaluaciones de riesgo y más. Las organizaciones también requieren las herramientas adecuadas dentro de los marcos de ingeniería de IA para garantizar que estos modelos reflejen la intención correcta.

Tres principios clave

Dentro de los componentes mencionados, las personas son el aspecto más complicado para lograr un equilibrio adecuado en la IA responsable.

Principio 1: Humildad

El primer principio implica abordar el tema con humildad, reconociendo que los miembros de la organización deben aprender y desaprender. Esto incluye redefinir quién tiene voz en las conversaciones sobre IA, integrando a individuos de diversas disciplinas y antecedentes para desarrollar la IA de manera holística.

Fomentar una mentalidad de crecimiento y proporcionar un ambiente de seguridad psicológica es clave para facilitar conversaciones difíciles sobre la IA.

Principio 2: Vistas diversas

El segundo principio es reconocer que las personas provienen de experiencias diversas y que todas las perspectivas son importantes. Las organizaciones deben valorar la diversidad de su fuerza laboral y de aquellos que construyen y gobiernan los modelos de IA.

Es crucial que las personas con diferentes experiencias vitales participen en discusiones sobre la adecuación de los datos y los posibles riesgos asociados.

Principio 3: Multidisciplinariedad

Finalmente, los equipos que desarrollan y gestionan estos modelos de IA deben ser multidisciplinarios. Esto implica contar con expertos de distintos campos, como sociología, antropología y derecho, para construir una IA responsable.

Reconocimiento de sesgos

Un mito común sobre la IA es que el 100% del esfuerzo se dedica a la programación. En realidad, más del 70% del esfuerzo radica en determinar si se están utilizando los datos correctos. Los datos son un artefacto de la experiencia humana, y es fundamental reconocer que todos tenemos sesgos.

La IA puede compararse con un espejo que refleja los sesgos de una persona. La clave está en ser lo suficientemente valiente como para mirar introspectivamente y evaluar si esa reflexión se alinea con los valores organizacionales.

Impulsar la transparencia

Las organizaciones deben ser transparentes sobre las decisiones tomadas en relación con los datos y los métodos utilizados. Es aconsejable crear una hoja de hechos para las soluciones de IA que detalle información importante sobre el modelo, incluyendo su uso previsto, origen de los datos, metodología y frecuencia de auditoría.

Es vital que las personas sean auto-conscientes y reconozcan si sus enfoques no se alinean con sus valores. Si no lo hacen, deben ajustar sus métodos.

En resumen, la confianza en la IA se gana y no se otorga. Es esencial tener conversaciones difíciles sobre los sesgos y reconocer que crear un modelo de IA responsable no es un proceso lineal, sino que requiere esfuerzo y compromiso.

More Insights

Gobernanza de la IA: Retos y Oportunidades para Profesionales de Seguridad

La inteligencia artificial (IA) está teniendo un amplio efecto en las líneas de negocio, incluida la ciberseguridad, con un estudio que muestra que el 63% de los profesionales de ciberseguridad creen...

Gobierno británico en la mira por la implementación de reconocimiento facial sin regulación

El gobierno del Reino Unido ha sido criticado por la implementación de tecnología de reconocimiento facial sin un marco legal adecuado. El Instituto Ada Lovelace ha expresado preocupaciones sobre el...

El Auge de Startups de Gobernanza en la Era de la IA

A medida que la explosión de la inteligencia artificial avanza, las soluciones de gobernanza están en gran demanda. La industria global de gobernanza de IA se valoró en 890 millones de dólares el año...

Perspectivas sobre la Moratoria de 10 Años en las Leyes Estatales de IA en EE. UU.

La Cámara de Representantes de EE. UU. aprobó un paquete de presupuesto que incluye una moratoria de 10 años sobre la aplicación de leyes estatales de inteligencia artificial. Tech Policy Press busca...

El Futuro de la IA en los Tribunales: Lecciones de 500 Casos

A través del mundo, la regulación de la inteligencia artificial (IA) es desigual, con algunas jurisdicciones que ya cuentan con regulaciones integrales y otras que solo se centran en reglas...

Estrategias Efectivas para Mitigar los Riesgos de la IA Responsable

La inteligencia artificial responsable se está transformando de una impresionante palabra de moda en una necesidad crítica para los negocios, especialmente en la región de Asia-Pacífico. A pesar de...

La necesidad urgente de gobernanza legal en la IA

En esta entrevista de Help Net Security, Brooke Johnson, Asesor Legal Principal de Ivanti, explora las responsabilidades legales en la gobernanza de la IA, destacando cómo la colaboración...

Reformando las Regulaciones de IA

La Cámara de Representantes aprobó recientemente un importante proyecto de ley que impide a los estados regular modelos de inteligencia artificial durante diez años. Esto preocupa a algunos...