La Curaduría Responsable de la IA en las Organizaciones

Lo que las organizaciones necesitan para curar la IA de manera responsable

Las organizaciones utilizan inteligencia artificial (IA) de diversas formas, a menudo sin ser conscientes de ello. La clave está en entender cómo la utilizan y si lo hacen de manera responsable.

Desafío socio-técnico

El desafío de ganar confianza en la IA es un reto socio-técnico, donde el componente humano resulta ser el más complicado. Para abordar esta cuestión, es necesario considerar tres componentes fundamentales: personas, procesos y herramientas.

Personas

El primer paso es identificar la cultura organizacional adecuada para curar la IA de forma responsable. Esto implica establecer procesos de gobernanza de IA que incluyan la recopilación de datos relevantes, evaluaciones de riesgo y más. Las organizaciones también requieren las herramientas adecuadas dentro de los marcos de ingeniería de IA para garantizar que estos modelos reflejen la intención correcta.

Tres principios clave

Dentro de los componentes mencionados, las personas son el aspecto más complicado para lograr un equilibrio adecuado en la IA responsable.

Principio 1: Humildad

El primer principio implica abordar el tema con humildad, reconociendo que los miembros de la organización deben aprender y desaprender. Esto incluye redefinir quién tiene voz en las conversaciones sobre IA, integrando a individuos de diversas disciplinas y antecedentes para desarrollar la IA de manera holística.

Fomentar una mentalidad de crecimiento y proporcionar un ambiente de seguridad psicológica es clave para facilitar conversaciones difíciles sobre la IA.

Principio 2: Vistas diversas

El segundo principio es reconocer que las personas provienen de experiencias diversas y que todas las perspectivas son importantes. Las organizaciones deben valorar la diversidad de su fuerza laboral y de aquellos que construyen y gobiernan los modelos de IA.

Es crucial que las personas con diferentes experiencias vitales participen en discusiones sobre la adecuación de los datos y los posibles riesgos asociados.

Principio 3: Multidisciplinariedad

Finalmente, los equipos que desarrollan y gestionan estos modelos de IA deben ser multidisciplinarios. Esto implica contar con expertos de distintos campos, como sociología, antropología y derecho, para construir una IA responsable.

Reconocimiento de sesgos

Un mito común sobre la IA es que el 100% del esfuerzo se dedica a la programación. En realidad, más del 70% del esfuerzo radica en determinar si se están utilizando los datos correctos. Los datos son un artefacto de la experiencia humana, y es fundamental reconocer que todos tenemos sesgos.

La IA puede compararse con un espejo que refleja los sesgos de una persona. La clave está en ser lo suficientemente valiente como para mirar introspectivamente y evaluar si esa reflexión se alinea con los valores organizacionales.

Impulsar la transparencia

Las organizaciones deben ser transparentes sobre las decisiones tomadas en relación con los datos y los métodos utilizados. Es aconsejable crear una hoja de hechos para las soluciones de IA que detalle información importante sobre el modelo, incluyendo su uso previsto, origen de los datos, metodología y frecuencia de auditoría.

Es vital que las personas sean auto-conscientes y reconozcan si sus enfoques no se alinean con sus valores. Si no lo hacen, deben ajustar sus métodos.

En resumen, la confianza en la IA se gana y no se otorga. Es esencial tener conversaciones difíciles sobre los sesgos y reconocer que crear un modelo de IA responsable no es un proceso lineal, sino que requiere esfuerzo y compromiso.

More Insights

Texas Aprueba Nueva Ley de Inteligencia Artificial

El gobernador de Texas firmó la Ley de Gobernanza Responsable de Inteligencia Artificial de Texas (TRAIGA) el 22 de junio de 2025, convirtiendo a Texas en el segundo estado en aprobar una regulación...

La nueva realidad de la política internacional de IA

Desde principios de 2025, la dirección estratégica de la política de inteligencia artificial (IA) ha cambiado drásticamente para centrarse en la capacidad de los estados nacionales para "ganar la...

La nueva realidad de la política internacional de IA

Desde principios de 2025, la dirección estratégica de la política de inteligencia artificial (IA) ha cambiado drásticamente para centrarse en la capacidad de los estados nacionales para "ganar la...

Las organizaciones adoptan IA, pero fallan en su gobernanza

Según una nueva investigación, el 93 por ciento de las empresas en el Reino Unido utilizan IA en alguna capacidad, pero la mayoría carece de los marcos necesarios para gestionar sus riesgos. Solo el...

Gobernanza de Datos en la Nueva Ley de IA de la UE

La Ley de Inteligencia Artificial de la Unión Europea propone un marco para regular la IA, especialmente para los sistemas de "alto riesgo". El Artículo 10 se centra en los datos y la gobernanza de...

Código de Práctica de IA: Implicaciones y Reacciones de la Industria

La Comisión Europea ha publicado un Código de Práctica voluntario para ayudar a la industria a cumplir con las obligaciones de la Ley de IA en relación con la seguridad, la transparencia y los...

Nuevas Normas de Cumplimiento de IA en la UE para Modelos de Alto Riesgo

La Comisión Europea ha publicado directrices para ayudar a las empresas a cumplir con la ley de inteligencia artificial de la UE, que entrará en vigor el 2 de agosto para modelos de IA con riesgos...