Inteligencia Artificial: Ética y Responsabilidad en la Inclusión

AI = Responsabilidad + Inclusión

En la actualidad, la inteligencia artificial (IA) se ha convertido en una parte integral del sistema operativo de organizaciones, gobiernos y sociedades. Sin embargo, la rápida adopción de la IA ha traído consigo implicaciones y consecuencias negativas, a menudo causadas por la falta de gobernanza responsable. Es imperativo que los profesionales que lideran estrategias de IA colaboren con expertos en Diversidad, Equidad e Inclusión (DE&I) para garantizar que se integren principios centrados en el ser humano en su uso y se mantengan.

Importancia de la Gobernanza de IA

Las organizaciones deben asegurarse de que tienen una estrategia para la gobernanza de la IA y la supervisión ética. Los principios y prácticas de DE&I pueden informar a los tomadores de decisiones. La aplicación de la IA en recursos humanos es uno de los temas más discutidos, desde la selección de candidatos hasta el desarrollo del talento. Sin embargo, el uso de la IA para la evaluación individual está sujeto a un intenso debate. Por ejemplo, plataformas de contratación como HireVue han sido objeto de críticas por prácticas engañosas impulsadas por algoritmos opacos que evalúan las calificaciones de los solicitantes basándose en su apariencia.

La historia de HireVue es un ejemplo de cómo la IA puede tener valor y ser integrada en el futuro de la contratación y el desarrollo del talento, pero también resalta la necesidad de una gobernanza responsable de la IA.

Fases Clave en el Uso de IA

La estrategia responsable de IA se basa en tres fases clave: los datos que usamos para entrenar modelos de IA, el diseño y desarrollo de dichos modelos, y la entrega de soluciones de IA. Cada una de estas fases es crítica para el éxito y debe ser considerada cuidadosamente.

Fase de Datos

El primer paso en el viaje de IA de cualquier organización es la curación del conjunto de datos que se utilizará para entrenar la capacidad deseada de IA. Muchos ejemplos de IA discriminatoria se relacionan con el uso de conjuntos de datos de entrenamiento que no son representativos. Por ejemplo, los algoritmos de reconocimiento facial utilizados en la aplicación de la ley han fallado en funcionar correctamente para todos los tonos de piel, lo que ha llevado a arrestos erróneos de personas de color.

Fase de Diseño y Desarrollo

Una vez preparado el conjunto de datos de entrenamiento, la organización puede diseñar y desarrollar el modelo de IA. Es vital que se integren mecanismos como auditorías y evaluaciones para detectar y mitigar sesgos algorítmicos. Los sistemas de IA deben ser diseñados considerando a todos los usuarios finales, teniendo en cuenta experiencias diversas y necesidades de accesibilidad.

Fase de Entrega

La fase de entrega es cuando el producto de IA se lanza y se utiliza. Las innovaciones de IA deben ser probadas en varios segmentos de la sociedad, recopilando comentarios de diferentes partes interesadas para monitorear cómo la solución impacta a cada grupo demográfico. Las organizaciones deben esforzarse por garantizar un acceso equitativo a las soluciones de IA, abordando problemas como la alfabetización digital y la asequibilidad que pueden afectar desproporcionadamente a las comunidades marginadas.

Preguntas de DE&I para Equipos de IA

Para ayudar a las organizaciones a reflexionar sobre los pasos y consideraciones requeridas en cada fase de una estrategia de IA responsable, se recomienda reunir a los equipos de IA y DE&I para crear un «consejo ético» interno. Este ejercicio debe repetirse regularmente para mantener los procesos de gobernanza e innovación responsables en el camino correcto.

Al fomentar una representación diversa de voces y perspectivas, los líderes pueden garantizar que las estrategias de IA y los marcos de gobernanza sean sensibles a las necesidades y valores de todas las comunidades. Las consideraciones de equidad deben guiar el desarrollo y la entrega de IA para mitigar sesgos y promover la justicia.

Gobernanza Responsable de IA

Es crucial priorizar la transparencia, la responsabilidad y la inclusividad en la gobernanza de la IA. Un «Consejo de IA» puede ser un eje central para asegurar conjuntos de datos inclusivos y el desarrollo ético de tecnologías de IA. Es esencial considerar quién supervisa este consejo ético, quién es responsable de sus resultados y cómo se mide su éxito.

La integración de los principios de DE&I en cada etapa de la toma de decisiones, desde los datos hasta el diseño y la entrega de soluciones de IA, es fundamental para asegurar un enfoque ético en la innovación tecnológica que beneficie a toda la sociedad.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...