El poder de poner en práctica la gobernanza de la IA
Para que la inteligencia artificial en el gobierno tenga un impacto positivo, debe ser confiable tanto para los empleados que la utilizan como para los ciudadanos cuyas vidas pueden verse afectadas. La gobernanza de la IA es imperativa para garantizar un uso responsable. Pero, ¿qué comprende exactamente la gobernanza de la IA y cómo debe ser abordada e implementada?
Desconexión en la adopción y gobernanza de la IA
Un informe reciente indica que, aunque el 78% de las organizaciones del sector público a nivel mundial afirman confiar plenamente en la IA, solo el 40% ha invertido en la gobernanza y salvaguardias necesarias para consolidar esa confianza. Esta desconexión es importante, ya que la IA ya no se limita a proyectos piloto o experimentaciones en el back-office; está cada vez más incrustada en los flujos de trabajo gubernamentales cotidianos, automatizando tareas que antes realizaban manualmente los funcionarios públicos.
La automatización aumenta las apuestas en torno a la confianza. ¿Pueden los empleados confiar lo suficiente en los resultados de la IA para basar decisiones y acciones significativas en ellos? ¿Pueden los ciudadanos confiar en que sus gobiernos utilizarán sus datos de manera responsable y desplegarán la IA de manera justa?
La gobernanza de la IA como marco estratégico
La gobernanza de la IA existe para ayudar a las organizaciones a responder “sí” a esas preguntas. Es el marco estratégico y operativo que asegura que la IA sea confiable, ética y cumpla con las normativas. Esta gobernanza abarca la supervisión, el cumplimiento, las operaciones y la cultura, proporcionando las pautas necesarias para gestionar la IA de manera responsable a lo largo de su ciclo de vida.
La gobernanza de la IA va más allá del cumplimiento normativo. Aunque muchos piensan que la gobernanza se refiere principalmente a regulaciones, la confianza es el punto de partida. La política, en muchos casos, es el mecanismo que los gobiernos utilizan ahora para entregar confianza a gran escala.
Intencionalidad y confianza operativa
En el sector público, los riesgos de la IA van desde daños personales hasta daños sistémicos, como la erosión de la confianza en las instituciones públicas. La gobernanza de la IA mitiga estos riesgos al establecer estándares claros, mecanismos de responsabilidad, requisitos de transparencia y estructuras de supervisión multidisciplinarias que incluyen ética, legalidad y experiencia en el dominio.
La intencionalidad es fundamental para una IA confiable. Esto significa diseñar con propósito y responsabilidad, especialmente en entornos públicos donde la confianza y la equidad son primordiales. Los gobiernos deben comenzar haciendo preguntas fundamentales: ¿Quién se beneficia? ¿Quién podría resultar perjudicado? ¿Es la IA la herramienta adecuada para este problema?
Cultura y alfabetización en IA
La gobernanza también se trata de las personas. La alfabetización en IA es central para construir una cultura de innovación responsable. Sin un entendimiento básico de cómo funcionan los sistemas de IA y sus limitaciones, es difícil para los líderes gubernamentales y los responsables de políticas gestionar la IA de manera efectiva.
Construir una cultura que comprenda la IA y su gobernanza permite una toma de decisiones más informada, reduce riesgos y fomenta una mayor confianza en los resultados de la IA. Sin embargo, muchos gobiernos subinvierten en educar a su personal sobre la IA y su gobernanza en comparación con el desarrollo de la IA.
Conclusión
A medida que los gobiernos se mueven hacia una mayor automatización, incluida la IA autónoma, la necesidad de vigilancia continua se vuelve aún más pronunciada. La confianza no surge por accidente; se construye intencionalmente a través de disciplinas de gobernanza que evolucionan junto con la tecnología. Es fundamental que los gobiernos aseguren que sus sistemas de datos y IA sean tan confiables como necesitan y esperan sus empleados y ciudadanos. El momento de invertir en la gobernanza de la IA es ahora.