Expertos en IA: Transparencia y responsabilidad, cruciales para la gobernanza de la IA
En la actualidad, la gobernanza de la inteligencia artificial (IA) se ha convertido en un tema de vital importancia en el ámbito tecnológico y empresarial. Se discute cómo se asignan derechos y responsabilidades en el despliegue de esta tecnología disruptiva.
Responsabilidades en la Gobernanza de la IA
Cuando una empresa desea lanzar un producto, es fundamental que las partes responsables se aseguren de que el producto sea seguro y ofrezca beneficios a los usuarios. En caso de que surjan problemas, los clientes tienen derechos, que pueden incluir la posibilidad de presentar reclamaciones o demandas.
La gobernanza de la IA se centra en cómo asignar esas responsabilidades y derechos, promoviendo así la responsabilidad. Sin embargo, este proceso es complejo y varía según el sector y el país. Por lo tanto, es esencial que los líderes empresariales se involucren y comprendan este tema.
IA y Derechos Fundamentales
Uno de los principales desafíos es cómo la IA puede tanto apoyar como desafiar derechos fundamentales como la privacidad, la autonomía y la dignidad. A menudo, las decisiones impulsadas por la IA se toman en una especie de caja negra, donde los criterios utilizados para tomar decisiones no son claros.
Por ejemplo, un sistema de IA puede filtrar miles de currículos para identificar candidatos adecuados, pero los criterios detrás de estas decisiones pueden ser opacos, incluso para los propios proveedores de la tecnología. Esto subraya la necesidad de promover la transparencia y la responsabilidad en el uso de la IA.
Enfoque de EE. UU. hacia la Política de IA
A medida que la tecnología y las aplicaciones comerciales evolucionan rápidamente, también lo hacen los modelos de gobernanza. En sus inicios, el enfoque estaba en el proceso de toma de decisiones y conceptos clave como la equidad, la responsabilidad y la transparencia.
Con el tiempo, han surgido problemas adicionales en la gobernanza de la IA. Por ejemplo, se ha reconocido que los modelos de lenguaje grande (LLMs) tienen un gran consumo energético, lo que plantea cuestiones de sostenibilidad. Además, la producción de artículos, música y arte por parte de la IA plantea cuestiones de derechos de autor y equidad de género.
Un gran desafío es garantizar que las políticas públicas de IA reflejen los valores americanos importantes, como la libertad, la privacidad, las libertades civiles y los derechos civiles.
Cooperación Bipartidista en la Política de IA
Se ha observado un alto grado de cooperación bipartidista en la política de IA en EE. UU. Propuestas sobre la desinformación en elecciones, el uso de IA generativa para capturar valor de artistas y músicos, y la protección de los niños contra imágenes inapropiadas en línea, han recibido un fuerte apoyo bipartidista.
Participación Pública en la Regulación Digital
La Unión Europea se destaca en el ámbito de la regulación digital. Si se recopilan datos personales de europeos, las empresas deben cumplir con el Reglamento General de Protección de Datos (GDPR). La Ley de Inteligencia Artificial de la UE se espera que cumpla un papel similar en la regulación de la IA.
Este proceso ha incluido casi cinco años de consultas públicas, permitiendo la participación de expertos y del Parlamento Europeo para finalizar la ley.
Medidas para Abordar el Desplazamiento Laboral
Ante el impacto potencial de la IA en el desplazamiento laboral y la economía, se sugiere que el gobierno de EE. UU. debería considerar medidas adecuadas. Las decisiones sobre la contratación deben ser justas y transparentes, evitando depender de criterios que puedan variar según la cultura y otros factores.
Consideraciones para Líderes Empresariales
Los líderes empresariales deben mantenerse informados sobre las regulaciones y directrices éticas emergentes en el ámbito de la IA. La situación está en constante evolución, y lo que era cierto en un momento puede cambiar rápidamente, como se evidenció con el lanzamiento de ChatGPT.
Es fundamental que los líderes actúen con integridad y se enfoquen en su misión, considerando cuidadosamente las decisiones éticas que enfrentan en la implementación de la IA. La experiencia organizativa y los sesgos en los resultados de la IA son factores que deben tenerse en cuenta al adoptar estas tecnologías.