Gobernanza de la IA: Consejos prácticos de IA para asesores internos
Durante un seminario anual de asesores internos, se compartió una guía integral sobre el papel estratégico de la inteligencia artificial (IA) en el panorama empresarial moderno, los riesgos clave asociados con su implementación, la evolución de las regulaciones de IA y el manual para la gobernanza de la IA.
Formas de IA
La forma más común y primitiva de IA es la automatización, que ejecuta tareas predefinidas basadas en reglas para mejorar la eficiencia. Ejemplos incluyen aprobaciones de flujo de trabajo, entrada de datos y chatbots. Los riesgos legales asociados con la automatización son relativamente bajos, en contraste con la IA generativa, que puede crear infracciones de propiedad intelectual y inexactitudes fácticas.
La IA generativa se refiere a modelos que crean nuevo contenido basándose en patrones en grandes cantidades de datos existentes. Esta herramienta necesita la intervención humana en cada paso y no puede verificar su salida de manera independiente. Ejemplos incluyen herramientas como ChatGPT.
La IA agente es una categoría emergente que puede perseguir objetivos, tomar decisiones y ejecutar tareas con mínima intervención humana. Ejemplos incluyen coches autónomos y herramientas de aseguramiento de calidad autónomas. Esto aumenta los riesgos asociados a la IA generativa, ya que agrega nuevas capas de agencia legal y responsabilidad por las acciones de la herramienta.
Evolución de la regulación de IA
La regulación de la IA está en constante cambio en respuesta a la tecnología. La Ley de IA de la UE se considera un enfoque clave, clasificando los sistemas de IA en categorías según su riesgo y estableciendo obligaciones proporcionales.
En el Reino Unido, se está implementando un enfoque pro-innovación, empoderando a reguladores existentes para manejar la tecnología. En China, la regulación se centra en la transparencia algorítmica y el consentimiento explícito del usuario.
En los Estados Unidos, la regulación varía según el estado, y las agencias federales emiten orientaciones bajo estatutos existentes. Una práctica recomendada para las organizaciones es alinear su gobernanza de IA con los estándares más estrictos aplicables.
Principios emergentes en la regulación de IA
La transparencia es crucial, y la Ley de IA de la UE exige etiquetado para contenidos generados por IA. La justicia y la no discriminación también son temas emergentes, donde se requiere detección y mitigación de sesgos para sistemas de alto riesgo. La responsabilidad es otro tema, exigiendo sistemas formales de gestión de riesgos para IA clasificada como de mayor riesgo.
La supervisión humana es cada vez más relevante, con regulaciones que exigen que un humano pueda intervenir en sistemas de alto riesgo.
Riesgos legales de la IA
Las organizaciones que consideran usar IA enfrentan varios riesgos legales prioritarios. La cumplimiento jurisdiccional es un desafío debido a la variabilidad en las regulaciones. La propiedad intelectual presenta riesgos, ya que los activos generados por IA pueden no ser protegidos por derechos de autor.
Además, el uso de herramientas de IA puede plantear riesgos de privacidad de datos y confidencialidad. Los sesgos algorítmicos pueden amplificar los riesgos existentes, como se evidenció en un caso de una herramienta de reclutamiento que mostró sesgo contra mujeres.
Finalmente, las responsabilidades contractuales requieren atención, ya que los acuerdos estándar pueden ser insuficientes en la era de la IA.
Conclusión
La IA presenta oportunidades y desafíos significativos para las organizaciones. Con la creciente integración de la IA en múltiples sectores comerciales, el papel del departamento legal ha cambiado de ser un guardián reactivo a un asesor estratégico proactivo. Comprender las regulaciones existentes y establecer un marco de gobernanza sólido es esencial para innovar de manera responsable.