Regulaciones Globales de IA y su Impacto en la Industria

Regulaciones Globales de IA y su Impacto en los Líderes de la Industria

Incertidumbre Regulatoria en la IA

Actualmente, existe una significativa incertidumbre regulatoria en la supervisión de la IA a nivel global, principalmente debido al paisaje legal fragmentado entre países, lo que dificulta la gobernanza efectiva de los sistemas de IA transnacionales. Por ejemplo, un estudio de Nature de 2024 señala que la falta de ley internacional armonizada complica la innovación en IA, haciendo que las organizaciones tengan dificultades para entender qué estándares se aplican en diferentes jurisdicciones.

La ausencia de marcos robustos de gobernanza y gestión de riesgos en IA expone a las organizaciones a riesgos operativos, éticos y financieros. Un fallo en el cumplimiento puede resultar costoso: las multas bajo la Ley de IA de la UE pueden alcanzar hasta 40 millones de euros o el 7% de los ingresos globales en caso de violaciones severas.

Gestión de Riesgos de IA

En un reciente episodio del podcast ‘AI in Business’, se discutió cómo las empresas deben gestionar activamente los crecientes riesgos de IA estableciendo marcos de gobernanza, definiendo tolerancia al riesgo y reduciendo el riesgo de agregación mediante diversificación de modelos y ajustes específicos de tareas.

Construyendo Gobernanza y Responsabilidad

Se comparan las diferencias en la regulación de IA entre la UE y EE.UU.:

  • La UE crea regulaciones de forma anticipada, estableciendo reglas y requisitos claros antes de que surjan problemas.
  • EE.UU. a menudo forma su enfoque a través del litigio, donde los casos judiciales establecen precedentes y mejores prácticas con el tiempo.

Para las empresas globales, esta diferencia significa que deben adaptar los despliegues de IA a los requisitos de cada jurisdicción, lo que aumenta la carga de cumplimiento pero también fomenta una reflexión más clara sobre los riesgos.

Un ejemplo mencionado involucra a un chatbot de una aerolínea que proporcionó información incorrecta sobre políticas de descuentos, lo que llevó a la aerolínea a ser considerada responsable, a pesar de no haber desarrollado el modelo. Esto aclara quién es responsable de los resultados de IA y ayuda a las empresas a mejorar su gestión de riesgos.

Gestión de Riesgos con Estrategia de Gobernanza

La conversación sobre IA ha madurado, reconociendo que su potencial siempre viene acompañado de riesgo, el cual debe ser gestionado activamente. Esto incluye definir niveles de tolerancia al riesgo, implementar medidas de mitigación que vayan más allá de los requisitos regulatorios y considerar el seguros de IA como parte de la estrategia para cubrir posibles responsabilidades.

El riesgo aumenta a medida que se desarrollan más casos de uso de IA y se ponen en producción modelos interactivos. Cada modelo adicional conlleva la posibilidad de errores, lo que puede generar costos financieros.

Discriminación Sistemática y Riesgos de Agregación

El riesgo se vuelve más serio en casos sensibles donde las decisiones de IA afectan directamente a los consumidores. Si un modelo de IA se encuentra discriminatorio, puede tener un impacto sistemático en muchos grupos de consumidores.

La discriminación sistemática puede surgir porque, aunque la toma de decisiones humana también puede involucrar discriminación, esta suele ser menos sistemática. Con IA, si un modelo es sesgado, ese sesgo se puede aplicar de manera consistente y a gran escala.

Modelos Específicos y Diversificación

Se argumenta que los modelos más pequeños y específicos de tareas son mejores desde una perspectiva de riesgo, ya que sus casos de uso están claramente definidos. Estos modelos son más fáciles de probar, medir tasas de error y son menos propensos a cambios de rendimiento impredecibles.

Un ejemplo que se cita es la actualización de GPT-4 en 2023, donde un modelo que tenía tasas de error por debajo del 5% para ciertas tareas experimentó un aumento de errores a más del 90% después de ser reentrenado. Esta diferencia subraya la fragilidad de los modelos más grandes.

Para abordar estos problemas, se recomienda a las empresas considerar el uso de diferentes modelos fundamentales o incluso elegir intencionalmente una arquitectura de modelo ligeramente más débil, si no está relacionada con otras utilizadas en la organización para tareas similares.

En conclusión, la diversificación puede ayudar a reducir el riesgo de agregación mientras se mantiene un rendimiento adecuado.

More Insights

Política de IA en Universidades y CEGEPs de Quebec

El gobierno de Quebec ha lanzado una nueva política de inteligencia artificial para universidades y CEGEPs, con directrices que abordan el uso ético y la implementación de la IA en la educación...

Implementación de la Ley de IA en Alemania

Las autoridades existentes en Alemania asumirán la responsabilidad de supervisar el cumplimiento de las empresas con la Ley de IA de la UE, con un papel mejorado para la Agencia Federal de Redes...

Gobernanza de IA en la Economía de Cero Confianza

En 2025, la gobernanza de la inteligencia artificial se ha vuelto esencial en una economía de confianza cero, donde las empresas deben verificar continuamente la seguridad y la ética de sus sistemas...

Marco de IA del gobierno: ¿Secretaría técnica en lugar de regulador?

El próximo marco de gobernanza sobre inteligencia artificial puede contar con un "secretariado técnico" para coordinar políticas de IA entre departamentos gubernamentales, en lugar de un regulador...

Seguridad y Sostenibilidad en la Innovación de IA para el Mundo Global

La seguridad y la protección de la inteligencia artificial son fundamentales para fomentar la innovación en los países de la mayoría global. Invertir en estas áreas no debe verse como un obstáculo...

Enfoques de gobernanza de IA en ASEAN: retos y oportunidades

ASEAN ha optado por un enfoque de gobernanza de IA basado en principios voluntarios, permitiendo a los estados miembros adoptar diferentes caminos en sus políticas de IA. Sin embargo, esto podría...

Italia lidera la UE con una ley integral sobre el uso de la inteligencia artificial

Italia se ha convertido en el primer país de la UE en aprobar una ley integral que regula el uso de la inteligencia artificial, imponiendo penas de prisión a quienes utilicen la tecnología para causar...

Implementación Ética de la IA en Ucrania: Regulaciones y Desafíos

En junio, 14 empresas de TI ucranianas crearon una organización autorreguladora para apoyar enfoques éticos en la implementación de la inteligencia artificial en Ucrania. Esta organización tiene como...