Regulaciones Globales de IA y su Impacto en la Industria

Regulaciones Globales de IA y su Impacto en los Líderes de la Industria

Incertidumbre Regulatoria en la IA

Actualmente, existe una significativa incertidumbre regulatoria en la supervisión de la IA a nivel global, principalmente debido al paisaje legal fragmentado entre países, lo que dificulta la gobernanza efectiva de los sistemas de IA transnacionales. Por ejemplo, un estudio de Nature de 2024 señala que la falta de ley internacional armonizada complica la innovación en IA, haciendo que las organizaciones tengan dificultades para entender qué estándares se aplican en diferentes jurisdicciones.

La ausencia de marcos robustos de gobernanza y gestión de riesgos en IA expone a las organizaciones a riesgos operativos, éticos y financieros. Un fallo en el cumplimiento puede resultar costoso: las multas bajo la Ley de IA de la UE pueden alcanzar hasta 40 millones de euros o el 7% de los ingresos globales en caso de violaciones severas.

Gestión de Riesgos de IA

En un reciente episodio del podcast ‘AI in Business’, se discutió cómo las empresas deben gestionar activamente los crecientes riesgos de IA estableciendo marcos de gobernanza, definiendo tolerancia al riesgo y reduciendo el riesgo de agregación mediante diversificación de modelos y ajustes específicos de tareas.

Construyendo Gobernanza y Responsabilidad

Se comparan las diferencias en la regulación de IA entre la UE y EE.UU.:

  • La UE crea regulaciones de forma anticipada, estableciendo reglas y requisitos claros antes de que surjan problemas.
  • EE.UU. a menudo forma su enfoque a través del litigio, donde los casos judiciales establecen precedentes y mejores prácticas con el tiempo.

Para las empresas globales, esta diferencia significa que deben adaptar los despliegues de IA a los requisitos de cada jurisdicción, lo que aumenta la carga de cumplimiento pero también fomenta una reflexión más clara sobre los riesgos.

Un ejemplo mencionado involucra a un chatbot de una aerolínea que proporcionó información incorrecta sobre políticas de descuentos, lo que llevó a la aerolínea a ser considerada responsable, a pesar de no haber desarrollado el modelo. Esto aclara quién es responsable de los resultados de IA y ayuda a las empresas a mejorar su gestión de riesgos.

Gestión de Riesgos con Estrategia de Gobernanza

La conversación sobre IA ha madurado, reconociendo que su potencial siempre viene acompañado de riesgo, el cual debe ser gestionado activamente. Esto incluye definir niveles de tolerancia al riesgo, implementar medidas de mitigación que vayan más allá de los requisitos regulatorios y considerar el seguros de IA como parte de la estrategia para cubrir posibles responsabilidades.

El riesgo aumenta a medida que se desarrollan más casos de uso de IA y se ponen en producción modelos interactivos. Cada modelo adicional conlleva la posibilidad de errores, lo que puede generar costos financieros.

Discriminación Sistemática y Riesgos de Agregación

El riesgo se vuelve más serio en casos sensibles donde las decisiones de IA afectan directamente a los consumidores. Si un modelo de IA se encuentra discriminatorio, puede tener un impacto sistemático en muchos grupos de consumidores.

La discriminación sistemática puede surgir porque, aunque la toma de decisiones humana también puede involucrar discriminación, esta suele ser menos sistemática. Con IA, si un modelo es sesgado, ese sesgo se puede aplicar de manera consistente y a gran escala.

Modelos Específicos y Diversificación

Se argumenta que los modelos más pequeños y específicos de tareas son mejores desde una perspectiva de riesgo, ya que sus casos de uso están claramente definidos. Estos modelos son más fáciles de probar, medir tasas de error y son menos propensos a cambios de rendimiento impredecibles.

Un ejemplo que se cita es la actualización de GPT-4 en 2023, donde un modelo que tenía tasas de error por debajo del 5% para ciertas tareas experimentó un aumento de errores a más del 90% después de ser reentrenado. Esta diferencia subraya la fragilidad de los modelos más grandes.

Para abordar estos problemas, se recomienda a las empresas considerar el uso de diferentes modelos fundamentales o incluso elegir intencionalmente una arquitectura de modelo ligeramente más débil, si no está relacionada con otras utilizadas en la organización para tareas similares.

En conclusión, la diversificación puede ayudar a reducir el riesgo de agregación mientras se mantiene un rendimiento adecuado.

More Insights

Gobernanza de la seguridad en IA: el enfoque del sudeste asiático

El informe "Gobernanza de la Seguridad de la IA, a la manera del Sudeste Asiático" destaca los desarrollos recientes en la gobernanza de la IA en 11 países de la región, proponiendo estrategias para...

La Gobernanza Privada como Clave para la Regulación Efectiva de la IA

La gobernanza privada y los "regulatory sandboxes" son clave para la democracia, la eficiencia y la innovación en la regulación de la inteligencia artificial (IA). Este enfoque permite a las empresas...

Gobernanza de IA para un Desarrollo Inclusivo en Egipto

La Ministra de Planificación y Desarrollo Económico de Egipto, Rania Al-Mashat, ha subrayado la necesidad de marcos de gobernanza robustos para garantizar que la inteligencia artificial y las...

Kenya necesita fortalecer la gobernanza de la IA en el crédito para garantizar un acceso equitativo

Kenia se encuentra en una encrucijada para aprovechar la inteligencia artificial (IA) en la inclusión financiera, pero el experto Jimmie Mwangi advierte que sin una gobernanza sólida, la puntuación...

La urgencia de gobernar las interacciones de la IA multiagente

Este mes, la empresa de transporte marítimo italiana Grimaldi Group lanzó su nuevo portacontenedores de 9,000 unidades, el Grande Tianjin, en su viaje inaugural. A medida que las empresas desarrollan...

Enfoque de Gobernanza para la Seguridad en la Era de la IA

El rápido crecimiento de la inteligencia artificial (IA) está transformando el panorama digital, amplificando los daños en línea existentes y presentando nuevos riesgos de seguridad. Un enfoque de...