La falta de sostenibilidad en la gobernanza de la IA en la UE, EE. UU. y China

La gobernanza de la IA en la UE, EE. UU. y China no aborda el aumento de la huella energética y de carbono

La política de inteligencia artificial (IA) en las principales economías del mundo está expandiéndose rápidamente, pero su costo ambiental sigue siendo en gran medida invisible. Mientras los gobiernos se apresuran a regular los riesgos de la IA relacionados con la seguridad, el sesgo y la responsabilidad, la huella física de la computación a gran escala continúa creciendo sin restricciones.

Un nuevo estudio examina las políticas de IA en la Unión Europea, Estados Unidos y China, y encuentra que, a pesar de las marcadas diferencias en los sistemas políticos y estilos regulatorios, todos los regímenes convergen en el mismo resultado: ninguno trata la sostenibilidad ambiental como una restricción vinculante para el despliegue o la escala de la IA.

Sostenibilidad como una reflexión tardía en la gobernanza de la IA

Los sistemas de IA dependen de centros de datos, clústeres de computación de alto rendimiento, redes de nube globales y cadenas de suministro de hardware intensivas en minerales. Estas infraestructuras requieren electricidad continua, agua para refrigeración, tierra para instalaciones y procesos de fabricación que emiten carbono. Sin embargo, la mayoría de las regulaciones de IA tratan la sostenibilidad como una preocupación secundaria, abordada a través de mejoras de eficiencia o compromisos voluntarios en lugar de límites exigibles.

Las ganancias de eficiencia, aunque reales, son superadas constantemente por el crecimiento de la demanda computacional total. Sin límites absolutos, las mejoras en el rendimiento por vatio no se traducen en menores emisiones.

Resultados similares en diferentes sistemas

El estudio realiza un análisis comparativo de los regímenes de política de IA en la Unión Europea, Estados Unidos y China. Aunque estos territorios difieren marcadamente en estilo de gobernanza y mecanismos de aplicación, el estudio encuentra una sorprendente convergencia en cómo se manejan los problemas ambientales.

En la Unión Europea, la gobernanza de la IA se basa en un marco exhaustivo centrado en los derechos, pero carece de disposiciones vinculantes sobre el consumo de energía o las emisiones de carbono. En los Estados Unidos, la gobernanza federal es fragmentada y carece de límites ambientales específicos, mientras que en China, aunque hay consideraciones ambientales, no se imponen límites absolutos al crecimiento computacional.

La externalización de costos ambientales

El estudio identifica varios mecanismos que explican por qué la externalización ambiental persiste. Uno de los impulsores clave es la expansión computacional impulsada por el cumplimiento de requisitos de seguridad y transparencia. Además, la duplicación de infraestructura debido a la soberanía tecnológica puede conducir a un uso de energía más alto.

El estudio enfatiza que esta dinámica no proviene de una falta de conciencia sobre la huella ambiental de la IA, sino de una elección de gobernanza que trata la sostenibilidad como externa a las decisiones sobre la escala y el despliegue de la IA.

La necesidad de límites ambientales vinculantes

Abordar el impacto ambiental de la IA requiere un cambio en el diseño de políticas. La sostenibilidad debe considerarse una condición vinculante que dé forma a la manera en que se despliegan los sistemas de IA. Sin este cambio, la gobernanza de la IA continuará priorizando el crecimiento y la competitividad a expensas de los objetivos climáticos.

El estudio sugiere que se deben integrar límites ambientales en la política de IA, incluyendo presupuestos de carbono exigibles para el entrenamiento de modelos a gran escala y requisitos de informes de emisiones y energía específicamente vinculados a los sistemas de IA.

Sin límites vinculantes, los beneficios sectoriales se ven abrumados por el crecimiento agregado. La integración de restricciones ambientales implicará compensaciones, pero no implica abandonar las medidas de protección de derechos o seguridad.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...