Los Gigantes Tecnológicos se Oponen en un Momento Crucial para la Ley de IA de la UE
La Ley de IA de la UE ha sido aclamada como el conjunto de regulaciones más completo sobre inteligencia artificial en el planeta. Sin embargo, se trata de un conjunto de principios generales sin detalles para su implementación.
El verdadero trabajo se centra en el Código de Práctica para modelos de IA de propósito general, que detalla los requisitos de cumplimiento para las empresas de IA.
Muchos fuera de Europa han dejado de prestar atención a la Ley de IA de la UE, considerándola un acuerdo ya cerrado. Este es un terrible error. La verdadera lucha está ocurriendo en este momento.
El Código de Práctica y su Importancia
El código de práctica pasará por tres borradores antes de ser finalizado a finales de abril. Estos requisitos voluntarios entrarán en vigor en agosto.
Sin embargo, el tercer borrador debería haberse publicado el 17 de febrero, pero ahora está retrasado, con indicios de que no estará disponible durante un mes, según Risto Uuk, jefe de política y investigación de la Future of Life Institute.
Uuk cree que el retraso del borrador se debe a la presión de la industria tecnológica. Las reglas para los modelos de IA que representan un riesgo sistémico son particularmente complicadas, y se aplican a 10 a 15 de los mayores modelos creados por OpenAI, Google, Meta, Anthropic, xAI y otros.
La Resistencia de las Empresas Tecnológicas
Las grandes empresas tecnológicas están desafiando audazmente las regulaciones de la UE, creyendo que contarán con el apoyo de la administración Trump, según el Financial Times. Meta ha enviado lobbistas tecnológicos a la UE para suavizar la Ley de IA.
El FT también informó que Meta se negó a firmar el código de práctica, que es un acuerdo de cumplimiento voluntario, mientras que Kent Walker, presidente de asuntos globales de Google, afirmó que el código de práctica era un “paso en la dirección equivocada” en un momento en que Europa desea ser más competitiva.
Algunas de las cuestiones en disputa giran en torno a cómo se utiliza el material protegido por derechos de autor para el entrenamiento. Otra es la necesidad de que un tercero independiente evalúe sus modelos en cuanto a riesgos.
Se han quejado de que el código va más allá de los requisitos de la Ley de IA de la UE. Sin embargo, Uuk señaló que muchas de estas prácticas ya se ejercen en colaboración con el Instituto de Seguridad de IA del Reino Unido y otros. Las empresas tecnológicas también publican sus informes técnicos públicamente.
Uuk expresó su preocupación de que la UE debilite las disposiciones de seguridad debido a la oposición de las empresas tecnológicas. También notó que la nueva administración de la Comisión Europea, que asumió el cargo en diciembre pasado, tiende a reducir la burocracia, simplificar las reglas y aumentar la innovación.
El Impacto de la Carta de Pausa de la IA
El Future of Life Institute es quizás más conocido en los círculos de IA como la organización que circuló una carta abierta en marzo de 2023 pidiendo una moratoria de seis meses sobre los modelos avanzados de IA hasta que se desarrollaran protocolos de seguridad. La carta fue firmada por importantes figuras como el CEO de Tesla, Elon Musk, y el cofundador de Apple, Steve Wozniak.
¿Funcionó la carta? Uuk afirmó que no hubo pausa en el desarrollo de la IA y que el rápido avance de la IA ha continuado. Además, “muchas de estas empresas de IA no han aumentado su trabajo de seguridad, que es lo que la carta de ‘pausa’ pedía”, agregó Uuk.
Progreso Regulatorio Global
A pesar de que las empresas tecnológicas continuaron desarrollando sus modelos, las acciones regulatorias han ganado impulso a nivel global. Uuk señaló lo siguiente:
- La Ley de IA de la UE se convirtió en la primera regulación de IA integral del mundo, adoptada en marzo de 2024.
- Corea del Sur adoptó la Ley Básica de IA en diciembre pasado, reflejando el marco de la UE.
- China ha estado introduciendo políticas de gobernanza de IA, mientras que Brasil trabaja en su propia Ley de IA.
- En EE.UU., la situación permanece fragmentada, con estados introduciendo sus propias leyes.
Sin embargo, Uuk expresó su decepción por la Cumbre de Acción sobre IA de este año en París, que siguió a las dos primeras en el Reino Unido y Corea del Sur. A diferencia de las cumbres anteriores, la cumbre de París se inclinó hacia la promoción de la innovación en IA, con “apenas discusión sobre la seguridad”.