Estudio sobre la Ley de Inteligencia Artificial
La Ley de Inteligencia Artificial (AI Act) es una legislación de la Unión Europea (UE) que busca mejorar la experiencia, privacidad y seguridad de los ciudadanos de la UE al utilizar sistemas de inteligencia artificial (IA). Esta ley establece limitaciones para las corporaciones y otras entidades que utilizan IA en la recopilación o difusión de información, con el objetivo de proteger a los ciudadanos de la discriminación que puede surgir cuando la IA toma decisiones que favorecen a ciertos grupos sobre otros.
Antecedentes y cronología
La primera propuesta para regular la IA en la UE fue presentada por la Comisión Europea en abril de 2021. Tras tres años de deliberación y revisión, el Consejo Europeo adoptó la AI Act el 21 de mayo de 2024. Aunque la ley entró en vigor en agosto de 2024, su aplicación se llevará a cabo en dos fases, en agosto de 2025 y agosto de 2026, lo que permite a las empresas ajustar sus prácticas.
Categorización de sistemas de IA
La AI Act clasifica los sistemas de IA en diferentes niveles de riesgo:
Riesgo Inaceptable
Los sistemas de IA que representan un riesgo inaceptable están prohibidos. Estos incluyen:
- Manipulación o engaño a los usuarios, como información generada por IA que no ha sido verificada y puede llevar a comportamientos riesgosos.
- Discriminación contra grupos sociales específicos, como vehículos autónomos que no pueden detectar a peatones de diversas tonalidades de piel.
- Asignación de un puntaje social a individuos, similar a prácticas utilizadas por el gobierno chino.
- Creación de bases de datos sobre individuos propensos a cometer delitos.
Riesgo Alto
Los sistemas de IA de alto riesgo son objeto de un estricto control, pero no están prohibidos. Incluyen:
- Infraestructura crítica de seguridad, como controles de semáforos y dispositivos médicos.
- AI biométrico, que debe cumplir con regulaciones específicas para evitar discriminación.
- Sistemas relacionados con el empleo, que pueden llevar a discriminación en prácticas de contratación.
Riesgo Limitado
Los sistemas de IA de riesgo limitado tienen algún potencial para manipular a los consumidores, pero en menor medida. Esto es especialmente relevante para sistemas generativos y chatbots. Las empresas deben divulgar si distribuyen contenido generado por IA, para que los usuarios puedan distinguir entre imágenes y videos reales y generados.
Riesgo Mínimo
El riesgo mínimo se refiere a sistemas que no violan inherentemente los derechos de los consumidores y se espera que sigan principios de no discriminación. Las empresas deben notificar a los individuos si sus trabajos se utilizan para entrenar modelos de IA generativa.
Resistencia de las grandes tecnológicas
Muchas grandes empresas tecnológicas, como Meta y OpenAI, han calificado estas regulaciones como cumbersome (engorrosas), especialmente la obligación de notificar a las personas si su trabajo ha sido utilizado en datos de entrenamiento. Argumentan que tales regulaciones ralentizarán la innovación y que la UE podría quedarse atrás en la adopción de IA.
El CEO de OpenAI, Sam Altman, durante una discusión en un panel, instó a Europa a aceptar la IA como el futuro, insinuando impaciencia con el despliegue de IA debido a las restricciones de la UE. Asimismo, un lobista de Meta comparó las multas tecnológicas de la UE con aranceles, enfatizando la importancia de la innovación.