Croacia se prepara para la Ley de IA
Recientemente, se llevó a cabo un evento en Croacia para discutir el impacto de la inteligencia artificial (IA) en los derechos humanos. Este evento, organizado por Politiscope, reunió a periodistas y activistas con el objetivo de crear conciencia sobre los peligros asociados a la IA y de influir en la futura política nacional para incorporar salvaguardas que protejan los derechos de las personas.
Evento de Politiscope: IA y su impacto en las personas y sus derechos
El evento tuvo lugar en la Asociación de Periodistas Croatas y fue crucial en un momento en que Croacia se prepara para implementar la Ley de IA de la UE. Las decisiones clave, como la designación de la autoridad de ejecución, aún están pendientes, lo que convierte este momento en una oportunidad vital para abordar los daños relacionados con la IA y para influir en futuras políticas que incorporen salvaguardias de derechos humanos en la legislación nacional.
Tras la adopción de la Ley de IA de la UE en mayo de 2024, el gobierno croata formó un grupo de trabajo reciente para redactar la ley nacional que implementará dicha legislación.
Riesgos de la IA: vigilancia, discriminación y sistemas injustos
El evento comenzó con una poderosa advertencia sobre cómo la tecnología puede afectar la vida cotidiana de las personas si no se regula adecuadamente. Vanja Skoric, Director de Programa de ECNL, un miembro de EDRi, destacó que la IA puede amenazar la privacidad, la igualdad y otros derechos.
Ella Jakubowska, Jefa de Política de EDRi, presentó a Protect Not Surveil, una coalición que trabaja para garantizar salvaguardas para las personas en movimiento contra los daños de la tecnología, como la IA. También se discutió la campaña Reclaim Your Face, que demanda una prohibición de la vigilancia biométrica masiva. Los participantes vieron cómo los sistemas de vigilancia biométrica son a menudo inexactos, intrusivos y afectan desproporcionadamente a las comunidades marginadas.
Otros oradores compartieron ejemplos reales de daños causados por sistemas de IA. Jelle Klaas de PILP describió cómo el litigio estratégico en los Países Bajos llevó a la eliminación de algoritmos discriminatorios utilizados por los bancos para el perfilado de terrorismo. Filip Milošević de la SHARE Foundation expuso cómo la sociedad civil detuvo con éxito el despliegue de la vigilancia biométrica en Serbia. Nađa Marković de la A11 Initiative presentó hallazgos preocupantes sobre cómo los sistemas automatizados niegan injustamente beneficios sociales a personas vulnerables. Marija Renić de Ekran i Osmijeh explicó cómo los algoritmos de redes sociales influyen sutilmente en las prácticas de crianza. Tamara Zavišić de ETIK.AI advirtió que las definiciones corporativas de «valores» y «seguridad» construidas en los modelos de IA a menudo carecen de transparencia y responsabilidad.
En lugar de las narrativas habituales de tecno-solucionismo y tecno-catastrofismo, el evento de Politiscope se centró en resaltar los riesgos y daños reales a los derechos fundamentales que ocurren hoy en día. Al aumentar la conciencia sobre el sesgo algorítmico, la discriminación y la vigilancia ilegal, el evento marcó el primer paso para destacar la urgente necesidad de un impulso colectivo hacia protecciones más fuertes y responsabilidad.
Caminos a seguir: Integrar la perspectiva de derechos humanos en la gobernanza de la IA
Durante el evento, Duje Prkut de Politiscope introdujo la Ley de IA de la UE y explicó cómo la próxima ley nacional de Croacia dará forma al futuro de la gobernanza de la IA. Un panel de expertos, que incluía representantes de la Agencia de Protección de Datos de Croacia, la SHARE Foundation y Danes je nov dan, discutió la importancia de ir más allá de los requisitos mínimos de la Ley de IA de la UE.
Maja Cimerman presentó el Registro de Uso Público de IA, que establece un estándar más alto de transparencia documentando dónde y cómo se utiliza la IA en instituciones públicas, permitiendo la supervisión y responsabilidad pública. Iniciativas como esta demuestran que soluciones proactivas y centradas en el ciudadano son posibles y efectivas.
Politiscope ofreció las siguientes recomendaciones para la gobernanza de la IA en Croacia:
- Registro público de todas las IA y algoritmos utilizados por la administración pública y estatal
- Prohibición de la vigilancia biométrica en tiempo real en espacios públicos
- Participación significativa de la sociedad civil en el desarrollo del marco legal y político nacional de IA
- Designar a la APD como la única autoridad de vigilancia del mercado para hacer cumplir la Ley de IA en Croacia
Democratizando la política de IA: Demandas de apertura y participación
Politiscope ha presentado sus recomendaciones al grupo de trabajo bajo el Ministerio de Justicia, Judicial y Transición Digital, responsable de redactar el acto de implementación de la Ley de IA de la UE. Ninguna organización de la sociedad civil (CSO) ha sido incluida en este grupo de trabajo.
Representantes de la Agencia de Protección de Datos, el Defensor del Pueblo y la principal asociación privada de IA, CroAI, han expresado apoyo para incluir a Politiscope y otras CSOs en el grupo de trabajo. Los procesos legislativos y de elaboración de políticas en Croacia se están volviendo cada vez más centralizados y opacos.
Aunque las asociaciones del sector privado y los sindicatos suelen estar incluidos en los grupos de trabajo debido al cumplimiento de los principios de diálogo social, las CSOs siguen siendo el sector más subrepresentado. Se están llevando a cabo actividades para promover y garantizar la participación de las CSOs en los procesos de toma de decisiones relacionados con los derechos digitales, incluida la Ley de IA. Politiscope continuará presionando por procesos legislativos y de políticas más inclusivos y transparentes.
La conferencia temática organizada por Politiscope fue el primer evento en vivo específico de IA en Croacia organizado por una ONG o una organización de vigilancia. Fue un modesto primer paso para reunir a actores cívicos y periodistas interesados en el desarrollo y uso seguro, transparente y ético de la IA.