Por qué Corea del Sur busca ser la primera en regular la IA
Con solo unas semanas restantes antes de que Corea del Sur implemente la primera ley integral sobre inteligencia artificial (IA) del mundo, la inquietud se está extendiendo por el sector tecnológico del país.
Se ha prometido un período de gracia de un año; sin embargo, muchas empresas aún no están claras sobre lo que la ley espera exactamente de ellas.
Marco de la Ley de IA
La Ley del Marco de IA, aprobada por la Asamblea Nacional en diciembre de 2024 y programada para entrar en vigencia el 22 de enero, es el primer intento de cualquier país de regular y promover la IA bajo un único marco legal unificado. Esto marca la ambición de Corea de unirse a los «AI G3», junto a EE.UU. y China.
El momento no es fortuito. Mientras que la Unión Europea aprobó su Ley de IA primero, las disposiciones clave no entrarán en vigor hasta 2027. En contraste, Corea está lista para avanzar primero en términos reales, no solo con legislación, sino con implementación práctica.
Con Washington atrapado en un estancamiento partidista sobre la legislación de IA y Bruselas ocupada en recalibrar su conjunto de reglas, Seúl huele la oportunidad y no está esperando. Argumentan que al actuar temprano, Corea podría moldear las normas globales, no desde la periferia, sino desde la primera fila. Es una puja por la influencia que supera con creces el tamaño del país.
Principios y obligaciones
Los responsables políticos afirman que se trata de algo más que simbolismo. La acción temprana, argumentan, permitirá a Corea ayudar a definir la conversación internacional sobre ética y seguridad en la IA, particularmente en un momento en que las reglas globales siguen en flujo. Mientras EE.UU. se centra en su interior y la UE avanza lentamente, Corea apuesta por la ventaja del primer en mover.
Sin embargo, no todos están convencidos. Los críticos advierten que esto puede ser más sobre titulares que sobre gobernanza. Algunos advierten que las empresas podrían verse sorprendidas por estándares ambiguos y cronogramas apresurados.
En el corazón del enfoque de Corea está un principio de «innovación primero». La ley permite a las empresas desarrollar y desplegar sistemas de IA sin aprobación previa del gobierno. Es un cambio claro respecto a los modelos de precaución y un intento deliberado de eliminar los cuellos de botella regulatorios que han ralentizado la innovación tecnológica.
Pero la promoción viene con obligaciones. La ley manda apoyo estatal para el avance de la IA, incluyendo financiamiento para centros de datos especializados, programas de estandarización y capacitación de la fuerza laboral.
Define una nueva categoría: «IA de alto impacto». Estos son sistemas utilizados en campos sensibles – dispositivos médicos, infraestructura energética, algoritmos de contratación y control de instalaciones nucleares – donde el fracaso podría conllevar riesgos serios.
Las empresas que operen tales sistemas deberán realizar evaluaciones de riesgo internas y monitoreos continuos. También necesitarán reportar sus protocolos de seguridad a los organismos gubernamentales. Las obligaciones no son voluntarias; están respaldadas legalmente.
Confusión creciente
El gobierno espera que la nueva ley refuerce la posición de Corea como uno de los tres principales actores en IA del mundo. Ha designado formalmente la IA como una industria estratégica nacional y ha establecido una base legal destinada a acelerar la innovación.
Sin embargo, el mensaje no ha llegado de manera uniforme. Muchos en la industria dicen que aún están en la oscuridad. Algunos apuntan a definiciones vagas. Otros expresan preocupaciones sobre las cargas de cumplimiento. Entre las startups y los desarrolladores, la confusión parece ser generalizada.
Como resultado, algunas empresas están frenando. Los lanzamientos de productos y actualizaciones se han retrasado, no por protesta, sino por incertidumbre. Una reciente encuesta encontró que el 98 por ciento de las startups locales de IA aún no habían iniciado pasos formales de cumplimiento, citando orientación poco clara.
Una de las exigencias particularmente complicadas es la marcación de contenido generado por IA. Desde el punto de vista técnico, esto no es tarea sencilla, especialmente cuando se utilizan herramientas de código abierto y propietarias juntas.
Período de gracia de un año
Los grupos cívicos también están sonando alarmas. Sin supervisión independiente o sanciones significativas, argumentan que la ley corre el riesgo de convertirse en más simbólica que sustantiva. Se han señalado sesgos algorítmicos y vigilancia biométrica como áreas que necesitan controles más estrictos.
Los funcionarios admiten que el despliegue no será perfecto. Pero enfatizan que la ley está destinada a evolucionar. “No podemos retrasar indefinidamente”, dicen. “Eso solo socavaría la competitividad de Corea en la carrera global de IA.”
Para facilitar la transición, el gobierno ha introducido un período de gracia de un año. Durante este tiempo, las sanciones se suspenderán. El objetivo, dicen los funcionarios, no es castigar, sino ayudar a la industria a prepararse.
“Esto es solo el principio”, concluyen. “La verdadera prueba será cómo estos principios se desarrollen en escenarios del mundo real.”