La nueva Ley Básica de IA de Corea: Características y Significado
El presidente ha definido claramente la inteligencia artificial (IA) como un «cambio de juego» que transformará el paradigma económico global, presentándola como un motor central para el crecimiento tecnológico de Corea del Sur durante su mandato.
En línea con esta estrategia nacional, la nueva Ley Básica de IA entró en vigor en enero de 2026. Similar a la Ley de IA de la UE, regula los sistemas de IA que presentan riesgos significativos para la vida humana, la seguridad física y los derechos fundamentales, mientras refleja los compromisos del gobierno para desarrollar tecnología de IA y asegurar la seguridad de la población.
Aunque la aplicación de las disposiciones de penalización se ha pospuesto por un año, está atrayendo la atención global como la primera ley del mundo que implementa regulaciones obligatorias para los operadores comerciales de IA de alto impacto.
Definición y Regulación de la IA de Alto Impacto
La definición de «IA de alto impacto» en la Ley Básica de IA es idéntica a la de «sistema de alto riesgo» en la Ley de IA de la UE, sugiriendo que el mecanismo de regulación de los operadores es muy similar. Sin embargo, la Ley Básica de IA se caracteriza por un sistema donde los operadores comerciales primero toman medidas voluntarias para asegurar la seguridad y fiabilidad de la IA, con supervisión posterior por parte del Ministro de Ciencia y TIC.
Si bien existen sanciones administrativas por violaciones, la multa máxima es de 30 millones de KRW (aproximadamente 20,300 USD). Específicamente, la Ley Básica de IA carece del mismo nivel de aplicación obligatoria a través de sanciones como la Ley de IA de la UE. Requiere que los operadores de IA se autoevalúen si caen bajo la categoría de IA de alto impacto y recomienda que establezcan planes de gestión de riesgos.
Comparación con la Ley de IA de la UE
A diferencia del sistema regulatorio de la Ley de IA de la UE, que requiere que los desarrolladores de modelos de IA de alto riesgo se sometan a una evaluación de conformidad y adjunten una marca CE antes de la distribución en el mercado, no hay control obligatorio previo al mercado sobre los sistemas de IA de alto impacto a menos que el operador solicite voluntariamente la confirmación del estado de alto impacto al Ministro de Ciencia y TIC.
La Ley Básica de IA establece un sistema de gestión y supervisión para la IA de alto impacto para proteger a los usuarios a través de regulaciones, pero también estipula el apoyo y promoción del gobierno para la utilización de la IA. Define el papel del gobierno como el apoyo al desarrollo de tecnología de IA, uso seguro y estandarización tecnológica.
Además, se prioriza a las pequeñas y medianas empresas en la implementación de medidas de apoyo a la industria de IA y se incluyen disposiciones para promover startups y atraer inversión extranjera.
Obligaciones de Seguridad y Transparencia
La Ley Básica de IA enumera las obligaciones de aseguramiento de la seguridad para los operadores de IA de alto impacto, como la identificación, evaluación y mitigación de riesgos durante todo el ciclo de vida del modelo, similar a la Ley de IA de la UE. Sin embargo, el umbral de cálculo acumulativo para el entrenamiento se establece 10 veces más alto que el de la UE, excluyendo efectivamente a los operadores nacionales de estas regulaciones.
En otras palabras, la Ley Básica de IA parece fomentar el desarrollo de modelos de IA especializados industrialmente a través de una brecha regulatoria intencionada para modelos de IA de superescala. Aunque la Ley Básica de IA enumera 10 áreas de alto impacto reguladas, su alcance puede ser más estrecho en comparación con la Ley de IA de la UE.
Por ejemplo, en la industria financiera, la Ley Básica de IA considera «juicios o evaluaciones en la selección de préstamos» como áreas de alto impacto, haciendo que su aplicación práctica sea mucho más limitada en comparación con el «solvencia» y «puntuación crediticia» regulados por la Ley de IA de la UE.
Implicaciones y Conclusiones
La Ley Básica de IA protege a los usuarios finales al imponer una obligación de transparencia para notificar o mostrar el hecho de que se está utilizando IA al proporcionar productos o servicios. A diferencia de la Ley de IA de la UE, que impone obligaciones de transparencia a los proveedores de modelos, la Ley Básica de IA solo exige la obligación de transparencia en informar al usuario final sobre el uso de la IA.
La ausencia de disposiciones especiales para la IA generativa en la Ley Básica de IA plantea preocupaciones sobre el cumplimiento de la legislación de derechos de autor. Dado que la Ley de Derechos de Autor actual carece de cláusulas de excepción como TDM (minería de texto y datos), las disputas por infracción de derechos de autor durante el entrenamiento y desarrollo de modelos de IA podrían convertirse en un problema legal significativo.
Con la creación de un Comité Nacional de Estrategia de IA, se espera que se tomen decisiones sobre políticas importantes para el desarrollo de la IA, confirmando la fuerte voluntad de priorizar el objetivo nacional de convertir a Corea del Sur en una de las tres principales potencias globales en IA.
En resumen, aunque la Ley Básica de IA establece un marco regulatorio para la IA de alto impacto, su enfoque en la autoevaluación y la falta de controles obligatorios previos al mercado destacan diferencias significativas con respecto a la Ley de IA de la UE.