Ley de IA en Corea del Sur: Innovación y Desafíos en la Regulación Tecnológica

Leyes de IA en Corea del Sur enfrentan resistencia en medio del esfuerzo por convertirse en una potencia tecnológica líder

Corea del Sur ha iniciado un camino hacia la regulación de la inteligencia artificial (IA), lanzando lo que se considera el conjunto de leyes más completo en el mundo, que podría servir como modelo para otros países. Sin embargo, esta nueva legislación ya ha encontrado oposición.

Las leyes obligarán a las empresas a etiquetar el contenido generado por IA, lo que ha sido criticado por startups tecnológicas locales que argumentan que son excesivas, y por grupos de la sociedad civil que consideran que no van lo suficientemente lejos.

Detalles de la legislación

La Ley Básica de IA, que entró en vigor la semana pasada, surge en un contexto global de creciente preocupación sobre los medios creados artificialmente y la toma de decisiones automatizada, mientras los gobiernos luchan por mantenerse al día con las tecnologías que avanzan rápidamente.

Entre las principales exigencias de la ley, se encuentra la obligación para las empresas que proporcionan servicios de IA de:

  • Añadir marcas de agua digitales invisibles para resultados claramente artificiales, como dibujos animados o obras de arte.
  • Para los deepfakes realistas, se requieren etiquetas visibles.
  • Los sistemas de «IA de alto impacto», que incluyen diagnósticos médicos, contratación y aprobaciones de préstamos, deberán someterse a evaluaciones de riesgo y documentar cómo se toman las decisiones.
  • Si un humano toma la decisión final, el sistema podría no entrar en esta categoría.
  • Los modelos de IA extremadamente potentes deberán presentar informes de seguridad, aunque el umbral establecido es tan alto que los funcionarios del gobierno reconocen que actualmente no hay modelos en el mundo que lo cumplan.

Las empresas que violen las reglas enfrentarán multas de hasta 30 millones de wones, pero el gobierno ha prometido un período de gracia de al menos un año antes de imponer sanciones.

Reacciones y críticas

La legislación se presenta como la «primera del mundo» en ser completamente aplicada por un país, y es central en la ambición de Corea del Sur de convertirse en una de las tres principales potencias de IA junto a EE. UU. y China. Los funcionarios del gobierno sostienen que la ley está enfocada en un 80-90% en promover la industria y no en restringirla.

Aunque un profesor de informática ha señalado que la ley no es perfecta, se pretende que evolucione sin sofocar la innovación. Sin embargo, una encuesta realizada en diciembre reveló que el 98% de las startups de IA no estaban preparadas para cumplir con las normativas. La frustración es generalizada, con voces que cuestionan por qué Corea del Sur debe ser la primera en implementar estas regulaciones.

Las empresas deben determinar por sí mismas si sus sistemas califican como IA de alto impacto, un proceso que los críticos consideran largo y que genera incertidumbre. También advierten sobre un desequilibrio competitivo: todas las empresas coreanas enfrentan regulaciones, mientras que solo las empresas extranjeras que cumplen ciertos umbrales, como grandes corporaciones, deben hacerlo.

Contexto social y protección ciudadana

La presión por la regulación se desarrolla en un contexto social que ha dejado a grupos de la sociedad civil preocupados porque la legislación no es lo suficientemente robusta. Corea del Sur representa el 53% de todas las víctimas globales de pornografía deepfake, según un informe. Investigación reciente expuso redes masivas de chatrooms que crean y distribuyen imágenes sexuales generadas por IA, lo que ha generado una crisis en la percepción pública.

Sin embargo, la ley tiene orígenes anteriores a esta crisis, con el primer proyecto relacionado con la IA presentado al parlamento en 2020, que se estancó debido a acusaciones de que priorizaba los intereses de la industria sobre la protección de los ciudadanos.

Grupos de derechos humanos han emitido declaraciones conjuntas argumentando que la ley ofrece protección limitada para las personas afectadas por sistemas de IA. Aunque se estipula protección para «usuarios», estos son principalmente hospitales y empresas financieras, no las personas impactadas por la IA. La ley no establece sistemas de IA prohibidos y las exenciones para la «participación humana» crean importantes vacíos legales.

La Comisión de Derechos Humanos del país ha criticado el decreto de aplicación por carecer de definiciones claras de IA de alto impacto, señalando que aquellos que son más propensos a sufrir violaciones de derechos permanecen en áreas no reguladas.

Perspectivas futuras

En una declaración, el ministerio de ciencia y tecnologías de la información expresó que espera que la ley «elimine la incertidumbre legal» y construya un «ecosistema de IA doméstico saludable y seguro», añadiendo que continuará aclarando las normas a través de guías revisadas.

Expertos han indicado que Corea del Sur ha optado por un camino diferente al de otras jurisdicciones. A diferencia del modelo regulatorio estricto basado en riesgos de la UE, los enfoques sectoriales del mercado en EE. UU. y Reino Unido, o la combinación de políticas industriales lideradas por el estado y regulaciones específicas en China, Corea del Sur ha elegido un marco más flexible y basado en principios.

Este enfoque se centra en lo que se describe como «promoción y regulación basada en la confianza». La framework de Corea del Sur servirá como un punto de referencia útil en las discusiones globales sobre la gobernanza de la IA.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...