Leyes de IA en Corea del Sur enfrentan resistencia en medio del esfuerzo por convertirse en una potencia tecnológica líder
Corea del Sur ha iniciado un camino hacia la regulación de la inteligencia artificial (IA), lanzando lo que se considera el conjunto de leyes más completo en el mundo, que podría servir como modelo para otros países. Sin embargo, esta nueva legislación ya ha encontrado oposición.
Las leyes obligarán a las empresas a etiquetar el contenido generado por IA, lo que ha sido criticado por startups tecnológicas locales que argumentan que son excesivas, y por grupos de la sociedad civil que consideran que no van lo suficientemente lejos.
Detalles de la legislación
La Ley Básica de IA, que entró en vigor la semana pasada, surge en un contexto global de creciente preocupación sobre los medios creados artificialmente y la toma de decisiones automatizada, mientras los gobiernos luchan por mantenerse al día con las tecnologías que avanzan rápidamente.
Entre las principales exigencias de la ley, se encuentra la obligación para las empresas que proporcionan servicios de IA de:
- Añadir marcas de agua digitales invisibles para resultados claramente artificiales, como dibujos animados o obras de arte.
- Para los deepfakes realistas, se requieren etiquetas visibles.
- Los sistemas de «IA de alto impacto», que incluyen diagnósticos médicos, contratación y aprobaciones de préstamos, deberán someterse a evaluaciones de riesgo y documentar cómo se toman las decisiones.
- Si un humano toma la decisión final, el sistema podría no entrar en esta categoría.
- Los modelos de IA extremadamente potentes deberán presentar informes de seguridad, aunque el umbral establecido es tan alto que los funcionarios del gobierno reconocen que actualmente no hay modelos en el mundo que lo cumplan.
Las empresas que violen las reglas enfrentarán multas de hasta 30 millones de wones, pero el gobierno ha prometido un período de gracia de al menos un año antes de imponer sanciones.
Reacciones y críticas
La legislación se presenta como la «primera del mundo» en ser completamente aplicada por un país, y es central en la ambición de Corea del Sur de convertirse en una de las tres principales potencias de IA junto a EE. UU. y China. Los funcionarios del gobierno sostienen que la ley está enfocada en un 80-90% en promover la industria y no en restringirla.
Aunque un profesor de informática ha señalado que la ley no es perfecta, se pretende que evolucione sin sofocar la innovación. Sin embargo, una encuesta realizada en diciembre reveló que el 98% de las startups de IA no estaban preparadas para cumplir con las normativas. La frustración es generalizada, con voces que cuestionan por qué Corea del Sur debe ser la primera en implementar estas regulaciones.
Las empresas deben determinar por sí mismas si sus sistemas califican como IA de alto impacto, un proceso que los críticos consideran largo y que genera incertidumbre. También advierten sobre un desequilibrio competitivo: todas las empresas coreanas enfrentan regulaciones, mientras que solo las empresas extranjeras que cumplen ciertos umbrales, como grandes corporaciones, deben hacerlo.
Contexto social y protección ciudadana
La presión por la regulación se desarrolla en un contexto social que ha dejado a grupos de la sociedad civil preocupados porque la legislación no es lo suficientemente robusta. Corea del Sur representa el 53% de todas las víctimas globales de pornografía deepfake, según un informe. Investigación reciente expuso redes masivas de chatrooms que crean y distribuyen imágenes sexuales generadas por IA, lo que ha generado una crisis en la percepción pública.
Sin embargo, la ley tiene orígenes anteriores a esta crisis, con el primer proyecto relacionado con la IA presentado al parlamento en 2020, que se estancó debido a acusaciones de que priorizaba los intereses de la industria sobre la protección de los ciudadanos.
Grupos de derechos humanos han emitido declaraciones conjuntas argumentando que la ley ofrece protección limitada para las personas afectadas por sistemas de IA. Aunque se estipula protección para «usuarios», estos son principalmente hospitales y empresas financieras, no las personas impactadas por la IA. La ley no establece sistemas de IA prohibidos y las exenciones para la «participación humana» crean importantes vacíos legales.
La Comisión de Derechos Humanos del país ha criticado el decreto de aplicación por carecer de definiciones claras de IA de alto impacto, señalando que aquellos que son más propensos a sufrir violaciones de derechos permanecen en áreas no reguladas.
Perspectivas futuras
En una declaración, el ministerio de ciencia y tecnologías de la información expresó que espera que la ley «elimine la incertidumbre legal» y construya un «ecosistema de IA doméstico saludable y seguro», añadiendo que continuará aclarando las normas a través de guías revisadas.
Expertos han indicado que Corea del Sur ha optado por un camino diferente al de otras jurisdicciones. A diferencia del modelo regulatorio estricto basado en riesgos de la UE, los enfoques sectoriales del mercado en EE. UU. y Reino Unido, o la combinación de políticas industriales lideradas por el estado y regulaciones específicas en China, Corea del Sur ha elegido un marco más flexible y basado en principios.
Este enfoque se centra en lo que se describe como «promoción y regulación basada en la confianza». La framework de Corea del Sur servirá como un punto de referencia útil en las discusiones globales sobre la gobernanza de la IA.