Corea del Sur promulga una ley integral de regulación de la IA con supervisión humana
Corea del Sur ha introducido oficialmente un marco legal integral para regular la inteligencia artificial (IA), que establece la supervisión humana sobre sistemas críticos y el etiquetado obligatorio del contenido generado por IA. Al mismo tiempo, representantes de la comunidad de startups advierten que los nuevos requisitos podrían obstaculizar la innovación.
Provisiones clave y su impacto esperado
La nueva ley fundamental de IA introduce el control humano obligatorio sobre los llamados sistemas de alto impacto. Estos incluyen la seguridad nuclear, la producción de agua potable, el transporte, la atención sanitaria y los servicios financieros, incluyendo la evaluación de solvencia.
Además, las empresas deben notificar a los usuarios sobre el uso de IA de alto riesgo o generativa y etiquetar claramente los resultados de los sistemas cuando sean difíciles de distinguir del contenido real. Las violaciones a los requisitos de etiquetado conllevan multas de hasta 30 millones de won.
El Ministerio de Ciencia y TIC de Corea del Sur afirma que la legislación debería apoyar la implementación de la IA mientras establece las bases para la seguridad y la confianza. Se proporciona un período de gracia de al menos un año antes de que entren en vigor las sanciones para las empresas.
Preocupaciones de la comunidad de startups
Los representantes de la comunidad de startups expresan su preocupación: la redacción ambigua de la ley puede llevar a las empresas a optar por soluciones menos innovadoras pero más seguras para evitar riesgos regulatorios.
El presidente instó al gobierno a tener en cuenta la posición de la comunidad empresarial y a proporcionar apoyo adicional para las empresas de riesgo y las startups. También se anunciaron planes para crear una plataforma dedicada que explique los requisitos de la nueva legislación y un centro de apoyo para las empresas mientras se adaptan.
Conclusión
En resumen, el nuevo marco legal debería buscar un equilibrio entre promover el uso responsable de la IA y atender las necesidades de los usuarios, asegurando la transparencia, la supervisión y el apoyo a las empresas durante la transición.