Leyes de IA en Corea del Sur: Un hito global en seguridad y salud mental

Corea del Sur promulga un hito global en leyes de seguridad de IA, incluyendo el impacto en la salud mental

En esta columna se examinan las nuevas leyes de IA que Corea del Sur estableció y que fueron promulgadas el 22 de enero de 2026, conocidas como la Ley Básica de IA.

El nombre completo es la Ley Básica sobre el Desarrollo de la Inteligencia Artificial y el Establecimiento de una Fundación para la Confiabilidad. Esta ley representa el primer conjunto integral de leyes sobre IA adoptadas como un marco regulatorio a nivel nacional por un país importante, lo que marca un hito notable.

La Ley Básica de IA tiene similitudes con la Ley de IA de la UE, aunque también presenta diferencias marcadas. Gran parte de la atención regulatoria se centra en la seguridad de la IA y en abordar la llegada de la IA generativa y los modelos de lenguaje de gran escala. También hay disposiciones relacionadas con los deepfakes y el uso de IA para difundir desinformación. Además, existen disposiciones que abordan la IA y la salud mental, aunque su cobertura es modesta en comparación con las leyes a nivel estatal en Estados Unidos que se enfocan específicamente en las consecuencias de la IA en la salud mental.

Objetivos de la Ley Básica de IA

El objetivo principal de la Ley Básica de IA es establecer un nuevo marco para la inteligencia artificial en el país, prescribiendo los aspectos fundamentales necesarios para apoyar el desarrollo adecuado de la IA y establecer una base de confiabilidad en la sociedad de la IA, protegiendo así los derechos e intereses de las personas.

Supervisión y estrategia de IA

La Ley Básica de IA establece un Comité Nacional de IA que supervisará la ley y ayudará a resolver problemas. Este comité se encargará de deliberar y resolver asuntos relacionados con la promoción de la industria de IA y el establecimiento de un fundamento de confiabilidad.

Cada tres años, se revisará y renovará la ley para promover la tecnología y la industria de IA, fortalecer la competitividad nacional y abordar la formación de talento profesional.

Deberes legales bajo la nueva ley

  1. La tecnología de IA y la industria de IA deben desarrollarse de manera que mejoren la seguridad y confiabilidad, mejorando así la calidad de vida de las personas.
  2. Las personas afectadas deberán tener el derecho a recibir, en la medida de lo técnica y razonablemente posible, una explicación clara y significativa sobre los criterios y principios utilizados para derivar el resultado final de la IA.
  3. Los gobiernos nacionales y locales deben respetar la autonomía creativa de los operadores de negocios de IA y esforzarse por fomentar un entorno seguro para el uso de la IA.
  4. El Estado y los gobiernos locales deben fomentar un entorno seguro para el uso de la IA.

Implicaciones y riesgos de la IA en salud mental

Las disposiciones sobre salud mental en la ley son escasas y vagas. Un aspecto mencionado es que el gobierno podría establecer principios éticos de IA, que incluirían la seguridad y confiabilidad de la IA para asegurar que su desarrollo y utilización no causen daño a la vida humana, al bienestar físico o a la salud mental.

Esto contrasta con las leyes estatales en Estados Unidos, que son más específicas en sus lineamientos. Las preocupaciones sobre la capacidad de la IA para proporcionar consejos inapropiados en salud mental son significativas, especialmente dado el uso creciente de IA generativa como asesoría en salud mental.

Conclusión

La Ley Básica de IA es un esfuerzo ambicioso que busca regular un campo en rápido desarrollo. Sin embargo, la falta de especificaciones detalladas podría dar lugar a confusiones y malentendidos en su implementación y aplicación. A medida que la sociedad continúa experimentando con el uso de la IA, es crucial establecer regulaciones claras que protejan a los individuos y promuevan el bienestar mental.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...