¿Puede la ley de IA de Corea detener los crímenes de deepfake mientras Grok de Musk enfrenta críticas?
La empresa de inteligencia artificial de Elon Musk está en el centro de una controversia sobre la difusión de imágenes deepfake. A medida que la empresa enfrenta reacciones negativas, la Ley Marco sobre el Desarrollo de la Inteligencia Artificial de Corea está a punto de entrar en vigor. La atención está centrada en si esta legislación, la primera regulación integral de IA en el mundo, podrá cumplir con su propósito de manera efectiva.
Escepticismo sobre la efectividad de la ley
A pesar de su implementación, hay creciente escepticismo sobre la efectividad de la ley, con muchos pronosticando que enfrentará obstáculos prácticos para bloquear los servicios de deepfake de la empresa o restringir el acceso. Los funcionarios de la industria han señalado que el modelo de IA de la empresa sigue ofreciendo características que convierten fotos cotidianas en imágenes deepfake sexualmente explícitas.
Mientras algunos países han restringido el acceso a la plataforma y otros han iniciado investigaciones legales, las preocupaciones persisten. La ley, que entrará en vigor el 22 de enero, se aprobó para fortalecer las responsabilidades de los operadores de IA y crear una base para fomentar la confianza en una sociedad impulsada por la IA. La prevención de crímenes de deepfake se ha citado como un objetivo clave.
Obligaciones y ambigüedades de la ley
La ley se aplica a operadores extranjeros y les exige designar agentes locales para cumplir con las obligaciones legales. Sin embargo, la obligación de transparencia para etiquetar los deepfakes no se incluye específicamente en el rol del agente local, lo que podría retrasar la prevención o respuesta al comunicarse con operadores extranjeros.
En lugar de ello, la ley establece que el contenido generado por IA debe ser etiquetado, requiriendo marcas de agua visibles en el contenido deepfake que sean difíciles de distinguir de la realidad. Las violaciones de esta norma pueden resultar en órdenes de corrección y multas de hasta 30 millones de wones.
De acuerdo con estas normas, las imágenes deepfake de la empresa deben llevar marcas de agua. Sin embargo, como la ley incluye un período de gracia de al menos un año, la aplicación inmediata es imposible.
Desafíos futuros y recomendaciones
Los analistas advierten que incluso después de que termine el período de gracia, bloquear o restringir directamente los servicios de IA extranjeros seguirá siendo complicado debido a posibles fricciones comerciales. Bajo las leyes actuales, es difícil hacer más que imponer multas si las empresas extranjeras no cooperan voluntariamente.
Hasta que la nueva ley de IA entre en plena vigencia, se recomienda manejar los casos de deepfake bajo las leyes existentes, como la Ley de Redes de Información y Comunicaciones o la Ley de Protección de la Información Personal. La fuerza vinculante de la ley es considerada débil, y se sugiere que las regulaciones deben complementarse con sanciones específicas por violaciones.
El gobierno mantiene su postura de aplicar una regulación mínima mientras monitorea la situación durante un período determinado, permitiendo correcciones por sí mismo, dado que la tecnología de IA aún está en desarrollo.