La Nueva Ley de IA de Japón Promueve la Investigación y Coordinación en Lugar de Sanciones
Japón está adoptando un enfoque diferente en la regulación de la inteligencia artificial (IA) en comparación con otros países. En lugar de imponer prohibiciones o definir categorías de riesgo, el país ha aprobado una nueva ley que apoya la investigación, el desarrollo y el uso de la IA. El enfoque se centra en la planificación, la infraestructura y la inclusión de todos los interesados, desde el gobierno hasta las empresas.
Contenido de la Ley de Promoción de la IA de Japón
Japón ha delineado cómo espera que la IA sea desarrollada y gobernada. La ley de IA exige la creación de una Oficina Estratégica de IA, establecida por el gabinete del país y presidida por el primer ministro. La ley describe la IA como tecnología que imita las habilidades cognitivas humanas, como el razonamiento, la toma de decisiones y el aprendizaje.
Prioridades de la Ley
- Apoyar la investigación y el desarrollo desde la investigación básica hasta la aplicación en el mundo real.
- Promover la IA en todos los sectores, incluidos los servicios públicos y la industria.
- Prevenir el mal uso asegurando la transparencia y alineándose con las normas internacionales.
- Participar activamente en la formulación de normas internacionales.
- Desarrollar habilidades en IA a través de la educación y la formación.
Distribución de Responsabilidades
Las responsabilidades se distribuyen entre los interesados de la siguiente manera:
- El Gobierno Central liderará la política y proporcionará apoyo financiero y legislativo para el desarrollo de la IA.
- Los gobiernos locales promoverán el uso de la IA específico para la región.
- Las universidades y los institutos de investigación llevarán a cabo investigaciones interdisciplinarias relacionadas con la IA.
- Se alentará a las empresas a construir sistemas de IA responsables que se alineen con las normas internacionales.
- Se espera que los ciudadanos aprendan y se involucren con la IA de manera responsable.
A diferencia del enfoque regulatorio de la UE, la ley de Japón no introduce nuevas sanciones para el mal uso de la IA. En su lugar, se basa en marcos legales existentes, como el Código Penal y la Ley de Derechos de Autor, para abordar los riesgos.
La ley permite al gobierno nombrar públicamente a las empresas involucradas en usos dañinos o inapropiados de la IA. Aunque esto añade responsabilidad pública, no está respaldado por sanciones específicas o un mecanismo de aplicación dedicado bajo la ley.
Comparación con la Ley de IA de la UE
En marzo de 2024, la UE aprobó su Ley de Inteligencia Artificial, una legislación amplia que regula el uso de la IA en sus estados miembros. Esta ley utiliza un sistema escalonado para regular la IA basado en el nivel de riesgo que presenta para la seguridad pública, los derechos fundamentales o la salud.
- Prohibido: Sistemas que manipulan el comportamiento, utilizan identificación biométrica en tiempo real o permiten la puntuación social están prohibidos.
- Alto riesgo: Se permite el uso de IA en áreas críticas, como la salud y la educación, pero está sujeto a una estricta supervisión.
- IA de propósito general: Herramientas como ChatGPT deben divulgar resúmenes de datos de entrenamiento y cumplir con las leyes de derechos de autor de la UE.
- Riesgo mínimo: Este nivel incluye todos los demás sistemas de IA que no caen bajo las categorías mencionadas anteriormente.
La UE también permite espacios reguladores para apoyar la innovación y exime a los sistemas de IA utilizados para la seguridad nacional del alcance de la Ley de IA.
Lecciones para India
Japón podría servir como un modelo a explorar para India, priorizando la coordinación y la infraestructura. Sin embargo, la UE muestra lo que significa una regulación proactiva. Sin un marco similar, India podría enfrentar desafíos para detener aplicaciones de IA perjudiciales.
En resumen, Japón está utilizando medidas suaves y colaboración para dar forma al desarrollo de IA. Mientras tanto, la UE establece límites legales firmes para controlar riesgos y garantizar salvaguardias desde el principio.