Llamado a un enfoque centrado para la regulación de la IA en la India
La India cuenta con una economía basada en servicios robusta que abarca diversos sectores, incluidos servicios de TI, telecomunicaciones, comercio electrónico, salud y servicios financieros. Estos factores la posicionan como un importante depósito de datos que puede impulsar el desarrollo de la IA, específicamente la IA generativa.
Reconociendo el potencial transformador y económico de la IA, el gobierno ha estado tomando medidas proactivas para monetizar este crecimiento. Iniciativas como la IndiaAI Mission, la plataforma de datos IndiaAI y AIKosha están dirigidas a la entrega de servicios esenciales o rutinarios.
Además, múltiples documentos de políticas y consultas sectoriales han destacado la necesidad de implementar una supervisión regulatoria efectiva sobre la IA, asegurando que se desarrolle y despliegue de manera segura, justa y con responsabilidad.
Enfoque regulatorio hasta ahora
El enfoque nacional se dirige principalmente hacia la promoción de la innovación en IA, junto con la imposición de un enfoque basado en principios para la ética de la IA. El gobierno prioriza el crecimiento económico impulsado por la IA mediante la creación de marcos que fomenten la innovación en IA, recomendando estándares éticos y promoviendo la inversión en infraestructura digital y programas de desarrollo de habilidades.
Sin embargo, la regulación de la IA sigue siendo un tema en evolución, con el gobierno esforzándose por equilibrar el avance tecnológico con la supervisión regulatoria, mientras toma medidas como un actor relevante en la conversación global sobre la gobernanza de la IA.
A diferencia de jurisdicciones como la UE, que cuentan con leyes específicas prescriptivas para la IA, este enfoque regulatorio ha sido algo reactivo y carece de materialidad en esta etapa.
Por ejemplo, la India aún no ha enmarcado un marco legal integral (ya sea mediante una nueva ley o enmiendas a leyes existentes) adaptado a la gobernanza de la IA.
Si bien existen requisitos sectoriales, tanto vinculantes como consultivos, estos están fragmentados entre múltiples reguladores como el Banco de Reserva (RBI), la Junta de Valores y Bolsa de la India (SEBI), la Autoridad Reguladora de Telecomunicaciones de la India (TRAI) y la Comisión de Competencia de la India (CCI), cada uno interpretando la gobernanza de la IA a través de su propia perspectiva institucional.
Este enfoque descentralizado ha resultado en cierta incertidumbre empresarial. Para abordar los problemas que surgen del uso de la IA mientras se navega por este paisaje en evolución, la India debe avanzar hacia un enfoque más unificado y proactivo en su regulación y gobernanza.
Problemas legales clave
Varios problemas legales críticos permanecen sin resolver, tales como:
Sesgo de IA y responsabilidad algorítmica. Los sistemas de IA han sido criticados por exhibir sesgo, especialmente en áreas como contratación, préstamos, aplicación de la ley y salud. Este sesgo a menudo surge del uso de datos sesgados o incompletos durante la fase de entrenamiento.
Desafortunadamente, el marco legal actual de la India carece de disposiciones que exijan justicia, transparencia y responsabilidad en los sistemas de IA y sus datos de entrenamiento inherentes. El informe de MeitY reconoce las preocupaciones relacionadas con el sesgo de la IA, pero no recomienda requisitos regulatorios específicos destinados a mitigar tales riesgos.
Como resultado, los desarrolladores de IA continúan operando con salvaguardias legales limitadas o inexistentes, y los usuarios se enfrentan al riesgo de discriminación algorítmica y carecen de salvaguardias de adjudicación en caso de riesgo/pérdida.
Privacidad de datos y entrenamiento de IA. Aunque la Ley de Protección de Datos Personales Digitales, 2023 (DPDP Act) no regula la IA, tendrá implicaciones indirectas sobre cómo se desarrollan y despliegan los sistemas de IA, particularmente cuando utilizan datos personales.
Por ejemplo, la DPDP Act no se aplica a datos públicos; dado que muchas aplicaciones de IA utilizarán dichos datos, sería útil contar con perspectivas sobre esto. Además, permite a los titulares de datos solicitar cambios en sus datos, lo que es una tarea difícil si esos datos ya han sido utilizados en el entrenamiento de IA.
Conundrum de derechos de autor. El uso de material protegido por derechos de autor para desarrollar y entrenar sistemas de IA puede llevar a la creación de obras derivadas y, por lo tanto, a acciones de infracción. El informe de MeitY también categoriza este uso de datos protegidos por derechos de autor como una infracción.
Sin embargo, no aclara qué grado de similitud con el material protegido por derechos de autor debería estar presente para una reclamación de infracción exitosa. Indica que, dado que la ley actual proporciona medios limitados para hacer cumplir las reclamaciones de infracción de los titulares de derechos de autor, será necesario actualizar la ley para fortalecer su posición, así como implementar medidas de debida diligencia por parte de los desarrolladores de IA antes de acceder a contenido protegido.
A medida que la IA se vuelve más capaz de generar obras creativas, las preguntas sobre la protección de derechos de autor del contenido generado por IA se vuelven cada vez más importantes. Pero en la India no hay una postura legal clara sobre si el contenido creado por IA es elegible para protección de derechos de autor, o si la intervención humana es necesaria para las reclamaciones de autoría. Esta incertidumbre crea desafíos para las empresas y creadores que no están seguros de sus derechos.
Responsabilidad intermediaria. La clasificación de los modelos de IA como intermediarios bajo las Reglas de Directrices para Intermediarios y Código de Ética de Medios Digitales de la India, 2021 requiere un escrutinio legal cuidadoso, particularmente a la luz de la sección 79 de la Ley de Tecnología de la Información, 2000 (IT Act). Las protecciones de puerto seguro bajo esta disposición son contingentes a que los intermediarios no modifiquen o seleccionen contenido, una condición que la mayoría de los sistemas basados en IA pueden no cumplir.
El marco de responsabilidad intermediaria bajo la IT Act necesita ser actualizado para reflejar las realidades de los sistemas de IA, asegurando que el contenido generado por IA no se clasifique incorrectamente bajo definiciones heredadas de editores o intermediarios.
Responsabilidad. Otro núcleo en la regulación de la IA es determinar quién debería asumir la responsabilidad: ¿el desarrollador que construye el modelo de IA, el implementador que lo integra en aplicaciones, ambos en diferentes capacidades, o incluso los usuarios que aplican comandos en el uso creciente de IA a través de APIs?
Estos problemas no están tratados bajo la ley actual, y aunque MeitY argumenta que las leyes existentes seguirán regulando los casos de abuso o violación del uso de la IA, las prácticas interpretativas sobre la asignación de responsabilidad y responsabilidad continuarán a menos que se proporcione suficiente orientación.
Conclusión
El enfoque de la India hacia la regulación de la IA ha realizado avances significativos en términos de políticas, pero continúa enfrentando incertidumbre en lo que respecta a una legislación definitiva. Aunque el informe de MeitY ha iniciado discusiones sobre los principales desafíos regulatorios, las medidas concretas pueden tardar tiempo. Si bien se esperaba que la DIA regulara algunos problemas, las últimas noticias sugieren que el gobierno está reconsiderando la introducción de una ley unificada hasta que se comprendan completamente las implicaciones y beneficios de la IA en el contexto único de la India.
Avanzando, un enfoque equilibrado y reflexivo hacia la legislación específica de la IA es crucial para fomentar la certeza empresarial, apoyar los derechos de los usuarios y permitir una innovación responsable.