Informe sobre el uso de IA para atacar a minorías y ampliar la vigilancia
Un informe conjunto ha suscitado serias preocupaciones sobre el uso político y social de la inteligencia artificial en India, especialmente en relación con su impacto en las comunidades musulmanas. El informe, titulado “Gobernanza de IA en la Era del Retroceso Democrático”, alega que las herramientas de IA generativa están siendo utilizadas para difundir narrativas anti-minorías, fortalecer sistemas de vigilancia e influir en el proceso electoral, mientras que la transparencia y la regulación siguen siendo débiles.
Uso político de la IA
Se menciona un ejemplo en el que una unidad estatal de un partido político compartió un video generado por IA que mostraba al líder del partido disparando a dos hombres musulmanes. Este tipo de contenido se describe como inflamatorio y potencialmente amenazante para la armonía social. Los actores políticos están utilizando la IA para profundizar divisiones sociales y atacar a minorías, lo que crea un ambiente de miedo y normaliza el odio.
Protecciones insuficientes
El informe señala que existen brechas en las protecciones dentro de los sistemas de IA generativa populares. Herramientas como las de generación de texto a imagen carecen de controles efectivos en relación con los idiomas indios y el contexto social local, lo que permite que se difundan estereotipos perjudiciales. Además, se critica a las plataformas de redes sociales y a las empresas de IA por la mala aplicación de las directrices comunitarias, lo que permite que el contenido dañino circule antes de ser eliminado.
Medidas de vigilancia
Se plantea preocupación sobre las medidas de vigilancia, como el desarrollo de herramientas de IA destinadas a identificar supuestos inmigrantes ilegales y refugiados. Expertos lingüísticos cuestionan la fiabilidad de estos sistemas, que pueden aumentar el riesgo de discriminación contra los musulmanes de habla bengalí en India.
Reconocimiento facial y policía
Otro aspecto crítico es el uso de tecnología de reconocimiento facial por parte de las fuerzas policiales. El informe advierte sobre la falta de información pública respecto a la adquisición y precisión de estos sistemas. Los errores en la identificación pueden tener graves consecuencias, especialmente para las minorías que ya enfrentan perfilamientos.
Exclusión algorítmica en programas de bienestar
El informe también destaca problemas en la entrega de programas de bienestar. Fallos en los sistemas de IA han llevado a la exclusión de beneficiarios elegibles de los esquemas gubernamentales. Los ciudadanos deben demostrar su elegibilidad cuando los sistemas los marcan como inelegibles, afectando desproporcionadamente a las comunidades marginadas.
Implicaciones para el proceso electoral
Se señala la falta de transparencia en el software utilizado para marcar a votantes “sospechosos”. La opacidad sobre cómo se identifican estos votantes puede poner en riesgo el derecho al voto. Líderes comunitarios expresan preocupación, especialmente por los musulmanes, quienes ya enfrentan un escrutinio en cuestiones de ciudadanía.
Conclusión
El informe concluye con recomendaciones para gobiernos, industrias y sociedad civil, que incluyen la elaboración de políticas transparentes, revisión independiente de algoritmos y supervisión humana efectiva. A medida que se aproxima la cumbre sobre IA en India, el debate sobre el uso de la IA en el país se vuelve urgente. La preocupación central radica no en la tecnología en sí, sino en cómo se utiliza, enfatizando la necesidad de alinear la gobernanza de la IA con valores democráticos y derechos fundamentales.