Regulación Superficial de la IA
En un contexto donde la gobernanza ética de la IA se ha vuelto un tema candente, es crucial reflexionar sobre las recientes modificaciones a la Ley de Prevención de Crímenes Electrónicos y la creación de la Ley Digital Nación Pakistán. Estas leyes han suscitado preocupación por su potencial de violar derechos humanos y su falta de salvaguardias en cuanto a la privacidad de datos.
El Llamado a la Regulación
La ministra de Tecnologías de la Información y Telecomunicaciones, Shaza Fatima Khawaja, ha hablado sobre la necesidad de una gobernanza ética de la IA en conferencias internacionales. Sin embargo, sus declaraciones no han abordado de manera clara cómo se implementará este marco ético, dejando a muchos cuestionando la motivación detrás de dichas regulaciones.
A menudo, los discursos sobre la regulación de la IA están impregnados de palabras de moda que oscurecen el verdadero objetivo: un mayor control, especialmente sobre los medios de comunicación.
Impacto en los Medios de Comunicación
Las preocupaciones sobre la IA y su impacto en los medios han crecido considerablemente. La proliferación de la IA generativa ha llevado a predicciones apocalípticas sobre la desinformación y la amplificación de contenido dañino. Sin embargo, las propuestas de regulación a menudo se centran en la regulación superficial de los resultados de la IA, sin abordar la necesidad de transparencia y responsabilidad.
Los journalistas han estado alertando sobre el peligro que representa la IA en la generación de contenido inauténtico, especialmente en contextos como Pakistán, donde la alfabetización digital es baja y los usuarios son vulnerables a información manipulada.
Regulación Propuesta
La regulación del modelo de IA debería centrarse en derechos humanos, transparencia y responsabilidad. Es crucial que el desarrollo y uso de la IA se realicen de manera transparente, con caminos claros para la rendición de cuentas por los daños que puedan resultar de su uso.
Sin embargo, muchas discusiones sobre la regulación de la IA ignoran el trabajo invisible que la sustenta, que a menudo proviene de la mayoría global. Investigaciones han demostrado que la mayoría de las herramientas de IA se desarrollan mediante etiquetado de datos manual realizado por trabajadores subcontratados que enfrentan condiciones laborales precarias.
Pretextos para la Regulación
Las leyes y propuestas legislativas actuales tienden a regular el contenido generado por IA basándose en fundamentos vagos como “noticias falsas” o “seguridad nacional”, que a menudo son pretextos para suprimir la disidencia. La intención real rara vez es mitigar el daño y frecuentemente busca regular el discurso que incomoda a los poderosos.
Esperanzas para el Futuro
A pesar de las preocupaciones válidas de los gobiernos sobre la IA generativa, la regulación amplia en nombre de la IA se convierte en excusas convenientes para limitar la libertad de expresión. En noviembre de 2024, durante la discusión del proyecto de ley de IA, el comité del Senado recomendó un enfoque cauteloso, reconociendo que podría ser prematuro establecer un regulador de IA en esta etapa.
Se espera que esta sabiduría prevalezca y que se desarrolle un marco regulatorio que centre la equidad, la transparencia y la responsabilidad, no la censura. La regulación de la IA debe proteger a las personas, no silenciarlas.