Investigación sobre el Uso Potencial Criminal de Sistemas de IA de Código Abierto
Investigadores advierten que un número creciente de modelos de inteligencia artificial de código abierto se están desplegando fuera de los controles de seguridad de las principales plataformas tecnológicas, creando lo que se describe como una capa en gran medida invisible de posible uso criminal.
Análisis de Despliegues Accesibles
Los hallazgos, compartidos por empresas de ciberseguridad, se basan en un análisis de despliegues accesibles públicamente de modelos de lenguaje de código abierto realizado durante un período de 293 días. Los investigadores señalaron que muchos de los sistemas observados estaban funcionando en computadoras expuestas a internet con salvaguardias limitadas o inexistentes, lo que los hace vulnerables al abuso por parte de hackers y otros actores maliciosos.
Posibles Usos Ilícitos
Los modelos de IA autoalojados pueden ser reutilizados para generar contenido de phishing, automatizar operaciones de spam, apoyar campañas de desinformación y asistir en otras actividades ilícitas. A diferencia de las plataformas de IA comerciales, que operan bajo reglas y monitoreos centralizados, los modelos de código abierto permiten a los operadores modificar instrucciones del sistema y eliminar completamente los guardrails.
Resultados del Análisis
El análisis encontró que, aunque existen miles de variantes de modelos de lenguaje de código abierto, una gran parte de los despliegues accesibles a internet se basan en modelos bien conocidos. En cientos de casos, los investigadores identificaron configuraciones donde los controles de seguridad habían sido explícitamente desactivados. Se pudo observar los prompts del sistema en aproximadamente una cuarta parte de los despliegues examinados, y de esos, alrededor del 7.5% fueron evaluados como potencialmente habilitantes de actividades dañinas, incluyendo estafas, acoso y robo de datos.
Implicaciones Globales
Geográficamente, aproximadamente el 30% de los sistemas expuestos estaban operando desde una región específica, con un 20% ubicado en otra. Esto subraya la naturaleza global del problema. Los expertos en gobernanza de IA destacaron que los hallazgos resaltan los límites de las medidas de seguridad basadas en plataformas, sugiriendo que la responsabilidad por la gestión de riesgos se comparte una vez que los modelos son liberados.
Conclusión
Los resultados apuntan a un desafío creciente para los reguladores a medida que el uso de IA se expande más allá de plataformas centralizadas hacia entornos descentralizados y autoalojados que son más difíciles de monitorear y controlar.