Lo que el Instituto de Seguridad de IA del Reino Unido Significa para los Compradores

Lo que el Instituto de Seguridad de IA del Reino Unido significa para los compradores, no para los creadores

El establecimiento por parte del gobierno del Reino Unido del Instituto de Seguridad de IA (AISI) puede haber sido visto inicialmente por los compradores y equipos de adquisiciones como una forma de tranquilidad, proporcionándoles indicadores claros para saber qué modelos de frontera de IA han pasado por una evaluación de seguridad liderada por el gobierno. Sin embargo, cómo se comporta un servicio de IA sigue estando firmemente en manos del implementador. Esto significa que las organizaciones deben continuar realizando su propia diligencia debida para asegurarse de que los modelos y los servicios asociados funcionen como se espera.

Funciones y limitaciones del AISI

El AISI utiliza herramientas de seguridad avanzadas para probar formas de eludir las salvaguardas del modelo, incluyendo pruebas previas al despliegue, pruebas de red y evaluaciones para casos extremos no encontrados en pruebas regulares. Sin embargo, su ámbito de acción es limitado y se ha reducido aún más desde el año pasado con el cambio de nombre a Instituto de Seguridad de IA, indicando un enfoque en los riesgos relacionados con la seguridad más que en el sesgo algorítmico o la libertad de expresión.

Lo que los compradores de IA deben hacer

Para los compradores, el AISI no evalúa los efectos de un modelo de IA de frontera en organizaciones, implementaciones e industrias específicas. Tampoco proporciona orientación sobre cómo una organización debería implementar una IA de manera segura o mitigar los riesgos que surgen en su evaluación de un modelo de IA de frontera. Esto significa que los implementadores de sistemas de IA son responsables de cualquier cosa que salga mal durante el despliegue.

Si bien el AISI puede proporcionar un sello de «vendedor confiable» para estos modelos, su función se asemeja más a la de un emisor de estándares de seguridad para herramientas eléctricas. Si el comprador luego perfora un cable en vivo o no usa equipo de protección, será responsable de las consecuencias de esas acciones.

A diferencia de una herramienta eléctrica, algunos de los riesgos del despliegue de IA no son tan obvios. Los compradores deben ser conscientes del cumplimiento regulatorio, con la adherencia a las regulaciones y protecciones regionales y nacionales, junto con la privacidad de datos y el procesamiento correcto de datos. Comprender cómo una IA interactuará durante una interrupción o con entradas incorrectas puede evitar daños reputacionales costosos. Las organizaciones también deben hacer un seguimiento de la deriva del modelo para garantizar la estabilidad del rendimiento.

Monitoreo constante de modelos de IA

Parte de esta observación ocurre después del despliegue, con los reguladores cambiando las reglas sobre IA con frecuencia. Monitorear interrupciones y la deriva del modelo es un proceso continuo. Los compradores deben estar muy atentos al ciclo de vida de cada modelo y asegurarse de que tienen un proveedor de modelos de IA activo que esté lanzando actualizaciones regulares para mejorar la seguridad y protección del modelo.

Para los compradores, la respuesta práctica no es deferir al AISI, sino evolucionar sus propios estándares de adquisición y contratación. Los institutos de seguridad de IA, como el AISI, han etiquetado la IA como software de alto riesgo, y por lo tanto, la adquisición de este software debería asemejarse a otras compras de software crítico para la seguridad, en lugar de a procesos estándar de adquisición de SaaS.

Como han señalado varios expertos legales, la responsabilidad no puede ser externalizada a través de la adquisición. Discutiendo el uso de IA en un tribunal, se ha mencionado que “debes asegurarte de adquirir el tipo correcto de IA para una tarea, y el tipo correcto se determina en parte por la esencialidad de la responsabilidad humana.”

Conclusión

Donde el AISI puede ser útil es en lograr que estos proveedores de IA proporcionen más retroalimentación, responsabilidad y transparencia sobre los defectos del modelo y las actualizaciones. Si hay más ojos en el funcionamiento interno de un modelo y más pruebas realizadas por actores neutrales, entonces los compradores tienen una calidad de información mucho mayor al momento de adquirir. Esto no elimina el riesgo por completo, y el punto clave es que el AISI no ha reducido la responsabilidad, sino que ha aumentado las expectativas de todos los involucrados. El AISI puede filtrar los modelos de IA realmente malos de los ciclos de adquisición, pero también pone la carga aún más sobre los compradores para probar adecuadamente los modelos de IA y asegurarse de que sean una opción perfecta para su propia implementación.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...