Actualización del Hub de Recursos de IA
El 22 de diciembre, se actualizó la página de recursos sobre Inteligencia Artificial (IA) para consolidar referencias técnicas y políticas clave para las cooperativas de crédito aseguradas federalmente. Esta página forma parte de los recursos más amplios sobre ciberseguridad y tecnología financiera.
Gobernanza de IA y Gestión de Riesgos
Para la gobernanza de la IA, se dirige a los recursos del Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio. Estos materiales ofrecen un enfoque estructurado para el diseño, desarrollo, gobernanza y uso de la IA, incluyendo recomendaciones prácticas para gestionar riesgos.
Se destaca la importancia de desarrollar sistemas de IA “confiables” que se alineen con la misión enfocada en los miembros de las cooperativas de crédito. Se menciona un documento de la COSO que aplica el marco de gestión de riesgos empresariales a la IA, cubriendo estructuras de gobernanza, supervisión del consejo y metodologías de evaluación de riesgos.
Seguridad de Datos de IA y Despliegue Seguro
La página de recursos también señala dos publicaciones enfocadas en la IA de la Agencia de Ciberseguridad e Infraestructura. La primera es una Hoja de Información de Ciberseguridad sobre la Seguridad de Datos de IA, que discute la protección de los datos que alimentan los sistemas de IA a lo largo de su ciclo de vida.
La segunda publicación aborda métodos para desplegar y operar sistemas de IA de manera segura, cubriendo temas como la protección de los pesos del modelo y la implementación de protocolos de monitoreo continuo.
IA en Servicios Financieros y Fraude Impulsado por Deepfake
Para contextualizar la IA en el sector financiero, se cita un informe del Departamento del Tesoro que examina casos de uso de IA. Este informe aborda estándares de privacidad, seguridad de datos y gestión de riesgos relacionados con las tecnologías de IA.
Finalmente, se resalta un informe sobre esquemas de fraude que involucran medios deepfake, describiendo cómo los criminales utilizan deepfakes generados por IA para evadir controles de verificación de identidad.
Implicaciones y Conclusión
La actualización del hub de recursos de IA indica que las expectativas de supervisión en torno a la IA estarán fundamentadas en marcos existentes, en lugar de un reglamento específico de IA. Esto confirma que la IA está dentro del ámbito de la supervisión de terceros y las disciplinas tradicionales de cumplimiento y ciberseguridad. Las cooperativas de crédito que exploren o amplíen su uso de la IA pueden esperar que los examinadores utilicen estas mismas fuentes como referencias al evaluar la gobernanza de las soluciones de IA y los riesgos asociados.