Actualización del Hub de Recursos de IA de la NCUA

Actualización del Hub de Recursos de IA

El 22 de diciembre, se actualizó la página de recursos sobre Inteligencia Artificial (IA) para consolidar referencias técnicas y políticas clave para las cooperativas de crédito aseguradas federalmente. Esta página forma parte de los recursos más amplios sobre ciberseguridad y tecnología financiera.

Gobernanza de IA y Gestión de Riesgos

Para la gobernanza de la IA, se dirige a los recursos del Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio. Estos materiales ofrecen un enfoque estructurado para el diseño, desarrollo, gobernanza y uso de la IA, incluyendo recomendaciones prácticas para gestionar riesgos.

Se destaca la importancia de desarrollar sistemas de IA “confiables” que se alineen con la misión enfocada en los miembros de las cooperativas de crédito. Se menciona un documento de la COSO que aplica el marco de gestión de riesgos empresariales a la IA, cubriendo estructuras de gobernanza, supervisión del consejo y metodologías de evaluación de riesgos.

Seguridad de Datos de IA y Despliegue Seguro

La página de recursos también señala dos publicaciones enfocadas en la IA de la Agencia de Ciberseguridad e Infraestructura. La primera es una Hoja de Información de Ciberseguridad sobre la Seguridad de Datos de IA, que discute la protección de los datos que alimentan los sistemas de IA a lo largo de su ciclo de vida.

La segunda publicación aborda métodos para desplegar y operar sistemas de IA de manera segura, cubriendo temas como la protección de los pesos del modelo y la implementación de protocolos de monitoreo continuo.

IA en Servicios Financieros y Fraude Impulsado por Deepfake

Para contextualizar la IA en el sector financiero, se cita un informe del Departamento del Tesoro que examina casos de uso de IA. Este informe aborda estándares de privacidad, seguridad de datos y gestión de riesgos relacionados con las tecnologías de IA.

Finalmente, se resalta un informe sobre esquemas de fraude que involucran medios deepfake, describiendo cómo los criminales utilizan deepfakes generados por IA para evadir controles de verificación de identidad.

Implicaciones y Conclusión

La actualización del hub de recursos de IA indica que las expectativas de supervisión en torno a la IA estarán fundamentadas en marcos existentes, en lugar de un reglamento específico de IA. Esto confirma que la IA está dentro del ámbito de la supervisión de terceros y las disciplinas tradicionales de cumplimiento y ciberseguridad. Las cooperativas de crédito que exploren o amplíen su uso de la IA pueden esperar que los examinadores utilicen estas mismas fuentes como referencias al evaluar la gobernanza de las soluciones de IA y los riesgos asociados.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...