Sugerencias para la Transparencia en IA en Utah

Introducción

El reciente marco de inteligencia artificial (IA) propuesto por el Aspen Institute busca guiar las actividades de la nueva Oficina de Políticas de Inteligencia Artificial de Utah (OAIP). Este enfoque tiene como objetivo estandarizar los procesos de evaluación de la oficina y promover la transparencia en el uso de la IA en el estado.

Marco de Evaluación de IA

El documento titulado “Implementación de un Marco de Evaluación de IA en Utah”, elaborado por la Academia de Políticas de Aspen, ofrece recomendaciones para establecer un marco de evaluación estandarizado que se alinea con las áreas de enfoque del OAIP. Estas áreas incluyen: Prosperidad, Integridad e Innovación, Apertura, Manejo de Recursos Naturales y Respeto por la Cultura y Valores (PIONR).

Objetivos de la OAIP

Establecida en julio, la OAIP se centra en la formulación de políticas de IA en Utah, construyendo sobre trabajos previos como la creación de un Centro de Excelencia en IA en 2018 y la política de IA generativa de 2023. El objetivo principal de la OAIP es ayudar a la comunidad a navegar cuestiones relacionadas con la IA, como la responsabilidad en el uso de herramientas de IA, por ejemplo, en servicios de consejería de salud mental.

Transparencia y Participación Comunitaria

Uno de los enfoques clave de la iniciativa es mejorar la transparencia para los ciudadanos. La OAIP ha estado buscando la opinión de los actores tecnológicos de la comunidad para guiar el futuro de la IA en Utah. La Academia de Políticas Aspen ha identificado la necesidad de mayor transparencia en el sistema de evaluación dentro del programa de mitigación regulatoria de la OAIP.

Recomendaciones de la Academia de Políticas Aspen

Entre las recomendaciones, se sugiere que la OAIP publique tanto los criterios de participación como una lista de participantes en su Laboratorio de Aprendizaje de IA. Este laboratorio es fundamental para la colaboración entre el gobierno y los desarrolladores de tecnología de IA, facilitando el entendimiento de las reglas y expectativas del gobierno de Utah.

Impacto en el Desarrollo Responsable de IA

Las recomendaciones de la Academia buscan aumentar la transparencia mientras se avanza en la innovación de la IA y ayudar a Utah a convertirse en un modelo en el desarrollo responsable de esta tecnología. Los proveedores que desean desarrollar herramientas de IA pueden trabajar proactivamente con la OAIP para comprender las normativas y así avanzar de manera responsable.

Desafíos Legales y Regulatorios

Los cambios federales en la regulación de la IA están moldeando el panorama legislativo más amplio. La Academia de Políticas Aspen destaca la importancia de iniciativas a nivel estatal y local que se enfoquen en la transparencia y la construcción de confianza, especialmente ante la posible falta de regulaciones a nivel federal.

Conclusiones

El trabajo de la Academia de Políticas Aspen no solo se centra en este marco o en el estado de Utah, sino que busca resonar con cada ciudad y estado. El objetivo final es que las personas afectadas por las herramientas de IA del estado influyan en su desarrollo, garantizando que sus voces sean escuchadas en la creación de políticas de IA.

Este marco puede servir como punto de partida para que otros gobiernos estatales y locales consideren sus valores y enfoques en la gobernanza y la implementación de la IA, promoviendo así un avance equilibrado entre la innovación y la regulación adecuada.

More Insights

Código de Práctica de IA: Implicaciones y Reacciones de la Industria

La Comisión Europea ha publicado un Código de Práctica voluntario para ayudar a la industria a cumplir con las obligaciones de la Ley de IA en relación con la seguridad, la transparencia y los...

Nuevas Normas de Cumplimiento de IA en la UE para Modelos de Alto Riesgo

La Comisión Europea ha publicado directrices para ayudar a las empresas a cumplir con la ley de inteligencia artificial de la UE, que entrará en vigor el 2 de agosto para modelos de IA con riesgos...

Modelos de IA y Riesgos Sistémicos: Cumpliendo con las Normas de la UE

Los modelos de IA con riesgos sistémicos han recibido pautas sobre cómo cumplir con las regulaciones de IA de la UE. Estas orientaciones son esenciales para garantizar la seguridad y la ética en el...

Los Agentes de IA: Un Nuevo Desafío de Seguridad para Empresas

La proliferación de agentes de IA en aplicaciones empresariales está creando un nuevo tipo complejo de tráfico de red, conocido como "tráfico agente". Este fenómeno presenta desafíos significativos en...

Auditoría Efectiva de IA Generativa en el Lugar de Trabajo

A medida que las organizaciones transitan de la experimentación casual al uso diario de herramientas de inteligencia artificial generativa, se vuelve evidente la necesidad de una auditoría exhaustiva...

Cómo la Certificación en Cumplimiento de IA Asegura tu Futuro Profesional

La certificación en cumplimiento de IA capacita a los profesionales para gestionar riesgos y asegurar el cumplimiento normativo en un entorno regulatorio cada vez más complejo. Obtener esta...

Ética y Sostenibilidad en la Era de la Inteligencia Artificial

A medida que se acerca el Día de la Apreciación de la IA, los líderes de la industria reflexionan sobre el creciente impacto de la inteligencia artificial en Australia y en todo el mundo, enfatizando...