Colaboración entre Estados y Sector Privado en la Gobernanza de la IA

Cómo los estados y el sector privado pueden trabajar juntos para dar forma a la gobernanza de la IA

Con el desarrollo y la proliferación rápida de la inteligencia artificial (IA) en casi todos los aspectos de la vida, la gobernanza de la IA —establecer supervisión, cumplimiento y un marco operativo consistente— es clave para la integración exitosa y ética de la IA, especialmente en los servicios públicos.

Los gobiernos estatales y el sector privado deben asociarse para garantizar que esta integración se realice de manera adecuada. La administración anterior mostró interés en mantener un acceso amplio a la IA para fomentar la innovación, al mismo tiempo que se protege a los ciudadanos de los sistemas de IA que podrían tener un “alto impacto”. A pesar de la necesidad de un marco regulatorio de IA, el Congreso no ha avanzado en este sentido, lo que hace que los estados deban actuar proactivamente.

Mejores prácticas y colaboración

Para evitar un mosaico de regulaciones en todo el país, es fundamental que el Congreso establezca directrices coherentes que fomenten la innovación mientras mitigan los riesgos de la IA. Mientras tanto, muchos estados han colaborado con el sector privado para establecer mejores prácticas, lo que ha mostrado resultados prometedores.

A menudo, el sector privado lidera la adopción de nuevas tecnologías, pero muchas agencias estatales están por delante en la curva de gobernanza debido a las demandas regulatorias y la experiencia en el manejo de datos sensibles de los ciudadanos. Esta combinación de experticia puede generar resultados innovadores.

Por ejemplo, varios estados han creado grupos de trabajo público-privados sobre IA para evaluar riesgos y oportunidades, y hacer recomendaciones sobre cómo aprovechar la IA para la entrega de servicios públicos. Estados como Wisconsin, Massachusetts, Rhode Island, Alabama, New Jersey y Arkansas han tomado la iniciativa en este ámbito.

Planes de acción y ejemplos destacados

El grupo de trabajo de Wisconsin anunció un plan de acción de IA en julio de 2024, recomendando direcciones políticas e inversiones para ayudar al estado a capitalizar la transformación de la IA. Por su parte, el grupo de trabajo de Massachusetts está ayudando a establecer el Hub de IA de Massachusetts, que servirá como entidad central para la colaboración y la innovación en IA entre la academia, la industria y el gobierno.

En Rhode Island, el grupo de trabajo está desarrollando un mapa de ruta para el uso de la IA en el estado. Utah ha promulgado la Ley de Políticas de Inteligencia Artificial, estableciendo una oficina gubernamental para colaborar con la industria en propuestas que fomenten la innovación y salvaguarden la seguridad pública.

Adicionalmente, Carolina del Norte ha contratado a un pionero de la industria de IA con 20 años de experiencia para asegurar la integración ética y transparente de las tecnologías de IA en los servicios públicos.

La importancia de la colaboración y la gobernanza

El enfoque en la gobernanza adecuada de la IA requiere una visión integral de la adopción de la IA, anticipando y mitigando impactos negativos potenciales, y reflejando los valores organizacionales. La colaboración con el sector privado, que tiene experiencia en los mejores usos de la IA, es esencial para navegar por los posibles desafíos y dilemas éticos que puedan surgir.

A medida que los estados avanzan en sus esfuerzos por integrar la IA en los servicios públicos, deben aprender de las experiencias de aquellos que están liderando el camino, como Carolina del Norte. No pueden permitirse esperar por directrices del Congreso; deben colaborar con expertos del sector privado que han dedicado sus carreras a comprender los riesgos y oportunidades de las tecnologías de IA, ya que la IA podría mejorar la vida de cada ciudadano.

More Insights

Harmonización legal de la inteligencia artificial en AIPPI 2025

La Asociación Internacional para la Protección de la Propiedad Intelectual (AIPPI) se reunirá en Yokohama del 13 al 16 de septiembre con más de 2,700 participantes. Este año, se destacan temas clave...

Divergencias en la Regulación de la IA: Colorado y el Enfoque Federal

La ley de inteligencia artificial de Colorado (CAIA) se implementará el 30 de junio de 2026 y requiere que las empresas realicen evaluaciones de impacto para los sistemas de IA de alto riesgo...

Vigilancia Inteligente: Seguridad y Privacidad en Equilibrio

La vigilancia impulsada por IA aumenta la seguridad, pero también conlleva riesgos de sesgo y erosión de libertades civiles. La regulación es desigual a nivel mundial, con la necesidad de una...

IA Responsable en Finanzas: De la Teoría a la Práctica

La discusión global sobre la inteligencia artificial ha entrado en una nueva fase, centrada en cómo utilizar estas herramientas de manera responsable, especialmente en los servicios financieros donde...

Certificación para una IA confiable y sostenible

La certificación puede convertirse en una ventaja competitiva en la adopción de inteligencia artificial (IA) confiable y sostenible. A medida que la regulación avanza, las empresas que demuestran...

Confianza en la IA: ¿Podemos confiar en lo que no vemos?

La inteligencia artificial explicable (XAI) es esencial para generar confianza, asegurar transparencia y permitir responsabilidad en áreas críticas como la salud y las finanzas. Con regulaciones que...

Flujos de trabajo de IA responsable para la investigación en UX

La investigación de UX solo es tan sólida como las decisiones humanas que la guían, y los sesgos cognitivos pueden distorsionar los hallazgos. Este artículo explora cómo integrar la inteligencia...

La Revolución de la IA Agente en la Banca

La IA agentiva está revolucionando el sector bancario al automatizar procesos complejos y mejorar la experiencia del cliente. A pesar de sus ventajas, presenta desafíos significativos en términos de...