La alfabetización en inteligencia artificial puede construir un futuro más responsable en Carolina del Norte
El ingrediente más importante en la inteligencia artificial responsable es la alfabetización. Todo lo demás —responsabilidad, estructuras de gobernanza, herramientas— depende de ello.
Carolina del Norte ha tomado medidas para construir esa base de alfabetización a nivel estatal. La orden ejecutiva del gobernador sobre inteligencia artificial y la formación del Consejo de Liderazgo en IA de Carolina del Norte indican un entendimiento de que el liderazgo en IA responsable requiere una coalición diversa de expertos y miembros de la comunidad. Este enfoque se mueve más allá de los principios abstractos para centrarse en la aplicación práctica de la IA de una manera que beneficie a todos los ciudadanos.
Estableciendo un modelo de responsabilidad compartida
El primer paso para construir un marco de IA responsable es reconocer que la responsabilidad debe ser compartida. No puede recaer únicamente en ingenieros y científicos de datos. En Carolina del Norte, el Consejo de Liderazgo en IA está promoviendo un modelo de responsabilidad compartida que involucra a líderes, legales, adquisiciones, seguridad, recursos humanos, educadores y las comunidades directamente afectadas por las decisiones de IA.
Las prioridades del Consejo reflejan un cambio crucial de la teoría a la práctica. El enfoque no está solo en redactar principios, sino en fortalecer la gobernanza sobre cómo se utiliza la IA en los servicios públicos. Esto implica invertir en alfabetización en IA y preparación laboral para que los tomadores de decisiones comprendan lo que la IA puede y no puede hacer, dónde surgen los riesgos y quién es responsable cuando las cosas salen mal.
Ganar la confianza pública en la IA no es un problema puramente técnico; es un problema sociotécnico, y su éxito depende de las personas. Sin una población que entienda las capacidades y riesgos de la IA, no puede haber verdadera responsabilidad. Sin responsabilidad, no hay confianza; y sin confianza, el valor de la IA se estancará.
Construyendo sistemas para la transparencia y la responsabilidad
Los principios por sí solos son insuficientes. Aunque muchas organizaciones miden el éxito de la IA en términos de velocidad y productividad, un enfoque responsable exige más. Si solo mides la velocidad, solo obtendrás velocidad. Pero si mides la responsabilidad, la equidad, la fiabilidad y el impacto en el mundo real, construirás sistemas que perduren.
Aquí es donde la transparencia se convierte en algo más que un requisito de cumplimiento. La gobernanza debe permitir a las organizaciones mostrar su trabajo: de dónde provienen los datos, cómo se entrenan los modelos, qué suposiciones están incrustadas y dónde se sitúa la responsabilidad humana.
Si un resultado no puede ser rastreado o explicado, la institución está expuesta, no solo legalmente, sino también reputacionalmente. La responsabilidad de la gobernanza incluye prevenir resultados donde un sistema sea técnicamente conforme pero que aún socave la confianza pública o los valores institucionales. La propiedad debe ser explícita, los resultados previstos deben ser rastreados frente a los resultados reales, y los equipos deben ser empoderados para pausar, cuestionar e intervenir.
Creando un ecosistema de IA interdisciplinario e inclusivo
Una barrera común para la responsabilidad compartida es lo que se puede denominar la “pandemia de no pertenencia”, donde los profesionales no técnicos asumen que la gobernanza de la IA es algo reservado para expertos técnicos. Ven la IA como algo que sucede “allí”, en los equipos técnicos, en lugar de como un conjunto de decisiones que dan forma a sus propios dominios. Para contrarrestar esto, los líderes deben dejar claro que la experiencia vivida y la experiencia en el dominio son esenciales para definir lo que significa “bueno”.
La próxima generación ya intuye esto. En una reciente sesión con estudiantes de honor, al preguntar qué roles, más allá de los ingenieros, necesitaban un lugar en la mesa para dar forma a la IA, sus respuestas se agruparon en torno a maestros, filósofos, psicólogos, médicos, historiadores, formuladores de políticas y trabajadores sociales. Describieron una lista interdisciplinaria y de toda la sociedad, señalando que nuestros planes de estudio y políticas deben ponerse al día con su expectativa de que la IA es asunto de todos.
Para lograr esto, Carolina del Norte tiene la oportunidad de construir un ecosistema integral de alfabetización en IA:
Educación K-12: Integrar un currículo de IA en ciencias de la computación, estudios sociales y humanidades para ayudar a los estudiantes a entender no solo las matemáticas, sino también el impacto en la privacidad, el sesgo, el poder y la democracia.
Educación superior: Conectar la ciencia de datos y la ingeniería con la ética, el derecho, la política pública y la salud, para que futuros enfermeros, maestros y emprendedores se vean a sí mismos como parte de la toma de decisiones de IA.
Aprendizaje informal: Utilizar bibliotecas, centros comunitarios y organizaciones sin fines de lucro como espacios confiables para la alfabetización en IA donde los residentes puedan hacer preguntas, experimentar de manera segura y ver sus preocupaciones reflejadas en la conversación.
Liderando el camino hacia un futuro responsable
Carolina del Norte ya alberga pruebas emergentes de este modelo. Se ha establecido la primera Academia de IA en una universidad de educación superior para afroamericanos, combinando formación técnica con un programa de Derecho y Política. Colegios comunitarios y universidades en todo el estado están pilotando cursos de IA que vinculan la computación con la atención médica, la agricultura, la manufactura y más, mientras que socios de aprendizaje informal, como bibliotecas públicas y organizaciones juveniles, están explorando talleres de IA y insignias en programas extracurriculares.
Estos esfuerzos no solo transfieren conocimiento; fomentan un sentido de pertenencia y empoderamiento. Alcanzan a residentes que pueden nunca inscribirse en un curso formal, pero que aún se ven afectados por decisiones algorítmicas.
Al construir alfabetización temprano y de manera amplia, el estado puede cultivar líderes que comprendan no solo cómo funciona la IA, sino también cómo moldea el poder, la equidad y la responsabilidad. El objetivo no es frenar la innovación, sino hacerla durable, compartida y digna de nuestra confianza.