Oportunidad para Investigadores en AI Responsable

Únete al Índice Global sobre IA Responsable como Investigador Nacional

El Índice Global sobre IA Responsable (GIRAI) ofrece una oportunidad excepcional para contribuir a un proyecto que impacta directamente en la gobernanza de la inteligencia artificial (IA). Como Investigador Nacional, desempeñarás un papel crucial en la recopilación y evaluación de evidencia sobre los compromisos y progresos en IA responsable en tu país asignado.

Fecha de Creación

Esta oportunidad fue creada el 9 de julio de 2025.

Fecha Límite

Las solicitudes deben ser presentadas antes del 31 de julio de 2025.

Responsabilidades

Las responsabilidades de los Investigadores Nacionales incluyen:

  • Realizar la recopilación de datos primarios en su país mediante el cuestionario y las herramientas de encuesta del GIRAI.
  • Participar en sesiones de capacitación obligatoria donde se introducirán en la IA responsable desde una perspectiva de derechos humanos.
  • Recibir un Manual del Investigador que cubre definiciones, justificaciones, orientación y ejemplos para cada área temática del GIRAI.
  • Cumplir con los estándares de calidad de datos y seguir los procesos establecidos de flujo de datos.

Beneficios

La compensación para este rol varía entre 1,000 y 3,000 USD por investigador nacional. El monto final dependerá del volumen de evidencia que se deba recopilar y evaluar, así como del contexto económico y el costo de vida en el país designado.

Elegibilidad

Los candidatos ideales deben cumplir con los siguientes requisitos:

  • Conocimiento profundo de la gobernanza de la IA y las implicaciones sociales y éticas de las tecnologías digitales.
  • Habilidades avanzadas de investigación en campos relacionados con la IA, enfocándose en la IA responsable y la protección de datos.
  • Familiaridad con los desarrollos políticos recientes relacionados con la IA en su país designado.
  • Dominio del inglés escrito y hablado, así como fluidez en uno o más de los idiomas oficiales del país designado.
  • Disponibilidad para involucrar a actores estatales en la recopilación de evidencia y difusión de resultados de investigación.
  • Experiencia en la recopilación de datos en línea y evaluación de evidencia documental.
  • Capacidad demostrada para trabajar de manera independiente y cumplir con los plazos establecidos.

Compromiso del Proyecto

Los investigadores deben estar disponibles para un entrenamiento en septiembre de 2025 y realizar la recopilación y análisis de datos, dedicando entre 60 y 80 horas entre octubre y diciembre de 2025.

Aplicación

Si deseas formar parte de esta iniciativa transformadora y apasionante para modelar futuros éticos e inclusivos en IA, esta es tu oportunidad. Al unirte a la red del GIRAI como Investigador Nacional, ayudarás a iluminar cómo la IA impacta los derechos y la gobernanza a nivel mundial.

Los postulantes seleccionados serán notificados a más tardar el 8 de septiembre de 2025.

More Insights

África y la Gobernanza de la IA: Hacia un Futuro Soberano

Los líderes africanos en el Foro de Gobernanza de Internet (IGF) 2025 en Oslo pidieron acciones urgentes para construir sistemas de IA soberanos y éticos adaptados a las necesidades locales. Se...

Regulaciones y Desafíos en la IA: Claves para la Cumplimiento

A medida que la IA se desarrolla en todo el mundo, se vuelve cada vez más difícil implementar regulaciones efectivas. La UE lidera con su Ley de IA, que impone obligaciones estrictas a las...

La Ruta Divergente de la IA en China

La competencia entre EE. UU. y China en inteligencia artificial se considera la rivalidad tecnológica definitoria de nuestro tiempo, con la posibilidad de que ambos países desarrollen "variedades"...

Ética de IA en medio de la rivalidad tecnológica EE.UU.-China

A medida que la rivalidad tecnológica entre Estados Unidos y China se profundiza, una agencia de la ONU está impulsando estándares globales sobre la ética de la inteligencia artificial. UNESCO...

Ley de AI Adversarial: Prohibición de Tecnología China en Agencias Federales

Un grupo bipartidista de legisladores de EE. UU. ha presentado un nuevo proyecto de ley, el "No Adversarial AI Act", que busca prohibir el uso de herramientas de inteligencia artificial desarrolladas...

Niveles de Protección para una IA Responsable en Amazon Bedrock

Amazon Bedrock Guardrails ofrece salvaguardias configurables para ayudar a construir aplicaciones de IA generativa confiables a gran escala. La introducción de niveles de salvaguardia permite a las...

Ley de Gobernanza de IA en Texas: Un Paso Hacia la Regulación Responsable

El 22 de junio de 2025, el gobernador de Texas, Greg Abbott, firmó la Ley de Gobernanza Responsable de IA de Texas (TRAIGA). Esta ley busca facilitar el desarrollo responsable de sistemas de...