¿Cuáles son las capacidades actuales de la IA de propósito general y los posibles avances futuros?
La IA de propósito general ha experimentado rápidos avances en los últimos años, pasando de apenas producir párrafos coherentes a escribir programas informáticos, generar imágenes fotorrealistas y mantener conversaciones prolongadas. Los modelos recientes demuestran una mejor capacidad de razonamiento científico y de programación.
Agentes de IA
Muchas empresas están invirtiendo en agentes de IA: sistemas de IA de propósito general que pueden actuar, planificar y delegar tareas de forma autónoma con una supervisión humana mínima. Estos sofisticados agentes podrían completar proyectos más largos que los sistemas actuales, lo que podría desbloquear tanto beneficios como riesgos.
Capacidades Futuras
El ritmo de avance en los próximos meses y años es incierto, y oscila entre lento y extremadamente rápido. El progreso depende de la implementación de más datos y potencia de cómputo para el entrenamiento, y de si el escalado puede superar las limitaciones actuales. Si bien el escalado sigue siendo físicamente factible durante varios años, los principales avances pueden requerir avances en la investigación o nuevos enfoques de escalado.
Consideraciones Clave para los Responsables Políticos:
- Ritmo de Avance: ¿Con qué rapidez avanzarán las capacidades de la IA de propósito general y cómo se puede medir ese progreso de manera fiable?
- Umbrales de Riesgo: ¿Cuáles son los umbrales de riesgo sensatos para activar las medidas de mitigación?
- Acceso a la Información: ¿Cómo pueden los responsables políticos acceder mejor a la información sobre la IA de propósito general relevante para la seguridad pública?
- Evaluación de Riesgos: ¿Cómo pueden los investigadores, las empresas y los gobiernos evaluar de forma fiable los riesgos del desarrollo y la implementación de la IA de propósito general?
- Operaciones Internas: ¿Cómo funcionan internamente los modelos de IA de propósito general?
- Diseño Fiable: ¿Cómo se puede diseñar la IA de propósito general para que se comporte de forma fiable?
¿Qué tipos de riesgos están asociados con el desarrollo y la implementación de la IA de propósito general?
La IA de propósito general (GPAI) presenta un espectro de riesgos, categorizados aquí para mayor claridad: uso malintencionado, fallos de funcionamiento y efectos sistémicos. Algunos daños ya son evidentes, mientras que otros están surgiendo a medida que avanzan las capacidades de la GPAI.
Riesgos de uso malintencionado
Los malos actores podrían aprovechar la GPAI para infligir daños a individuos, organizaciones o a la sociedad en su conjunto:
- Contenido falso: La GPAI facilita la generación de contenido falso altamente realista para pornografía no consentida, fraude financiero, chantaje y daño a la reputación.
- Manipulación: La GPAI permite contenido persuasivo a escala, lo que puede influir en la opinión pública e influir en los resultados políticos.
- Ciberataque: Los sistemas GPAI están mostrando capacidades para automatizar partes de los ciberataques, lo que reduce la barrera para los actores maliciosos.
- Ataques biológicos/químicos: Algunas GPAI demuestran habilidades para ayudar en la creación de armas biológicas o químicas. Una importante empresa de IA aumentó recientemente su evaluación de este tipo de riesgo biológico de «bajo» a «medio».
Riesgos por fallos de funcionamiento
Incluso sin intención maliciosa, los sistemas GPAI pueden causar daño debido a:
- Problemas de fiabilidad: La GPAI actual puede no ser fiable, generando falsedades en dominios críticos como el asesoramiento médico o legal.
- Sesgo: La GPAI puede amplificar los sesgos sociales y políticos, lo que lleva a la discriminación y a resultados desiguales en áreas como la asignación de recursos.
- Pérdida de control (Hipotético): Aunque actualmente no es plausible, algunos prevén escenarios en los que los sistemas GPAI operan fuera del control humano, lo que justifica una mayor atención.
Riesgos sistémicos
Más allá de los riesgos del modelo individual, la implementación generalizada de la GPAI introduce preocupaciones sociales más amplias:
- Riesgos del mercado laboral: La GPAI podría automatizar una amplia gama de tareas, lo que podría provocar la pérdida de puestos de trabajo que podrían o no verse compensados por la creación de nuevos puestos de trabajo.
- División global en I+D: El desarrollo de la GPAI se concentra en unos pocos países, lo que plantea preocupaciones sobre la desigualdad y la dependencia global.
- Concentración del mercado: Un pequeño número de empresas dominan el mercado de la GPAI, lo que aumenta el potencial de fallos en cascada debido a errores o vulnerabilidades.
- Riesgos ambientales: La GPAI está aumentando rápidamente el uso de energía, agua y materias primas en la infraestructura informática.
- Riesgos de privacidad: La GPAI puede causar violaciones tanto involuntarias como deliberadas de la privacidad del usuario.
- Infracciones de derechos de autor: La GPAI aprende y crea medios expresivos, desafiando los sistemas existentes sobre el consentimiento de datos, la compensación y el control. La incertidumbre jurídica está provocando que las empresas de IA se vuelvan más opacas, lo que dificulta la investigación sobre seguridad por parte de terceros.
La publicación de modelos de IA al público en general como «modelos de ponderación abierta» (donde las «ponderaciones» internas del modelo están disponibles públicamente para su descarga) añade otra capa de complejidad. Esto puede aumentar o disminuir varios riesgos identificados dependiendo de las circunstancias.
¿Qué técnicas existen para identificar, evaluar y gestionar los riesgos asociados con la IA de propósito general?
La gestión de riesgos en la IA de propósito general aún está en su infancia, pero están surgiendo técnicas prometedoras para abordar los desafíos únicos inherentes a esta tecnología. Piense en ello como construir sistemas de seguridad para algo que solo entendemos parcialmente nosotros mismos.
Identificación y Evaluación de Riesgos
El estándar de oro actual sigue siendo las «verificaciones puntuales», que esencialmente consisten en probar el comportamiento de la IA en escenarios específicos. Pero seamos claros, estos son limitados. Es difícil predecir una gama completa de casos de uso para la IA de propósito general, o replicar las condiciones del mundo real en un laboratorio. La evaluación de riesgos necesita experiencia, recursos y acceso a información sobre los sistemas de IA, que las empresas de IA dudan en compartir.
Técnicas de Mitigación
Se están explorando varios enfoques, pero se aplican advertencias:
- Entrenamiento Adversario: Exponer los modelos a escenarios diseñados para hacerlos fallar para que puedan mejorar en ello. Imagine enseñar a una IA a detectar estafas, pero no poder predecir la aparición de nuevas amenazas. Hallazgos recientes sugieren que, incluso con el entrenamiento adversario, todavía es generalmente fácil eludir estas salvaguardas.
- Monitoreo e Intervención: Existen herramientas para detectar contenido generado por IA y rastrear el rendimiento del sistema. La superposición de medidas técnicas con la supervisión humana puede mejorar la seguridad, pero también introduce costos y retrasos.
- Medidas de privacidad: Estas van desde la eliminación de datos de entrenamiento confidenciales hasta el empleo de tecnología que mejora la privacidad. Sin embargo, adaptar las privacidades de datos en general parece ser más desafiante que mitigar las preocupaciones de seguridad.
Consideraciones Económicas y Políticas
Elementos externos como la presión competitiva y el ritmo de avance añaden otra capa de complejidad a la ecuación. Debe hacerse una compensación entre las empresas que buscan implementar estas técnicas de mitigación de riesgos y seguir siendo competitivas. Los tomadores de decisiones no pueden estar seguros de si habrá un cambio generalizado en la política que ayude o dificulte los esfuerzos de seguridad.
¿Cómo pueden los responsables políticos comprender y responder mejor a las incertidumbres inherentes a la IA de propósito general?
Los responsables políticos que se enfrentan al auge de la IA de propósito general (IAPG) se encuentran con lo que los expertos denominan un «dilema de la evidencia». El desafío es cómo regular una tecnología cuando su rápido avance supera la evidencia científica disponible sobre su verdadero potencial y sus riesgos. Dada la naturaleza impredecible del desarrollo de la IAPG, actuar demasiado pronto con medidas preventivas podría resultar innecesario o incluso contraproducente. Por otro lado, esperar pruebas definitivas de los riesgos podría dejar a la sociedad vulnerable a amenazas repentinas y graves.
Superando la brecha de información
Actualmente, existe una asimetría informativa significativa. Las empresas de IA poseen mucha más información sobre el funcionamiento interno de sus sistemas y los riesgos potenciales que los gobiernos o los investigadores independientes. Este desequilibrio dificulta la gestión eficaz de riesgos en todos los ámbitos.
Abordando las presiones competitivas
Los responsables políticos también deben considerar el impacto de las presiones competitivas tanto en las empresas de IA como en los gobiernos. La intensa competencia puede desincentivar una gestión integral de riesgos dentro de las empresas, mientras que los gobiernos podrían restar importancia a las políticas de seguridad si perciben un conflicto con el mantenimiento de una ventaja competitiva en el panorama global de la IA.
Acciones clave para los responsables políticos:
- Sistemas de Alerta Temprana: Apoyar el desarrollo y despliegue de sistemas de alerta temprana que puedan identificar los riesgos emergentes asociados a la IAPG.
- Marcos de Gestión de Riesgos: Fomentar la adopción de marcos de gestión de riesgos que activen medidas de mitigación específicas basadas en nuevas evidencias de riesgos.
- Medidas de Transparencia: Explorar mecanismos para aumentar la transparencia en torno al desarrollo y despliegue de la IAPG, reconociendo al mismo tiempo las preocupaciones comerciales y de seguridad legítimas.
- Evidencia de Seguridad: Considerar la posibilidad de exigir a los desarrolladores que proporcionen evidencia de seguridad antes de lanzar nuevos modelos, promoviendo un enfoque proactivo de la gestión de riesgos.
Áreas para futuras investigaciones:
Los responsables políticos deberían fomentar la investigación sobre las siguientes cuestiones críticas:
- Ritmo de Avance: ¿Con qué rapidez avanzarán las capacidades de la IAPG y cómo se puede medir el progreso de forma fiable?
- Umbrales de Riesgo: ¿Cuáles son los umbrales de riesgo sensatos para activar medidas de mitigación?
- Acceso a la Información: ¿Cómo pueden los responsables políticos acceder mejor a la información sobre la IAPG que sea relevante para la seguridad pública?
- Evaluación de Riesgos: ¿Cómo pueden los investigadores, las empresas y los gobiernos evaluar de forma fiable los riesgos del desarrollo y despliegue de la IAPG?
- Funcionamiento Interno del Modelo: ¿Cómo funcionan internamente los modelos de IAPG?
- Diseño Fiable: ¿Cómo se puede diseñar la IAPG para que se comporte de forma fiable?
En última instancia, responder a las incertidumbres que rodean a la IAPG requiere un equilibrio delicado. Los responsables políticos deben fomentar la innovación al tiempo que se protegen contra posibles daños, navegando por un panorama complejo con información limitada y una tecnología en rápida evolución.
¿Qué factores, más allá de los aspectos técnicos, influyen en el progreso y la aplicación de la IA de propósito general?
Como periodista tecnológico especializado en la gobernanza de la IA, a menudo me preguntan sobre los factores que influyen en la progresión y adopción de la IA de propósito general más allá de las capacidades técnicas. Esta es un área crucial para que los profesionales del derecho tecnológico y los analistas de políticas la comprendan, ya que estos factores moldean drásticamente el panorama del riesgo y la regulación.
Influenciadores no técnicos del progreso
Si bien las mejoras en la computación, la disponibilidad de datos y el diseño algorítmico son fundamentales para el avance de la IA, los factores no técnicos ejercen una influencia considerable:
- Regulaciones gubernamentales: Los enfoques que adopten los gobiernos para regular la IA probablemente tendrán un impacto en la velocidad de desarrollo y adopción de la IA de propósito general.
- Factores económicos: El ritmo de avance en la IA de propósito general crea un «dilema de la evidencia» para los tomadores de decisiones.
El rápido avance de la capacidad hace posible que algunos riesgos surjan a pasos agigantados. - Dinámicas sociales: Los factores sociales dificultan la gestión de riesgos en el campo de la IA de propósito general.
El dilema de la evidencia para los responsables políticos
Los avances potencialmente rápidos e inesperados en la IA de propósito general presentan un desafío de gobernanza único. Los responsables políticos se enfrentan al «dilema de la evidencia». Deben sopesar los beneficios y riesgos potenciales sin un amplio cuerpo de evidencia científica debido al rápido ritmo de las mejoras tecnológicas. Esto conduce a un acto de equilibrio crucial:
- Medidas preventivas: Actuar temprano con evidencia limitada podría ser ineficaz o resultar innecesario en última instancia.
- Acción tardía: Esperar pruebas definitivas del riesgo puede dejar a la sociedad vulnerable a amenazas emergentes rápidamente, haciendo imposible una mitigación efectiva.
Para abordar esto, algunas soluciones en las que están trabajando las empresas y los gobiernos son:
- Sistemas de alerta temprana: Supervisar los riesgos potenciales mediante el seguimiento de medidas específicas cuando surjan nuevas pruebas de riesgos.
- Marcos de gestión de riesgos: Exigir a los desarrolladores que proporcionen evidencia de seguridad antes de lanzar un nuevo modelo.
Desafíos de la asimetría de la información
Un desafío clave es la brecha de información: las empresas de IA a menudo poseen sustancialmente más conocimiento sobre sus sistemas que los gobiernos o los investigadores independientes. Esta falta de transparencia complica la gestión eficaz de los riesgos.
- Intercambio de datos limitado: Las empresas a menudo restringen el acceso a información detallada del modelo debido a preocupaciones comerciales y de seguridad.
- Investigación obstaculizada: La opacidad inhibe la investigación de seguridad de la IA por parte de terceros.
Presiones competitivas
Además de los desafíos regulatorios y de información, las empresas de IA y los gobiernos están frecuentemente sujetos a presiones competitivas que afectan la prioridad que se le da a la gestión de riesgos de la IA:
- Disminución de la prioridad del riesgo: La presión competitiva puede incentivar a las empresas a invertir menos tiempo o recursos en la gestión de riesgos de lo que lo harían de otro modo.
- Conflictos en la política: Los gobiernos pueden invertir menos en políticas para apoyar la gestión de riesgos en los casos en que perciben compensaciones entre la competencia internacional y la reducción de riesgos.