Riesgos existenciales de la IA: ¿realidad o ficción?

¿Son reales los riesgos existenciales de la IA y qué deberíamos hacer al respecto?

Los riesgos existenciales asociados con sistemas de inteligencia artificial (IA) altamente capaces han sido motivo de preocupación durante mucho tiempo. Estos riesgos abarcan desde la pérdida de control hasta la extinción.

Algunos líderes de la industria consideran que la IA está cerca de igualar o superar la inteligencia humana, aunque evidencias recientes sugieren que las mejoras en la tecnología han disminuido. Si bien tal inteligencia podría alcanzar y representar riesgos extremos, hay problemas más urgentes y daños relacionados con la IA que deben ser abordados primero, especialmente dado que los investigadores enfrentan recursos limitados.

La carta abierta del Future of Life Institute

En marzo de 2023, el Future of Life Institute emitió una carta abierta pidiendo a los laboratorios de inteligencia artificial que “pausen los grandes experimentos de IA”. La preocupación subyacente era: “¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superar, superar y reemplazarnos? ¿Deberíamos arriesgar la pérdida de control de nuestra civilización?” Dos meses después, cientos de personas prominentes firmaron una declaración sobre el riesgo de IA que afirmaba que “mitigar el riesgo de extinción de la IA debería ser una prioridad global junto a otros riesgos a escala social, como las pandemias y la guerra nuclear”.

Esta preocupación sobre el riesgo existencial (“x-risk”) de sistemas de IA altamente capaces no es nueva. En 2014, el famoso físico Stephen Hawking, junto con destacados investigadores de IA como Max Tegmark y Stuart Russell, advirtieron sobre sistemas de IA superinteligentes que podrían “superar los mercados financieros, superar a los investigadores humanos, manipular a los líderes humanos y desarrollar armas que ni siquiera podemos entender”.

La respuesta de los responsables políticos

Los responsables políticos tienden a desestimar estas preocupaciones como exageradas y especulativas. A pesar de un enfoque en la seguridad de la IA en conferencias internacionales en 2023 y 2024, los responsables políticos se alejaron de un enfoque en los riesgos existenciales en la Cumbre de Acción de IA de este año en París. Por el momento, y ante recursos cada vez más limitados, esto es, en cierto modo, positivo. Los responsables políticos e investigadores de IA deberían dedicar la mayor parte de su tiempo y energía a abordar riesgos de IA más urgentes.

Sin embargo, es crucial que los responsables políticos comprendan la naturaleza de la amenaza existencial y reconozcan que, a medida que avanzamos hacia sistemas de IA generalmente inteligentes—aquellos que igualan o superan la inteligencia humana—se volverá necesario desarrollar medidas para proteger la seguridad humana.

¿Cuán cerca estamos de desarrollar modelos de IA con inteligencia general?

Las empresas de IA no están muy cerca de desarrollar un sistema de IA con capacidades que puedan amenazarnos. Esta afirmación contradice un consenso en la industria de IA que sostiene que estamos a solo unos años de desarrollar sistemas poderosos y transformadores capaces de realizar una amplia variedad de tareas cognitivas. En un artículo reciente, se resume este consenso en la industria que la escalabilidad producirá inteligencia artificial general (AGI, por sus siglas en inglés) “para 2030, o antes”.

El argumento estándar predominante en los círculos de la industria se expuso claramente en un ensayo de junio de 2024 por el investigador de IA Leopold Aschenbrenner. Él sostiene que las capacidades de la IA aumentan con la escala—el tamaño de los datos de entrenamiento, el número de parámetros en el modelo y la cantidad de cómputo utilizado para entrenar los modelos. Además, llama la atención sobre la creciente eficiencia algorítmica.

Ejemplos de crecimiento exponencial

Parte de la razón de esta confianza es que las mejoras en la IA parecían exhibir un crecimiento exponencial en los últimos años. Este crecimiento sugiere que capacidades transformacionales podrían emerger inesperadamente y de manera repentina. Esto se alinea con algunos ejemplos bien conocidos de los sorprendentes efectos del crecimiento exponencial.

Sin embargo, estas analogías son engañosas. El crecimiento exponencial en un sistema finito no puede continuar para siempre, y no hay garantía de que siga ocurriendo en el desarrollo de la IA, incluso en un futuro cercano.

Desafíos en la investigación de IA

Hoy en día, los grandes modelos de lenguaje (LLMs) no muestran signos de las mejoras exponenciales características de 2022 y 2023. Por ejemplo, el proyecto GPT-5 de OpenAI se encontró con problemas de rendimiento y tuvo que ser degradado a GPT-4.5, representando solo una mejora “modesta” cuando fue lanzado. Muchos en la comunidad de investigación de IA creen que la AGI no surgirá del enfoque de aprendizaje automático actualmente dominante que se basa en predecir la siguiente palabra en una oración.

La transición hacia la superinteligencia

El filósofo Nick Bostrom define la superinteligencia como un sistema informático que “supera enormemente el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés”. Una vez que los desarrolladores de IA hayan mejorado las capacidades de los modelos de IA hasta el punto en que tenga sentido llamarlos generalmente inteligentes, ¿cómo hacen para que estos sistemas sean más capaces que los humanos?

El paso clave es instruir a los modelos generalmente inteligentes para que mejoren a sí mismos. Sin embargo, una vez que se les instruye para mejorar, los modelos de IA utilizarían sus capacidades de aprendizaje superiores para mejorarse a sí mismos mucho más rápido que los humanos. Pronto, superarían las capacidades humanas a través de un proceso de auto-mejora recursiva.

El problema de la alineación

Los modelos de IA, incluso los superinteligentes, no hacen nada a menos que se les indique que lo hagan. Son herramientas, no seres autónomos con sus propios objetivos y propósitos. Los desarrolladores deben incorporar propósitos y objetivos en ellos para que funcionen en absoluto, lo que puede hacer que parezca a los usuarios que han generado estos propósitos por sí mismos. Pero esta es una ilusión. Harán lo que los desarrolladores y desplegadores humanos les digan que hagan.

Esto plantea un importante problema no resuelto en la investigación de IA: el problema de alineación. Los desarrolladores deben tener mucho cuidado con las tareas que asignan a un sistema generalmente inteligente o superinteligente, incluso si carece de libre albedrío genuino y autonomía.

El camino a seguir

Hasta que se logre algún progreso en la solución de los problemas de desalineación, desarrollar sistemas generalmente inteligentes o superinteligentes parece ser extremadamente arriesgado. Sin embargo, la buena noticia es que el potencial para desarrollar inteligencia general y superinteligencia en modelos de IA parece remoto. Esto significa que todavía hay tiempo suficiente para abordar el problema de alinear la superinteligencia con valores que la hagan segura para los humanos.

Aunque la posibilidad de auto-mejora recursiva que conduce a la superinteligencia refleja la esperanza de muchas empresas de IA fronterizas, no hay evidencia de que los agentes de IA actuales estén cerca de realizar investigaciones de IA incluso al nivel de un técnico humano normal. Esto implica que aún hay un amplio margen para investigar y mitigar los riesgos más inmediatos de desalineación de modelos.

More Insights

Guía Práctica de IA Responsable para Desarrolladores .NET

La era de la Inteligencia Artificial (IA) está sucediendo ahora, y aunque ofrece velocidad y precisión en sectores como la banca y la salud, plantea desafíos éticos sobre su confianza. Para abordar...

Ley de Transparencia en IA: Un Hito en California

Los legisladores de California han hecho historia al aprobar una ley pionera sobre la transparencia en inteligencia artificial que se centra en los "modelos fronterizos", los sistemas de inteligencia...

Desafíos legales del uso de IA en el proceso de contratación

El uso de herramientas de IA en el proceso de solicitud permite a las empresas optimizar sus procesos, pero los empleadores deben asegurarse de que los sistemas utilizados sean transparentes, no...

Los Cuatro Pilares de los Guardrails en GenAI: Construyendo Sistemas de IA Responsables

A medida que la inteligencia artificial generativa transforma cómo operan las empresas, es fundamental implementar sistemas de guardrails para asegurar un despliegue responsable. Estos guardrails, que...

IA Responsable para Mercados Emergentes: Inclusión desde el Diseño

La inteligencia artificial está transformando el mundo, pero los beneficios no llegan a todos de manera equitativa. Es fundamental diseñar sistemas de IA inclusivos que aborden las barreras de...