La necesidad de escepticismo en el debate sobre la seguridad de la IA

El Debate sobre la Seguridad de la IA Necesita Escépticos de la IA

Asistir a una conferencia sobre las amenazas emergentes de la inteligencia general artificial como un realista escéptico es similar a asistir a un servicio religioso de la fe de otra persona. En lugar de enfocarse en las capacidades técnicas y aplicaciones reales de los sistemas, a menudo se encuentra con una creencia inquebrantable en amenazas imaginadas.

La creencia puede cambiar el mundo tanto como la realidad, por lo que es útil comprender los mitos de la IA y cómo dan forma a nuestras percepciones. Estos mitos alimentan discusiones sobre riesgos existenciales y visiones de desplazamiento económico a corto plazo, donde se imagina un mundo en el que el trabajo se vuelve obsoleto. La comunidad de riesgos de IA está compuesta por expertos bien intencionados preocupados por la trayectoria de la IA hacia una superinteligencia vagamente definida.

La Falta de Evidencia y la Confusión

A pesar de la falta de evidencia convincente sobre esta trayectoria hacia la IA general, la posibilidad urgente de la superinteligencia persiste en cada conversación. Se nos dice que la IA está a solo seis a diez años de distancia, lo que crea una sensación de urgencia. Sin embargo, las discusiones sobre la adopción de la IA a menudo presentan contradicciones, confundiendo el progreso en la IA generativa con sistemas analíticos robustos.

Los sesgos en la automatización no son nuevos y aún no se han resuelto, y hay evidencia suficiente de los daños que surgen de las aplicaciones incorrectas de categorías y etiquetas en la IA. En el ámbito de la política, las conversaciones sobre el «riesgo de IA» se diseñan cuidadosamente para evitar la apariencia de parcialidad, lo que a menudo debilita la política compleja en juego con la IA.

Política Sin Proselitismo

Si todos tenemos la intención de anticipar los daños de estas tecnologías, la prioridad debe ser identificar qué daños son más probables. La especulación pura está limitada solo por los límites de la imaginación. En lugar de examinar la realidad, la evidencia de la inevitable llegada de la IA general se basa en una fe en las leyes de escalado y extrapolaciones de anécdotas personales sobre mejoras tecnológicas.

La confusión proviene del vocabulario utilizado para describir estos sistemas, lo que dificulta la transición hacia metáforas más útiles y fundamentadas. La noción de «inteligencia» se ha convertido en una forma de organizar nuestro pensamiento en torno a la IA, llevando a teorías de cognición y autoconciencia que no se sostienen.

El Vocabulario Pragmático

Navegar en esta discusión ha creado soluciones contraproducentes. Ha surgido un vocabulario de política destinado a enmarcar decisiones estratégicas en el espacio de IA, independientemente de si uno cree en la inevitabilidad de sistemas de IA omnipotentes o sus políticas incómodas. Este vocabulario de política busca crear un terreno común entre diferentes perspectivas y actores.

La realidad es que nadie en una conferencia de IA quiere discutir casos de estudio que demuestran fallas en el diseño, como el Chevrolet Corvair. Las conversaciones sobre cómo el poder corporativo se infiltra en la tecnología y el diseño son vistas como políticas. La política de la IA tiende a ceder el marco a la imaginación más amplia de la tecnología apolítica en un mundo donde el mayor riesgo de la IA podría ser su política.

Los Peligros de los Marcos de AGI

La promoción de la IA generativa como cercana a ser superinteligente puede reforzar la idea de que la tecnología actual es robusta. Esto podría llevar a la confianza en sistemas que no están preparados para ser utilizados en áreas críticas. La evaluación de riesgos de la IA debe estar anclada en la realidad y no en especulaciones.

El futuro no será determinado por la IA en aislamiento, sino por cómo las personas la usen o se nieguen a hacerlo. Las medidas políticas establecidas de antemano pueden ayudar a prevenir catástrofes innecesarias y guiar hacia un desarrollo más socialmente beneficioso.

Las palabras que usamos son importantes, y es crucial construir nuestra política y nuestra infraestructura social en torno a evaluaciones realistas de las herramientas que empleamos. De lo contrario, corremos el riesgo de ser guiados por palabras sin sentido que surgen de sueños.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...