Conflicto sobre la regulación de la IA entre Eric Schmidt y Latanya Sweeney

EXCLUSIVO: Antiguo CEO de Google en desacuerdo con ex CTO de la FTC sobre la regulación de la IA

En una acalorada discusión con destacados académicos de la IA, un antiguo ejecutivo de una importante empresa tecnológica argumentó que los sistemas de IA pueden desarrollar comportamientos inesperados que limitan la capacidad de las empresas para implementar mecanismos de seguridad y gobernanza preventivos en sus productos.

Desafíos en la regulación de la IA

Un problema central en la regulación de los modelos de IA de vanguardia es que, a veces, «emerge una nueva característica en estos sistemas que no ha sido probada», se mencionó en el evento. Si bien se puede detener la aparición de nuevas características mediante leyes que prohíban modelos más grandes, existe la preocupación de que esto detendría todo progreso. La tolerancia hacia los errores es fundamental debido a las capacidades profundas que poseen estos sistemas.

Se enfatizó que los desarrolladores de IA deben ser responsables si se encuentran en violación de la ley, aunque a menudo deben lanzar productos y corregir comportamientos inesperados a medida que los modelos evolucionan. Este proceso se ha vivido en versiones anteriores de la tecnología de IA de la empresa, donde se identificó y corrigió rápidamente lo que estaba mal.

Críticas a la conformidad de las empresas tecnológicas

Una académica desafió la idea de que las empresas tecnológicas cumplirían felizmente con las regulaciones, señalando que estas han ignorado repetidamente importantes normativas o han intentado manipular la ley en su beneficio comercial. Esto se evidenció en casos recientes donde se encontró a una empresa tecnológica operando monopolios ilegales.

La académica argumentó que mitigar los riesgos asociados con la IA requiere cambios más fundamentales en lugar de soluciones retrospectivas. Se mencionaron preocupaciones sobre daños existentes relacionados con sesgos y protección del consumidor que ya están ocurriendo y que deberían ser abordados.

La complejidad de la IA y sus riesgos

Otro panelista expresó su preocupación por el futuro de la IA, comparando los esfuerzos actuales de seguridad y gobernanza con intentos inadecuados de prevenir desastres nucleares. Los esfuerzos se centran principalmente en la investigación de interpretabilidad y la evaluación de modelos, pero se cuestionó su eficacia ante los peligros inherentes a los modelos de IA que actúan de maneras no anticipadas.

A pesar de estas preocupaciones, se argumentó que los beneficios de la IA superarán los riesgos. Los responsables en el sector están conscientes de los peligros, y se dedica mucho tiempo a discutirlos y mitigarlos.

Conclusiones

El debate resaltó la complejidad de gobernar la IA y la necesidad de un enfoque equilibrado que considere tanto los beneficios tecnológicos como los riesgos potenciales. La responsabilidad de las empresas tecnológicas y la aplicación efectiva de las regulaciones son cruciales para garantizar un futuro seguro y beneficioso en el ámbito de la inteligencia artificial.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...