EXCLUSIVO: Antiguo CEO de Google en desacuerdo con ex CTO de la FTC sobre la regulación de la IA
En una acalorada discusión con destacados académicos de la IA, un antiguo ejecutivo de una importante empresa tecnológica argumentó que los sistemas de IA pueden desarrollar comportamientos inesperados que limitan la capacidad de las empresas para implementar mecanismos de seguridad y gobernanza preventivos en sus productos.
Desafíos en la regulación de la IA
Un problema central en la regulación de los modelos de IA de vanguardia es que, a veces, «emerge una nueva característica en estos sistemas que no ha sido probada», se mencionó en el evento. Si bien se puede detener la aparición de nuevas características mediante leyes que prohíban modelos más grandes, existe la preocupación de que esto detendría todo progreso. La tolerancia hacia los errores es fundamental debido a las capacidades profundas que poseen estos sistemas.
Se enfatizó que los desarrolladores de IA deben ser responsables si se encuentran en violación de la ley, aunque a menudo deben lanzar productos y corregir comportamientos inesperados a medida que los modelos evolucionan. Este proceso se ha vivido en versiones anteriores de la tecnología de IA de la empresa, donde se identificó y corrigió rápidamente lo que estaba mal.
Críticas a la conformidad de las empresas tecnológicas
Una académica desafió la idea de que las empresas tecnológicas cumplirían felizmente con las regulaciones, señalando que estas han ignorado repetidamente importantes normativas o han intentado manipular la ley en su beneficio comercial. Esto se evidenció en casos recientes donde se encontró a una empresa tecnológica operando monopolios ilegales.
La académica argumentó que mitigar los riesgos asociados con la IA requiere cambios más fundamentales en lugar de soluciones retrospectivas. Se mencionaron preocupaciones sobre daños existentes relacionados con sesgos y protección del consumidor que ya están ocurriendo y que deberían ser abordados.
La complejidad de la IA y sus riesgos
Otro panelista expresó su preocupación por el futuro de la IA, comparando los esfuerzos actuales de seguridad y gobernanza con intentos inadecuados de prevenir desastres nucleares. Los esfuerzos se centran principalmente en la investigación de interpretabilidad y la evaluación de modelos, pero se cuestionó su eficacia ante los peligros inherentes a los modelos de IA que actúan de maneras no anticipadas.
A pesar de estas preocupaciones, se argumentó que los beneficios de la IA superarán los riesgos. Los responsables en el sector están conscientes de los peligros, y se dedica mucho tiempo a discutirlos y mitigarlos.
Conclusiones
El debate resaltó la complejidad de gobernar la IA y la necesidad de un enfoque equilibrado que considere tanto los beneficios tecnológicos como los riesgos potenciales. La responsabilidad de las empresas tecnológicas y la aplicación efectiva de las regulaciones son cruciales para garantizar un futuro seguro y beneficioso en el ámbito de la inteligencia artificial.