Estudio Revela un Nivel de Confianza Pública en la Inteligencia Artificial en Mínimos Históricos
Un reciente estudio ha confirmado que la confianza de los australianos en la Inteligencia Artificial (IA) ha alcanzado un nivel récord bajo, impulsada por temores generalizados sobre su uso indebido y la necesidad urgente de acciones gubernamentales a medida que se acercan las elecciones federales.
Resultados Clave del Estudio
Según una encuesta global realizada por la Universidad de Melbourne y KPMG, se han registrado las siguientes estadísticas preocupantes:
- Solo un tercio de los australianos confían en los sistemas de IA.
- La mitad de los encuestados han experimentado o han visto daños causados por la IA.
- Casi tres de cada cinco temen que las elecciones estén siendo manipuladas por contenido generado por IA o bots.
- Más de tres cuartas partes abogan por una regulación más estricta, y menos de un tercio cree que las salvaguardias existentes son adecuadas.
- Nueve de cada diez apoyan leyes específicas para limitar la desinformación impulsada por IA.
Scorecard de Seguridad de IA para las Elecciones Federales de 2025
La organización Australians for AI Safety ha lanzado su Scorecard de Seguridad de IA para las Elecciones Federales de 2025, que compara la postura de cada partido importante sobre dos políticas recomendadas por expertos:
- Un Instituto de Seguridad de IA en Australia, un organismo independiente bien financiado que puede probar modelos avanzados, investigar riesgos y asesorar al gobierno.
- Una Ley de IA australiana que imponga guardias obligatorios y responsabilidad clara a los desarrolladores y desplegadores de IA de alto riesgo y de propósito general.
El scorecard revela que solo los partidos Australian Greens, Animal Justice Party, Indigenous-Aboriginal Party of Australia y Trumpet of Patriots respaldan completamente ambas políticas recomendadas. Algunos independientes, como el Senador David Pocock, también han expresado su apoyo. En contraste, el Partido Libertario se opone generalmente a estas políticas, considerándolas “esquemas gubernamentales”.
Reacciones de los Partidos y Expertos
La respuesta del Coalición al scorecard destacó la percepción de inacción gubernamental: “Debemos estar atentos a los riesgos asociados con esta tecnología… [T]el Gobierno Laborista de Albanese ha fracasado completamente en tomar acciones decisivas o proporcionar claridad y dirección política”. Sin embargo, su respuesta no delineó una posición clara sobre las políticas recomendadas.
Expertos en gobernanza de IA, como Alexander Saeri de la Universidad de Queensland, enfatizan que es crítico que el gobierno implemente estas políticas de manera efectiva para salvaguardar los beneficios extraordinarios de la IA altamente capaz. Saeri afirmó: “Los australianos quieren salvaguardias más fuertes ahora”.
Llamado a la Acción
Como nuevo padre, Michael Kerrison, un consultor convertido en investigador de IA, expresó su preocupación sobre la falta de salvaguardias: “Es inaceptable la falta de medidas de protección. Los principales partidos deben actuar rápidamente para dar a las familias australianas una oportunidad”.
Australians for AI Safety argumenta que una regulación de seguridad robusta permitirá que la innovación en IA prospere, similar a cómo la regulación ha permitido el florecimiento del sector de la aviación. Institutos comparables ya están operando en Japón, Corea, Reino Unido y Canadá, estableciendo un claro referente para Australia.
A pesar del compromiso de Australia de crear un Instituto de Seguridad de IA, este aún no ha sido establecido. La urgencia por una acción efectiva es evidente, y el futuro de la confianza pública en la IA depende de ello.