Regulación necesaria: La industria debe liderar el camino en la seguridad de la IA

Columna de Invitados: La IA necesita regulación, la industria debe liderar el camino

Estimados ejecutivos, miembros de juntas y asociaciones industriales que dan forma a la dirección del desarrollo de la IA: la era de los marcos de seguridad vagos ha terminado; debe comenzar la era de los estándares exigibles.

Las familias afectadas por incidentes relacionados con la IA merecen más que reuniones y declaraciones de prensa que expresan preocupación. Merecen saber que las empresas que operan plataformas tecnológicas de IA se han comprometido, públicamente y con consecuencias exigibles, a estándares que evitarán que fallos similares ocurran nuevamente.

Debo dejar claro que muchas preocupaciones sobre los impactos negativos de la IA son exageradas y no basadas en hechos. El valor a largo plazo que la IA aporta a la sociedad supera sustancialmente los riesgos, siempre que estos se gestionen adecuadamente. Gracias a su poder y alcance, esta tecnología traerá un valor que muchos no pueden imaginar en este momento de la historia humana.

La necesidad de regulación

Es precisamente por esto que deben hacerse esfuerzos serios para controlar y regular la IA, lo que, por definición, se refiere a las empresas detrás de las tecnologías de IA. El gobierno federal tiene razón al exigir cambios que aumenten la seguridad para los ciudadanos.

No obstante, estas reglas y regulaciones no deben provenir del gobierno, como se sugirió recientemente en un artículo de opinión. Las empresas que diseñan estos sistemas los entienden mejor que cualquier regulador. Están en la mejor posición para diseñar salvaguardias multilaterales que vayan mucho más allá de simples filtros, sin retrasar el progreso tecnológico realizado en los últimos años.

Guardias y protocolos

Esto incluye definir los umbrales técnicos para lo que constituye una amenaza creíble de violencia, establecer protocolos de escalada que sean operativamente sólidos y respetuosos de la privacidad, y determinar los puntos exactos donde la detección automatizada debe pasar a una revisión humana obligatoria. Al invertir en estas salvaguardias sistémicas, las empresas pueden garantizar que la seguridad sea una característica arquitectónica de la tecnología, no una reflexión posterior.

Y tiene sentido comercial. Las empresas que operan en vacíos regulatorios invitan a una legislación reactiva que tiende a seguir tragedias. También invitan a la exposición a responsabilidades, daños a la reputación y erosión de la confianza pública que, en última instancia, es la base sobre la cual dependen sus productos.

Consecuencias para la industria

El manejo de cuentas por parte de algunas empresas en situaciones críticas ha generado un tipo de escrutinio que ninguna compañía que busque expandir su presencia puede permitirse. Además, crea consecuencias negativas para toda la industria y, paradójicamente, para la seguridad de la sociedad misma. Cuando reaccionamos a una crisis con legislación reactiva, a menudo priorizamos la señalización de acción sobre la solución de problemas. Decisiones apresuradas que desestiman los matices técnicos no solo sofocan nuestro sector más transformador; crean una falsa sensación de seguridad mientras dejan los verdaderos vacíos complejos completamente abiertos.

Código de conducta para la seguridad de la IA

Un código de conducta serio, diseñado por la industria para la seguridad de la IA, que tenga fuerza genuina y no sirva solo como documento de relaciones públicas, debe abordar varias preguntas centrales. Debe proporcionar estándares a nivel industrial para eliminar ambigüedades y definir salvaguardias claras y multilaterales. Además, estructuras de reporte claras y estrictas son esenciales. En práctica, esto significa que si un sistema automatizado señala contenido, los humanos deben intervenir y revisar el contenido detectado según criterios consistentes. Las violaciones a esto deben llevar a investigaciones serias que resulten en resultados transparentes y significativos.

Coordinación internacional

Por último, cualquier marco debe establecerse en una genuina coordinación transfronteriza. El internet no reconoce fronteras nacionales. Un marco exclusivo de Canadá estará incompleto mientras las principales plataformas de IA tengan su sede y estén gobernadas en otros lugares. Esto podría ser el paso más difícil, pero el país ha expresado repetidamente su deseo de liderar en este ámbito.

Conclusión

Buscar cambios significativos en los requisitos de seguridad requiere un nivel de cooperación que, históricamente, solo eventos trágicos y oscuros pueden inspirar. Respondamos a esta tragedia con la velocidad adecuada, pero también con seriedad e intelectualidad. La cuestión no es si las empresas de IA son responsables únicas de lo que sucedió; la cuestión es si la industria tiene estándares adecuados, vinculantes y aplicados de manera consistente para actuar cuando surgen pruebas creíbles de violencia planificada. Actualmente no los tiene.

El sector privado tiene aquí una oportunidad que sería imprudente desperdiciar: demostrar que la innovación tecnológica y la seguridad pública no son valores en competencia, y que la industria es capaz de gobernarse a sí misma con la seriedad que este momento exige. Si la industria no aprovecha esa oportunidad, los gobiernos actuarán, y lo harán en un cronograma y de una manera sobre la cual el sector tecnológico tendrá mucha menos influencia, lo que limitaría a los ciudadanos en su beneficio de la tecnología transformadora.

Debemos liderar ahora o ser guiados. La elección es nuestra.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...