La Nueva Ley de IA de California Expone el Verdadero Problema de Cumplimiento
Las empresas de IA en la frontera han operado a toda velocidad durante la última década con muy pocas restricciones. Las regulaciones han sido rumoradas durante mucho tiempo, pero han tardado en llegar, creando una atmósfera en la que el cumplimiento es una promesa que los desarrolladores nunca han necesitado cumplir.
Sin embargo, una nueva ley de California firmada por el gobernador establece un marco regulatorio que, según su oficina, “construirá confianza pública mientras continúa impulsando la innovación en estas nuevas tecnologías”. Incluso las empresas que nunca entren modelos sentirán el impacto, ya que los proveedores de los que dependen estarán sujetos a los mismos estándares.
Un Cambio de Rumbo para los Desarrolladores de IA
Cuando se plantearon preocupaciones sobre el cumplimiento de la IA en el pasado, se centraron principalmente en los casos de uso. La ley cambia de enfoque, dirigiendo los controles hacia la capacidad en lugar del caso de uso. La principal preocupación de la ley no es dónde se utilizará la IA, sino cuánto poder aporta a una aplicación.
Los desarrolladores de IA que superen el umbral de potencia computacional establecido por la ley deben adoptar marcos diseñados para proteger contra sistemas que podrían causar daños catastróficos. Estos marcos deben desarrollarse, implementarse y hacerse públicos, revelando los pasos que las empresas están tomando para gestionar y mitigar los riesgos que sus modelos presentan.
Un Llamado a Operacionalizar la Ética de la IA
La ley señala que es hora de volver a centrar la discusión en la ética, pero exige más que solo hablar. Adoptar los requisitos de la ley requiere, en última instancia, operacionalizar la ética de la IA.
Las expectativas para los desarrolladores de IA de poner la ética por encima de la eficiencia son altas. La gobernanza efectiva bajo la nueva ley requiere más que simples memorandos de política. Cada desarrollador de IA en California debe “redactar, implementar, cumplir y publicar claramente en su sitio web un marco de IA en la frontera” que explique cómo están determinando la amenaza de riesgo catastrófico y protegiéndose contra ella.
Conclusión
La amenaza de un riesgo catastrófico planteada por la IA no es un tema común de discusión en las juntas directivas. Esta nueva ley cambia eso, exigiendo a los desarrolladores de IA en la frontera que asuman la responsabilidad por el poder que conjuran, creando culturas que están tan comprometidas con la responsabilidad como lo están con la innovación.