OpenAI enfrenta acusaciones por incumplimiento de la ley de seguridad de IA en California

OpenAI disputa la afirmación del organismo de vigilancia sobre la violación de la nueva ley de seguridad de IA de California

OpenAI podría haber violado la nueva ley de seguridad de IA de California con el lanzamiento de su último modelo de codificación, según alegaciones de un grupo de vigilancia de IA.

Una violación podría exponer a la empresa a multas de millones de dólares y el caso podría convertirse en una prueba pionera de las disposiciones de la nueva ley.

Un portavoz de OpenAI disputó la posición del organismo de vigilancia, afirmando que la empresa está «segura de nuestro cumplimiento con las leyes de seguridad de frontera, incluyendo la SB 53.»

Controversia sobre el modelo GPT-5.3-Codex

La controversia se centra en GPT-5.3-Codex, el modelo de codificación más reciente de OpenAI, lanzado la semana pasada. Este modelo forma parte de un esfuerzo de OpenAI por recuperar su liderazgo en la codificación impulsada por IA y, según los datos de referencia publicados por OpenAI, muestra un rendimiento notablemente superior en tareas de codificación en comparación con versiones anteriores de modelos de OpenAI y competidores.

No obstante, el modelo también ha levantado preocupaciones sin precedentes sobre la ciberseguridad. El CEO de OpenAI indicó que el modelo fue clasificado en la categoría de «alto» riesgo para la ciberseguridad según su marco de preparación interno, lo que significa que OpenAI clasifica el modelo como lo suficientemente capaz en codificación como para facilitar daños cibernéticos significativos.

Alegaciones del Midas Project

El grupo de vigilancia de IA, conocido como el Midas Project, afirma que OpenAI no cumplió con sus propios compromisos de seguridad, que ahora son legalmente vinculantes bajo la ley de California, con el lanzamiento del nuevo modelo de alto riesgo.

La SB 53 de California, que entró en vigor en enero, requiere que las principales empresas de IA publiquen y cumplan con sus propios marcos de seguridad, detallando cómo prevenir riesgos catastróficos. También prohíbe que estas empresas hagan declaraciones engañosas sobre el cumplimiento.

El marco de seguridad de OpenAI requiere salvaguardias especiales para modelos con alto riesgo de ciberseguridad, diseñadas para prevenir que la IA actúe de manera engañosa o sabotee la investigación de seguridad. Sin embargo, según el Midas Project, OpenAI no implementó estas salvaguardias antes de lanzar GPT-5.3-Codex.

Interpretaciones conflictivas

OpenAI sostiene que la interpretación del Midas Project sobre su marco de preparación es incorrecta. A pesar de admitir que la redacción del marco es «ambigua,» la empresa argumenta que solo se necesitan salvaguardias adicionales cuando el alto riesgo cibernético ocurre «en conjunción con» la autonomía a largo plazo.

Algunos investigadores de seguridad han cuestionado la interpretación de OpenAI. Un experto ha señalado que, en lugar de admitir que no siguieron su plan, OpenAI parece indicar que los criterios eran ambiguos.

El Midas Project también sostiene que OpenAI no puede probar de manera definitiva que el modelo carece de la autonomía requerida para las medidas adicionales, dado que su modelo anterior ya superó benchmarks globales en tareas autónomas.

Implicaciones y riesgos

Si se abre una investigación y se prueban las alegaciones, la SB 53 permite sanciones sustanciales por violaciones, que podrían ascender a millones de dólares. Un representante de la oficina del Fiscal General de California se comprometió a hacer cumplir las leyes del estado, pero no pudo comentar sobre posibles investigaciones.

Conclusión

La disputa en torno a OpenAI y su nuevo modelo de codificación destaca la creciente importancia de la regulación en el ámbito de la inteligencia artificial. A medida que las tecnologías avanzan, las empresas deben equilibrar la innovación con la responsabilidad, asegurando que se cumplan las normativas de seguridad en sus desarrollos.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...