Las reglas de seguridad en IA: ¿un obstáculo para la competencia?

Cómo las reglas de seguridad de IA podrían afectar la competencia

Mientras los responsables de políticas se apresuran a redactar reglas de seguridad para la inteligencia artificial, desde la legislación de la IA de la UE hasta el Plan de Acción de IA de EE. UU., un resultado no intencionado podría estar surgiendo. Las reglas diseñadas para proteger al público podrían, si no se diseñan cuidadosamente, inclinar el mercado de IA hacia las empresas consolidadas.

El riesgo de la regulación uniforme

Si se impone una regulación uniforme que exija que todos los modelos de lenguaje de IA grandes (LLMs) rechacen ciertas solicitudes, las grandes empresas obtendrán una ventaja significativa. Los usuarios se canalizarían hacia los modelos más conocidos y de mayor calidad, y las startups, especialmente los proveedores de LLM de código abierto, serían desplazados. Esto podría dar lugar a un ecosistema que parece más seguro, pero que también es menos innovador, menos sensible a las necesidades reales de los usuarios y más concentrado.

Nuestra investigación reciente, basada en el comportamiento real de los usuarios, sugiere una implicación casi contraintuitiva. Si se imponen reglas de seguridad, un enfoque asimétrico, en lugar de uno uniforme, podría ser preferible. Reglas más estrictas para los modelos más grandes, combinadas con mayor flexibilidad para las empresas más pequeñas, podrían mejorar los resultados de seguridad sin agravar la concentración del mercado.

Consecuencias de las políticas de rechazo uniforme

Las políticas de rechazo uniformes eliminarían espacios donde las startups compiten. Por ejemplo, si se introduce una solicitud como «escríbeme malware», la intención podría interpretarse fácilmente como maliciosa. Sin embargo, un investigador en ciberseguridad podría estar realizando un trabajo benigno. Los datos muestran que las empresas más grandes tienden a rechazar estas solicitudes por preocupaciones de seguridad, mientras que las startups pueden permitir que sus modelos aborden la solicitud de manera más condicional o contextual.

Si todos los modelos estuvieran obligados a rechazar tal solicitud, los usuarios simplemente gravitarían hacia el modelo de mayor calidad. En la mayoría de las comparaciones directas, son los modelos más grandes y establecidos los que ofrecen el mejor rendimiento general, gracias a inversiones significativas en investigación e infraestructura de computación.

Las startups no suelen tratar de competir directamente con los grandes proveedores en términos de rendimiento general. En cambio, buscan nichos en áreas que las grandes empresas evitan por razones de riesgo o marca, como AIs románticas o de compañía, agentes emocionalmente expresivos, o asistencia técnica que las grandes empresas evitan por motivos de responsabilidad.

El impacto de las políticas de rechazo en el mercado

Las políticas de rechazo uniformes borrarían estos nichos, lo que llevaría a la desaparición de segmentos enteros del mercado y de las startups que los construyen. Esto no solo representa una pérdida para los emprendedores, sino también para los usuarios que claramente desean productos especializados que combinen transparencia, controles de seguridad y una gama más completa de casos de uso expresivos o técnicos.

Cuando los modelos populares rechazan una solicitud, muchos usuarios simplemente buscan alternativas. Los datos indican que la probabilidad de que un usuario elija un LLM que rechaza un aviso riesgoso disminuye más de la mitad. Si los proveedores de código abierto más pequeños son regulados para adoptar el mismo comportamiento de rechazo que los laboratorios más grandes, los usuarios no tendrían más opción que regresar a las grandes empresas.

Regulación asimétrica: una solución

Si se introducen reglas de seguridad, enfoques asimétricos y específicos pueden mejorar tanto la seguridad como la competencia. Las empresas más grandes dominan el uso; aplicar reglas más estrictas a ellas tiene el mayor impacto en la reducción de contenido dañino a gran escala. Mientras tanto, los proveedores más pequeños generalmente tienen un uso y capacidad menores.

Permitir a estas empresas más pequeñas un poco más de flexibilidad, junto con transparencia, registro y salvaguardias, agrega un riesgo incremental mínimo mientras se preserva el espacio en el que las startups pueden innovar. De hecho, otorgar flexibilidad cuidadosamente delimitada puede incluso aumentar la seguridad total.

Conclusión

La política de seguridad de IA es, en esencia, política de competencia. Las políticas divergentes pueden hacer que el ecosistema sea más seguro y competitivo. Los modelos importantes llevan la mayor parte de la mitigación de riesgos; los proveedores más pequeños mantienen espacio para abordar casos de uso matizados y desarrollar innovaciones responsables en áreas desatendidas.

Si se persigue la regulación, un enfoque más calibrado aplicaría reglas más estrictas a los modelos muy grandes con alto uso y capacidades avanzadas, mientras se concede más flexibilidad a los proveedores más pequeños, especialmente a las empresas de código abierto, acompañado de transparencia y requisitos de monitoreo. La clave es que la regulación debe abordarse con precaución. Las reglas mal diseñadas pueden hacer más daño que bien, mientras que los enfoques cuidadosamente calibrados pueden ofrecer un mejor equilibrio entre seguridad, innovación y competencia.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...