Preocupaciones de seguridad infantil en la regulación de IA de OpenAI

Regulación de IA de OpenAI bajo crítica por preocupaciones sobre la seguridad infantil

La iniciativa de IA de OpenAI ha provocado protestas y ha suscitado preocupaciones sobre la seguridad infantil.

Más de 20 organizaciones prepararon una carta conjunta y la enviaron a la empresa. Una de las razones citadas fue la posible falta de protecciones legales para las familias en caso de que los niños resulten dañados.

Conflicto en torno a la regulación de IA y riesgos para los usuarios

El problema se centra en el proyecto de ley «Padres e Hijos AI Seguro», que OpenAI apoya. Este proyecto busca establecer reglas sobre cómo los chatbots interactúan con menores, incluyendo estándares de seguridad y cumplimiento.

Sin embargo, más de dos docenas de organizaciones han declarado en una carta conjunta que el documento tiene serias fallas. Están pidiendo a la empresa que retire completamente la iniciativa y deje la regulación a los legisladores.

Un director ejecutivo de una de las organizaciones enfatizó: «La demanda principal aquí es que OpenAI se retire de la boleta».

Problemas señalados por los críticos

Los críticos señalan varios problemas clave:

  • Una definición demasiado limitada de daño que cubre efectivamente solo las consecuencias físicas.
  • Limitaciones en la capacidad de las familias para presentar demandas si los niños resultan dañados.
  • Herramientas de supervisión debilitadas para las agencias gubernamentales.
  • Dificultad para realizar cambios en el futuro (se requeriría un voto de dos tercios de los legisladores).

Una preocupación separada es el enfoque sobre los datos de los usuarios. Se ha interpretado como un intento de bloquear a las familias de poder revelar los registros de chat de sus hijos fallecidos en los tribunales.

Aumento de la presión sobre OpenAI

La situación se desarrolla en medio de críticas a las empresas tecnológicas. En particular, la familia de un usuario presentó recientemente una demanda contra otra empresa tecnológica, alegando que un chatbot contribuyó a un comportamiento peligroso.

Se enfatiza que esto es parte de una tendencia más amplia. «El manual de cabildeo que se está utilizando en IA por parte de estas grandes empresas es el mismo que se utilizó anteriormente en otros problemas tecnológicos».

Además, OpenAI ha pospuesto el lanzamiento de la función «modo adulto» en su producto por al menos un mes. Esta decisión se relaciona con dificultades técnicas y riesgos para los menores. Aunque la empresa no está abandonando el despliegue de la función, reconoce la necesidad de pruebas y refinamientos adicionales.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...