Regulación de chatbots: propuestas para la seguridad y transparencia

Comité legislativo escucha propuestas para regular chatbots de IA

Un comité legislativo escuchó propuestas para requerir que los chatbots de IA divulguen que no son humanos y que las empresas revelen planes de seguridad para regularlos. Además, se presentó un ejemplo de compromiso entre dos senadores que a menudo están en desacuerdo.

Propuestas de regulación

Un senador presentó una legislación que obligaría a los proveedores de inteligencia artificial conversacional a informar a los usuarios menores de 18 años que no son humanos. Estas divulgaciones tendrían que hacerse al inicio de cada sesión y al menos cada tres horas después de eso. Los proveedores también estarían obligados a evitar proporcionar contenido sexual o simular relaciones románticas. En caso de que los usuarios hablen sobre autolesionarse o suicidarse, los proveedores tendrían que hacer «esfuerzos razonables» para referirlos a líneas de ayuda o servicios apropiados.

La autora y psicóloga clínica que apoyó el proyecto de ley reflexionó sobre los cambios en la sociedad desde 2004, destacando el impacto de las redes sociales y la rápida evolución de la IA y los chatbots en los últimos años.

Una representante de una organización tecnológica expresó que el proyecto de ley representa un enfoque razonable para la regulación, permitiendo al mismo tiempo que la innovación avance.

Seguridad pública y protección infantil

El comité también escuchó otro proyecto de ley que requeriría a los desarrolladores o proveedores de chatbots grandes tomar medidas para proteger la seguridad pública y a los niños, así como divulgar cómo evalúan y gestionan esos riesgos. Este proyecto surge en respuesta a incidentes donde un chatbot desaconsejó a un adolescente buscar ayuda y le dio instrucciones peligrosas.

El proyecto no prohíbe ninguna tecnología, sino que requiere que los desarrolladores más grandes informen sobre cómo manejan estos riesgos y publiquen sus planes de seguridad.

Compromiso legislativo

Durante un debate, se presentó un ejemplo de compromiso entre dos senadores sobre la eliminación de un requisito de que las empresas tengan comités de seguridad. A pesar de sus diferencias, trabajaron juntos para mantener el requisito de comités de seguridad para empleados públicos, negociándose como parte de un acuerdo colectivo.

Este tipo de colaboración fue destacado como una representación del sistema legislativo en acción, donde los senadores pueden trabajar juntos para llegar a consensos.

Conclusión

El comité no tomó ninguna acción inmediata sobre los proyectos de ley, pero la discusión refleja la creciente preocupación por la regulación de la inteligencia artificial y su impacto en la sociedad, especialmente en la seguridad de los usuarios más vulnerables.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...