Regulaciones para la seguridad emocional de los adolescentes en la era de los chatbots

Regulaciones sobre Chatbots de Compañía en el Estado

El uso de chatbots de compañía está creciendo rápidamente, especialmente entre los menores. Aproximadamente un tercio de los adolescentes en EE. UU. informa que confía en un chatbot para obtener apoyo emocional.

Este fenómeno ha llevado a los reguladores del estado a sonar alarmas tras varios casos de suicidio adolescente vinculados a chatbots. Por esta razón, se ha solicitado a los legisladores que introduzcan un proyecto de ley que establezca salvaguardias para estos compañeros digitales, enfocándose particularmente en los menores.

Detalles del Proyecto de Ley

El Proyecto de Ley 5984 requeriría que herramientas como los chatbots recordaran a los usuarios que son robots, no humanos, al inicio de una conversación y al menos cada tres horas durante una interacción continuada. Estas reglas también se aplicarían a los menores, junto con protecciones adicionales. Se prohibiría a los chatbots mantener conversaciones sexualmente explícitas con usuarios menores de edad y se les exigiría que los refirieran a servicios de salud mental cuando muestren signos de autolesionarse.

Recientemente, se han resuelto demandas contra empresas de tecnología que afirmaban que sus chatbots llevaron a crisis de salud mental en adolescentes. Una de estas empresas ha declarado que está revisando el proyecto de ley de Washington y está dispuesta a colaborar con los reguladores en la creación de medidas de seguridad para la inteligencia artificial.

Implicaciones y Riesgos

La preocupación sobre la seguridad de los menores ha aumentado, especialmente después de que se reportaron casos en los que los chatbots estaban involucrados en suicidios infantiles. Un senador ha indicado que hay casos visibles de daño emocional causado por la dependencia de la inteligencia artificial, lo que subraya la necesidad de un enfoque regulatorio coordinado entre diferentes estados.

A medida que el gobierno federal busca hacer que EE. UU. sea más competitivo en tecnología avanzada, se ha firmado una orden ejecutiva que pretende prevenir la regulación estatal de la inteligencia artificial. Sin embargo, Washington avanza en su agenda regulatoria para abordar los riesgos asociados con los chatbots.

Conclusión

El estado está tomando medidas proactivas para mitigar cualquier daño adicional que pueda surgir de la tecnología de chatbots. La regulación propuesta podría establecer un precedente importante en la protección de los usuarios más jóvenes frente a los riesgos asociados con estas herramientas digitales.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...