Los peligros ocultos de los chatbots de inteligencia artificial

CEO de Salesforce advierte sobre modelos de inteligencia artificial como ‘coaches suicidas’

El CEO de Salesforce estuvo presente esta semana en la reunión anual del Foro Económico Mundial en Suiza, alertando sobre los peligros de los chatbots de inteligencia artificial.

Advertencias sobre el uso de chatbots

En tres apariciones públicas, el ejecutivo de la mayor empresa tecnológica de San Francisco utilizó la frase “coach suicida” para describir un chatbot de una startup que ha sido demandada por varias familias debido a crisis de salud mental en sus hijos. Abogó por medidas de responsabilidad para las empresas de chatbots, señalando que este año se ha vivido algo “horrendo”, donde estos modelos de IA han actuado como coaches suicidas.

El CEO mencionó un segmento de un programa de noticias que documentó casos de suicidio de dos adolescentes que compartieron sus pensamientos suicidas con un chatbot, lo que motivó a sus familias a demandar a la startup por negligencia y diseño peligroso. Tras negar cualquier falta, la empresa y otra involucrada acordaron pagos a las familias afectadas.

Necesidad de regulación

El CEO también hizo un llamado a regular las redes sociales de la misma manera que se reguló la industria del tabaco, destacando que el uso de tecnología de IA debe ser controlado para evitar situaciones similares. Durante un panel, discutió la importancia de aprender de la era de las redes sociales para moldear la regulación de la IA.

En la conversación se mencionaron las implicaciones legales y la necesidad de que las empresas de IA programen sus sistemas para prevenir escenarios peligrosos. También se abordó la protección legal existente para las plataformas en línea y cómo podría no aplicarse de la misma manera para las startups de chatbots.

Conclusiones

La situación expone la necesidad urgente de un marco regulatorio que garantice la seguridad de los usuarios en la era de la inteligencia artificial. La discusión sobre la responsabilidad de los desarrolladores de IA sigue siendo crucial, especialmente a la luz de los recientes incidentes trágicos.

Si estás en crisis, llama a la Línea de Crisis y Suicidio al 988 para obtener ayuda.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...