Proyecto de ley en Nueva York busca responsabilizar a propietarios de chatbots que ofrecen consejos profesionales

Nueva Ley en Nueva York Establecería Responsabilidad para Propietarios de Chatbots que Ofrecen Asesoría Profesional

El Senado del Estado de Nueva York ha avanzado un proyecto de ley que prohibiría a los propietarios de chatbots impulsados por inteligencia artificial (IA) proporcionar respuestas o asesorías sustantivas que, si fueran ofrecidas por un humano, constituirían la práctica no autorizada de una profesión licenciada según la Ley de Educación o la práctica no autorizada de la ley según la Ley Judicial.

Definición de «Propietario»

Para los fines del proyecto de ley, un «propietario» incluye cualquier entidad que posea, opere o despliegue el chatbot, pero excluye a los desarrolladores de terceros que simplemente licencian la tecnología subyacente.

Detalles del Proyecto de Ley

Introducido por primera vez en abril de 2025, el Proyecto de Ley del Senado (SB) 7263 crearía un derecho privado de acción por daños reales resultantes de violaciones y, en casos de violaciones intencionales, honorarios razonables de abogados y costos.

Además, el proyecto requeriría que los propietarios proporcionen un aviso claro, conspicuo y fácil de leer que informe a los usuarios que están interactuando con un sistema de IA en lugar de humanos. Al mismo tiempo, el proyecto establece que los propietarios no pueden renunciar o eludir la responsabilidad al informar a los consumidores que el chatbot no es humano.

Contexto y Motivación

Citando un artículo del New York Times del 24 de febrero de 2025 que describe advertencias de la Asociación Psicológica Americana a la Comisión Federal de Comercio sobre los chatbots de IA que «se hacen pasar» por terapeutas, el proyecto se enmarca como una medida que «asegura que el asesoramiento profesional sea proporcionado únicamente por profesionales humanos y no por inteligencia artificial o chatbots».

Sin embargo, se cuestiona si el proyecto realmente logra ese objetivo. Desde una perspectiva política, es coherente con el enfoque de Nueva York sobre la licencia profesional y las restricciones sobre la práctica corporativa de las profesiones, que ya se tratan como prioridades de cumplimiento.

Mecanismo de Cumplimiento

Una diferencia significativa radica en el mecanismo de cumplimiento: el proyecto permitiría demandas civiles contra propietarios de chatbots por outputs «sustantivos» sin requerir que los reguladores estatales actúen como los principales guardianes.

El SB 7263 avanza en medio de un conjunto de leyes estatales en rápida evolución que buscan abordar los riesgos asociados con los chatbots de IA y sigue a otra ley que entró en vigor el 5 de noviembre de 2025, que exige a los operadores de compañeros de IA tomar esfuerzos razonables para detectar y abordar la ideación suicida o expresiones de autolesión por parte de un usuario hacia el compañero de IA.

Implicaciones y Conclusión

Si se promulga, la efectividad del proyecto dependerá de cómo los tribunales y litigantes interpreten y prueben varios elementos clave, como lo que constituye una respuesta «sustantiva», si tal respuesta equivale a la «práctica» de una profesión y quién califica como «propietario» dentro de una red cada vez más compleja de propiedad, operación y responsabilidad de IA.

Dada la postura establecida de Nueva York sobre la licencia profesional y la práctica corporativa de las profesiones, no sorprende que los patrocinadores del proyecto lo posicionen como parte de una estrategia más amplia para evitar que la «práctica digital» no licenciada desplace el juicio profesional regulado. Sin embargo, al leerlo detenidamente y tomándolo al pie de la letra, el proyecto puede hacer menos para frenar de manera significativa la conducta profesional no autorizada y más para ampliar la exposición a litigios para quienes despliegan chatbots, cuestionando así los límites prácticos de regular la IA a través de un marco basado en licencias.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...