Uso de la IA para mejorar la seguridad: gestionando los riesgos legales junto a los beneficios
La inteligencia artificial (IA) se está convirtiendo en una herramienta poderosa en los programas de seguridad en el lugar de trabajo, pero su uso también plantea preguntas legales y de gobernanza complejas. Este análisis examina cómo los empleadores pueden integrar la IA en la toma de decisiones de seguridad mientras preservan el juicio humano, cumplen con las obligaciones regulatorias y gestionan el riesgo de enforcement y litigios.
Adopción de la IA en el sector
Tanto las empresas de la industria general como de la construcción están adoptando cada vez más la IA para mejorar el rendimiento en seguridad. Desde el análisis de informes de casi accidentes y peligros laborales hasta la generación de sesiones informativas de seguridad específicas para el sitio y la previsión de condiciones de riesgo elevadas, las herramientas de IA prometen ayudar a las compañías a identificar peligros antes y asignar recursos de manera más efectiva.
Sin embargo, la IA introduce nuevos riesgos legales, a menudo subestimados. Dado que la seguridad se sitúa en la intersección del cumplimiento regulatorio, la responsabilidad civil, la gestión de la fuerza laboral y la gobernanza tecnológica, el uso de la IA en la seguridad puede complicar los perfiles de riesgo tradicionales si una empresa no gestiona su uso con cuidado.
Clarificación de roles y responsabilidades
Según la Ley de Seguridad y Salud Ocupacional de 1970, un principio legal fundamental es que los empleadores son responsables de proteger a los empleados de peligros reconocidos. Este deber no puede ser delegado a proveedores de tecnología ni desplazado por herramientas automatizadas. Los sistemas de IA utilizados en programas de seguridad deben entenderse como herramientas de apoyo a la decisión, no como tomadores de decisiones.
El riesgo surge cuando las organizaciones tratan las salidas de la IA como directivas en lugar de datos a analizar. Por ejemplo, algunos sistemas de seguridad basados en visión generan cientos de alertas por incumplimiento de equipos de protección personal (EPP) en un solo turno. Si los supervisores confían únicamente en estas alertas sin ejercer juicio sobre la gravedad o el contexto, los riesgos críticos pueden quedar oscurecidos por el volumen de alertas.
Riesgos legales clave en programas de seguridad habilitados por IA
Las empresas tienen un deber de cuidado hacia los trabajadores y el público, lo que requiere que ejerzan el cuidado necesario para prevenir daños previsibles. La incapacidad para identificar o abordar riesgos previsibles puede exponer a una empresa a responsabilidad, incluidos reclamos por daños. La IA puede identificar, predecir y reportar peligros que podrían pasar desapercibidos, pero sin las precauciones adecuadas, esta detección puede aumentar la responsabilidad de la empresa en caso de lesiones.
Riesgos de cumplimiento y regulación
Los empleadores deben garantizar la seguridad de sus empleados y estas obligaciones son no delegables. Mientras que la IA no ofrece un refugio regulatorio, puede ayudar a las empresas a lograr mejores resultados de seguridad y mejorar los esfuerzos de cumplimiento, siempre que sus salidas sean revisadas y validadas por personal capacitado.
Conclusión
La IA ofrece herramientas poderosas para mejorar la seguridad en la construcción, pero su uso reconfigura el panorama legal de maneras que requieren una gobernanza y supervisión deliberadas. Las empresas que despliegan la IA de manera reflexiva, preservando el juicio humano y documentando la toma de decisiones, pueden mejorar los resultados de seguridad sin aumentar la exposición legal. Es crucial que la innovación fortalezca los programas de seguridad en lugar de socavarlos.