Responsabilidad (Principio de IA de la OCDE)
El principio de responsabilidad establece que los actores de IA deben ser responsables del correcto funcionamiento de los sistemas de IA y del respeto a los principios mencionados, según sus roles, el contexto y en consonancia con el estado del arte.
Para ello, los actores de IA deben asegurar la trazabilidad, incluyendo en relación con conjuntos de datos, procesos y decisiones tomadas durante el ciclo de vida del sistema de IA. Esto permite un análisis de las salidas del sistema de IA y respuestas a consultas, apropiadas al contexto y coherentes con el estado del arte.
Además, los actores de IA deben aplicar, según sus roles y habilidades, un enfoque sistemático de gestión de riesgos en cada fase del ciclo de vida del sistema de IA de manera continua. Esto incluye adoptar prácticas comerciales responsables para abordar los riesgos relacionados con los sistemas de IA, colaborando con diferentes actores de IA, proveedores de conocimientos y recursos de IA, usuarios de sistemas de IA y otras partes interesadas. Los riesgos abarcan temas como sesgos perjudiciales, derechos humanos (incluyendo seguridad y privacidad), así como derechos laborales e intelectuales.
Razonamiento detrás de este principio
Los términos responsabilidad, responsabilidad legal y culpa están estrechamente relacionados, aunque diferentes y con significados distintos en diversas culturas y lenguas. En términos generales, la «responsabilidad» implica una expectativa ética o moral que guía las acciones de individuos u organizaciones y les permite explicar las razones detrás de decisiones y acciones tomadas. En caso de un resultado negativo, también implica tomar medidas para asegurar un mejor resultado en el futuro.
La «responsabilidad legal», por otro lado, se refiere a las implicaciones legales adversas que pueden surgir de las acciones o inacciones de una persona u organización. La «responsabilidad» puede tener expectativas éticas o morales y se utiliza en contextos legales y no legales para referirse a un vínculo causal entre un actor y un resultado.
Dados estos significados, el término «responsabilidad» capta mejor la esencia de este principio. En este contexto, se refiere a la expectativa de que organizaciones o individuos aseguren el correcto funcionamiento de los sistemas de IA que diseñan, desarrollan, operan o despliegan, a lo largo de su ciclo de vida y conforme a sus roles y marcos regulatorios aplicables, demostrando esto a través de sus acciones y procesos de toma de decisiones.
Publicaciones relacionadas de la OCDE
Este principio de responsabilidad se encuentra vinculado a varios documentos y estudios que abordan la gobernanza de la IA y la promoción de un ecosistema de IA responsable y ético. A continuación, se enumeran algunos de los temas tratados:
- Crecimiento inclusivo, desarrollo sostenible y bienestar
- Derechos humanos y valores democráticos, incluyendo equidad y privacidad
- Transparencia y explicabilidad
- Robustez, seguridad y protección
- Inversión en investigación y desarrollo de IA
- Fomento de un ecosistema inclusivo habilitador de IA
- Construcción de capacidad humana y preparación para la transición del mercado laboral
- Cooperación internacional para una IA confiable