Marco Ético para la Inteligencia Artificial en España

Marco ético para la inteligencia artificial establecido

El Ministerio de Ciencia y Tecnología ha emitido la Circular No.05/2026/TT-BKHCN sobre el Marco Nacional de Ética de la Inteligencia Artificial, con el objetivo de guiar la investigación, desarrollo y aplicación de la inteligencia artificial (IA) de manera segura y responsable, en beneficio de individuos, comunidades y la sociedad.

La emisión del Marco Nacional de Ética de la Inteligencia Artificial ayuda a concretar la orientación para implementar la Resolución del Politburó No 57-NQ/TW sobre los avances en el desarrollo de la ciencia y tecnología, la innovación y la transformación digital nacional, así como la Ley de Inteligencia Artificial, que entra en vigor en marzo de 2026.

Requisitos del marco ético

Según la Circular, el Marco Nacional de Ética de la Inteligencia Artificial estipula requisitos para organizaciones e individuos a lo largo del proceso de investigación, desarrollo y despliegue de sistemas de IA.

El marco ético también exige que se garantice la supervisión humana y la capacidad de intervención humana en todas las decisiones y acciones de los sistemas de IA, de acuerdo con el nivel de impacto de los sistemas.

Al mismo tiempo, se llama a la identificación y mitigación de sesgos de datos, sesgos de modelo y sesgos operacionales, considerando plenamente los impactos en grupos vulnerables como niños, ancianos, personas con discapacidades y otros grupos desfavorecidos.

Transparencia y responsabilidad social

Las organizaciones y los individuos deben proporcionar una notificación adecuada sobre el uso de la inteligencia artificial, ofreciendo información razonable sobre los objetivos, el alcance, los datos, los mecanismos generales de funcionamiento y las limitaciones del sistema, evitando así malentendidos sobre sus capacidades.

El marco también fomenta la innovación y la responsabilidad social en la investigación, desarrollo y aplicación de la inteligencia artificial.

Se alienta a las organizaciones y a los individuos a realizar pruebas, programas piloto y expandir las aplicaciones de IA de manera responsable, promoviendo la investigación abierta y el intercambio de conocimientos de acuerdo con las regulaciones legales, mientras se protegen los derechos de propiedad intelectual.

Revisión del marco

El Marco Nacional de Ética de la Inteligencia Artificial se revisará y actualizará cada tres años o cada vez que haya cambios importantes en la tecnología, la legislación o las prácticas de gobernanza.

More Insights

La urgencia de adoptar una IA responsable

Las empresas son conscientes de la necesidad de una IA responsable, pero muchas la tratan como un pensamiento posterior. La IA responsable es una defensa fundamental contra riesgos legales...

Modelo de gobernanza de IA que enfrenta el uso oculto

La inteligencia artificial (IA) se está expandiendo rápidamente en los lugares de trabajo, transformando la forma en que se realizan las tareas diarias. Para gestionar los riesgos asociados con el uso...

Europa extiende plazos para cumplir con la normativa de IA

La Unión Europea planea retrasar las obligaciones de alto riesgo en la Ley de IA hasta finales de 2027, proporcionando a las empresas más tiempo para adaptarse a las exigencias. Sin embargo, los...

Innovación Responsable a Través de IA Ética

Las empresas están compitiendo por innovar con inteligencia artificial, pero a menudo sin las medidas de seguridad adecuadas. La ética en la IA no solo es un imperativo moral, sino también una...

Riesgos Ocultos de Cumplimiento en la Contratación con IA

La inteligencia artificial está transformando la forma en que los empleadores reclutan y evalúan talento, pero también introduce riesgos legales significativos bajo las leyes federales de...