Italia establece las primeras reglas nacionales de IA en Europa

Italia se convierte en el primer país de Europa en establecer normas nacionales de IA

El 17 de septiembre de 2025, el Parlamento italiano aprobó una nueva ley sobre inteligencia artificial (Ley no. 132/2025, la “Ley de IA”), siendo la primera de su tipo en la UE. La Ley de IA establece los principios fundamentales que rigen la IA y su uso, estableciendo responsabilidades para la gobernanza y supervisión de la IA en Italia, proporcionando reglas específicas en sectores críticos como la salud, administración pública, justicia, trabajo, propiedad intelectual y derecho penal. La Ley de IA entrará en vigor el 10 de octubre y no introduce nuevas obligaciones de cumplimiento más allá de las establecidas bajo el Reglamento 2024/1689 (“Ley de IA”). En su lugar, ofrece disposiciones más detalladas y específicas por sector que se basan en el marco existente, particularmente en términos de cumplimiento, transparencia, responsabilidad y gobernanza.

Principios fundamentales de la Ley de IA

Visión centrada en el ser humano de la IA
La IA debe mejorar y no reemplazar la toma de decisiones y responsabilidad humanas. Los sistemas de IA deben diseñarse para operar en cumplimiento de los derechos fundamentales, los derechos constitucionales y la legislación de la UE, reflejando valores como la transparencia, equidad, seguridad, privacidad, igualdad de género y sostenibilidad. La ley también enfatiza que la supervisión humana no es opcional: las personas deben mantener el control, con la capacidad de comprender, monitorear e intervenir durante todo el ciclo de vida de los sistemas de IA.

Protección de datos personales
Los sistemas de IA deben manejar los datos de manera legal, justa y transparente. Los usuarios deben ser informados claramente, en un lenguaje sencillo y accesible, sobre cómo se están utilizando sus datos, qué riesgos pueden estar involucrados y cómo pueden ejercer su derecho a oponerse. La ley protege explícitamente la libertad de expresión y el pluralismo de los medios, asegurando que los sistemas de IA no comprometan la objetividad, integridad, imparcialidad o equidad de la información.

Protección del debate democrático
La Ley de IA prohíbe explícitamente el uso de la IA de maneras que puedan interferir con las instituciones democráticas o distorsionar el debate público. Esto refleja las crecientes preocupaciones sobre el uso de la IA para difundir desinformación, manipular opiniones o socavar la confianza en los procesos democráticos.

La IA como palanca clave para el crecimiento económico
Las autoridades públicas apoyan activamente el desarrollo y uso de la IA para mejorar la interacción humano-máquina, incluyendo la robótica, a través de sectores de producción y procesos organizativos. Se fomenta la adopción de la IA para aumentar la productividad en toda la cadena de valor y ayudar a lanzar nuevos negocios, con un enfoque especial en fortalecer la base industrial de Italia, que depende en gran medida de las micro, pequeñas y medianas empresas.

Disposiciones sectoriales

En el sector salud, los sistemas de IA están diseñados para apoyar y no reemplazar a los profesionales médicos. Pueden ayudar con la prevención, diagnóstico y tratamiento bajo estricta supervisión médica y ética. Los pacientes deben ser informados claramente cada vez que se utilicen tecnologías de IA en su atención, reforzando la transparencia y la confianza.

En el sector laboral, la IA se utiliza para mejorar genuinamente las condiciones de trabajo, protegiendo el bienestar físico y mental de los empleados, mientras apoya el rendimiento y la productividad. Su implementación debe ser segura, transparente y respetar la dignidad y privacidad humana. Los trabajadores tienen derecho a saber siempre que se utilizan tecnologías de IA, ya sea en reclutamiento, evaluación o en las operaciones diarias.

En el sector público, las administraciones públicas pueden adoptar la IA para mejorar la eficiencia, reducir el tiempo necesario para completar procedimientos y mejorar la calidad y accesibilidad de los servicios. La IA solo sirve como herramienta de apoyo: todas las decisiones y actos oficiales permanecen bajo la plena responsabilidad de los funcionarios humanos.

En el sistema de justicia, la IA puede ser utilizada para apoyar la organización de los servicios judiciales, agilizar tareas administrativas y aliviar la carga de trabajo de los tribunales. Sin embargo, su papel sigue siendo estrictamente auxiliar. Todas las decisiones sobre la interpretación y aplicación de la ley, la evaluación de hechos y pruebas, y el proceso de toma de decisiones recaen exclusivamente en los jueces.

Autoridades de supervisión y aplicación

La nueva Ley de IA de Italia describe los organismos que supervisan y aplican la IA a nivel nacional. Alinea las responsabilidades internas con la Ley de IA de la UE y refleja las prioridades estratégicas de Italia. Las siguientes autoridades son responsables de la supervisión, coordinación y aplicación en el ámbito de la IA:

  • Presidencia del Consejo: Responsable de la estrategia nacional de IA, que se debe aprobar de manera bianual por el Comité Interministerial de Transición Digital.
  • Comité de Coordinación: Supervisa la orientación estratégica y promueve la investigación, experimentación, desarrollo, adopción y aplicación de sistemas y modelos de IA por entidades públicas o privadas bajo supervisión estatal o que reciban financiación pública.
  • Agencia para la Digitalidad de Italia (AgID): Actúa como autoridad notificadora, promoviendo la innovación y el desarrollo de la IA, y responsable de la evaluación, acreditación y monitoreo de la conformidad de los sistemas de IA.
  • Agencia Nacional de Ciberseguridad (ACN): Designada como autoridad de vigilancia y sanción de la IA, responsable de garantizar la seguridad y resiliencia de los sistemas de IA.

Cambios en la legislación penal y de propiedad intelectual

Desde el punto de vista del derecho penal, la Ley de IA:

  • Introduce un nuevo delito por la difusión ilegal de contenido manipulado por IA (los llamados “deepfakes”), que puede resultar en prisión.
  • Establece una circunstancia agravante general para los delitos cometidos utilizando herramientas de IA, lo que lleva a penas más altas.
  • Introduce una nueva ofensa de minería de texto y datos no autorizada (“TDM”), que consiste en cualquier técnica automatizada destinada a analizar texto y datos en forma digital para generar información.

Desde una perspectiva de derechos de autor, la Ley de IA:

  • Actualiza el Artículo 171 de la Ley no. 633 del 22 de abril de 1941 (“Ley de Derechos de Autor Italiana”), penalizando la reproducción o extracción de texto o datos de obras o materiales disponibles en línea o en bases de datos en violación de la ley, incluso mediante sistemas de IA.
  • Aclara explícitamente que la protección de derechos de autor se aplica a “obras de autoría humana” y a obras creadas con la ayuda de herramientas de IA, pero solo si son el resultado del verdadero trabajo intelectual del autor.

Cambios en la jurisdicción

La Ley de IA modifica el Código de Procedimiento Civil italiano, asignando jurisdicción exclusiva al tribunal para los casos relacionados con el funcionamiento de los sistemas de IA. La Justicia de Paz está explícitamente excluida de manejar tales asuntos, centralizando la competencia en los tribunales superiores.

Inversión en IA y tecnologías emergentes

Para apoyar el desarrollo de empresas de IA y ciberseguridad, el gobierno está proporcionando hasta 1.000 millones de euros en inversión pública en instrumentos de “capital” y “cuasi-capital”, dirigidos a pequeñas y medianas empresas innovadoras con alto potencial de crecimiento en los campos de inteligencia artificial y ciberseguridad.

Implicaciones para las empresas

Italia ha tomado la delantera en la regulación de la IA, implementando nuevas normativas que se centran en sus prioridades nacionales mientras complementan la Ley de IA de la UE. Algunos de los cambios tienen implicaciones directas para las empresas, especialmente en relación con el derecho penal. La Ley de IA modifica ciertos delitos que pueden hacer a una empresa legalmente responsable, por lo que las empresas deben actualizar y revisar sus modelos organizativos, de gestión y control para reflejar estos cambios y abordar los riesgos relacionados con la IA, protegiéndose de ser responsables en caso de delitos relacionados con la IA.

Las empresas también deben monitorear la aprobación de los decretos que implementan la Ley de IA, que abordarán cuestiones clave como la compensación por daños causados por la IA, asegurando la adecuada gestión de riesgos y responsabilidades.

More Insights

Colaboración y Competencia en la Gobernanza de la IA

La carrera por la inteligencia artificial está redefiniendo nuestra ética y la geopolítica, desafiando la noción de que se puede "ganar" esta competencia. La innovación en IA debe ser colaborativa y...

Política Nacional de IA en Pakistán: Un Futuro Innovador

Pakistán ha introducido una ambiciosa Política Nacional de IA destinada a construir un mercado de IA doméstico de 2.7 mil millones de dólares en cinco años. Esta política se basa en seis pilares...

Implementación de la ética en la IA: Guía práctica para empresas

La nueva guía de Capgemini destaca la importancia de la gobernanza ética de la IA como una prioridad estratégica para las organizaciones que buscan escalar la inteligencia artificial de manera...

Estrategia Integral de IA para la Educación Superior

La inteligencia artificial está transformando la educación superior al mejorar la experiencia académica y abordar problemas como la salud mental de los estudiantes. Las instituciones deben equilibrar...

Gobernanza de IA: Alineando políticas organizacionales con estándares globales

La inteligencia artificial (IA) está moldeando los servicios financieros, la agricultura y la educación en África, pero también trae riesgos significativos como sesgos y violaciones de privacidad...

El Resurgir del Descontento ante la IA

La transformación económica impulsada por la inteligencia artificial ha comenzado a causar despidos masivos en empresas como IBM y Salesforce, lo que ha llevado a una creciente preocupación entre los...

Ética laboral digital: Responsabilidad en la era de la IA

La mano de obra digital se está volviendo cada vez más común en el lugar de trabajo, pero se han implementado pocas reglas aceptadas para gobernarla. Los directores ejecutivos enfrentan el desafío de...

Anthropic lanza Petri, herramienta para auditorías automatizadas de seguridad en IA

Anthropic ha presentado Petri, una herramienta de auditoría de seguridad de IA de código abierto que utiliza agentes autónomos para probar modelos de lenguaje grande (LLMs) en busca de comportamientos...

El Acta de IA de la UE y el GDPR: ¿Choque o Sinergia?

La Ley de IA de la UE y el RGPD tienen interacciones significativas y similitudes en sus principios, como la transparencia y la gestión de riesgos. Ambos marcos requieren que se implementen medidas de...