Italia se convierte en el primer país de Europa en establecer normas nacionales de IA
El 17 de septiembre de 2025, el Parlamento italiano aprobó una nueva ley sobre inteligencia artificial (Ley no. 132/2025, la “Ley de IA”), siendo la primera de su tipo en la UE. La Ley de IA establece los principios fundamentales que rigen la IA y su uso, estableciendo responsabilidades para la gobernanza y supervisión de la IA en Italia, proporcionando reglas específicas en sectores críticos como la salud, administración pública, justicia, trabajo, propiedad intelectual y derecho penal. La Ley de IA entrará en vigor el 10 de octubre y no introduce nuevas obligaciones de cumplimiento más allá de las establecidas bajo el Reglamento 2024/1689 (“Ley de IA”). En su lugar, ofrece disposiciones más detalladas y específicas por sector que se basan en el marco existente, particularmente en términos de cumplimiento, transparencia, responsabilidad y gobernanza.
Principios fundamentales de la Ley de IA
Visión centrada en el ser humano de la IA
La IA debe mejorar y no reemplazar la toma de decisiones y responsabilidad humanas. Los sistemas de IA deben diseñarse para operar en cumplimiento de los derechos fundamentales, los derechos constitucionales y la legislación de la UE, reflejando valores como la transparencia, equidad, seguridad, privacidad, igualdad de género y sostenibilidad. La ley también enfatiza que la supervisión humana no es opcional: las personas deben mantener el control, con la capacidad de comprender, monitorear e intervenir durante todo el ciclo de vida de los sistemas de IA.
Protección de datos personales
Los sistemas de IA deben manejar los datos de manera legal, justa y transparente. Los usuarios deben ser informados claramente, en un lenguaje sencillo y accesible, sobre cómo se están utilizando sus datos, qué riesgos pueden estar involucrados y cómo pueden ejercer su derecho a oponerse. La ley protege explícitamente la libertad de expresión y el pluralismo de los medios, asegurando que los sistemas de IA no comprometan la objetividad, integridad, imparcialidad o equidad de la información.
Protección del debate democrático
La Ley de IA prohíbe explícitamente el uso de la IA de maneras que puedan interferir con las instituciones democráticas o distorsionar el debate público. Esto refleja las crecientes preocupaciones sobre el uso de la IA para difundir desinformación, manipular opiniones o socavar la confianza en los procesos democráticos.
La IA como palanca clave para el crecimiento económico
Las autoridades públicas apoyan activamente el desarrollo y uso de la IA para mejorar la interacción humano-máquina, incluyendo la robótica, a través de sectores de producción y procesos organizativos. Se fomenta la adopción de la IA para aumentar la productividad en toda la cadena de valor y ayudar a lanzar nuevos negocios, con un enfoque especial en fortalecer la base industrial de Italia, que depende en gran medida de las micro, pequeñas y medianas empresas.
Disposiciones sectoriales
En el sector salud, los sistemas de IA están diseñados para apoyar y no reemplazar a los profesionales médicos. Pueden ayudar con la prevención, diagnóstico y tratamiento bajo estricta supervisión médica y ética. Los pacientes deben ser informados claramente cada vez que se utilicen tecnologías de IA en su atención, reforzando la transparencia y la confianza.
En el sector laboral, la IA se utiliza para mejorar genuinamente las condiciones de trabajo, protegiendo el bienestar físico y mental de los empleados, mientras apoya el rendimiento y la productividad. Su implementación debe ser segura, transparente y respetar la dignidad y privacidad humana. Los trabajadores tienen derecho a saber siempre que se utilizan tecnologías de IA, ya sea en reclutamiento, evaluación o en las operaciones diarias.
En el sector público, las administraciones públicas pueden adoptar la IA para mejorar la eficiencia, reducir el tiempo necesario para completar procedimientos y mejorar la calidad y accesibilidad de los servicios. La IA solo sirve como herramienta de apoyo: todas las decisiones y actos oficiales permanecen bajo la plena responsabilidad de los funcionarios humanos.
En el sistema de justicia, la IA puede ser utilizada para apoyar la organización de los servicios judiciales, agilizar tareas administrativas y aliviar la carga de trabajo de los tribunales. Sin embargo, su papel sigue siendo estrictamente auxiliar. Todas las decisiones sobre la interpretación y aplicación de la ley, la evaluación de hechos y pruebas, y el proceso de toma de decisiones recaen exclusivamente en los jueces.
Autoridades de supervisión y aplicación
La nueva Ley de IA de Italia describe los organismos que supervisan y aplican la IA a nivel nacional. Alinea las responsabilidades internas con la Ley de IA de la UE y refleja las prioridades estratégicas de Italia. Las siguientes autoridades son responsables de la supervisión, coordinación y aplicación en el ámbito de la IA:
- Presidencia del Consejo: Responsable de la estrategia nacional de IA, que se debe aprobar de manera bianual por el Comité Interministerial de Transición Digital.
- Comité de Coordinación: Supervisa la orientación estratégica y promueve la investigación, experimentación, desarrollo, adopción y aplicación de sistemas y modelos de IA por entidades públicas o privadas bajo supervisión estatal o que reciban financiación pública.
- Agencia para la Digitalidad de Italia (AgID): Actúa como autoridad notificadora, promoviendo la innovación y el desarrollo de la IA, y responsable de la evaluación, acreditación y monitoreo de la conformidad de los sistemas de IA.
- Agencia Nacional de Ciberseguridad (ACN): Designada como autoridad de vigilancia y sanción de la IA, responsable de garantizar la seguridad y resiliencia de los sistemas de IA.
Cambios en la legislación penal y de propiedad intelectual
Desde el punto de vista del derecho penal, la Ley de IA:
- Introduce un nuevo delito por la difusión ilegal de contenido manipulado por IA (los llamados “deepfakes”), que puede resultar en prisión.
- Establece una circunstancia agravante general para los delitos cometidos utilizando herramientas de IA, lo que lleva a penas más altas.
- Introduce una nueva ofensa de minería de texto y datos no autorizada (“TDM”), que consiste en cualquier técnica automatizada destinada a analizar texto y datos en forma digital para generar información.
Desde una perspectiva de derechos de autor, la Ley de IA:
- Actualiza el Artículo 171 de la Ley no. 633 del 22 de abril de 1941 (“Ley de Derechos de Autor Italiana”), penalizando la reproducción o extracción de texto o datos de obras o materiales disponibles en línea o en bases de datos en violación de la ley, incluso mediante sistemas de IA.
- Aclara explícitamente que la protección de derechos de autor se aplica a “obras de autoría humana” y a obras creadas con la ayuda de herramientas de IA, pero solo si son el resultado del verdadero trabajo intelectual del autor.
Cambios en la jurisdicción
La Ley de IA modifica el Código de Procedimiento Civil italiano, asignando jurisdicción exclusiva al tribunal para los casos relacionados con el funcionamiento de los sistemas de IA. La Justicia de Paz está explícitamente excluida de manejar tales asuntos, centralizando la competencia en los tribunales superiores.
Inversión en IA y tecnologías emergentes
Para apoyar el desarrollo de empresas de IA y ciberseguridad, el gobierno está proporcionando hasta 1.000 millones de euros en inversión pública en instrumentos de “capital” y “cuasi-capital”, dirigidos a pequeñas y medianas empresas innovadoras con alto potencial de crecimiento en los campos de inteligencia artificial y ciberseguridad.
Implicaciones para las empresas
Italia ha tomado la delantera en la regulación de la IA, implementando nuevas normativas que se centran en sus prioridades nacionales mientras complementan la Ley de IA de la UE. Algunos de los cambios tienen implicaciones directas para las empresas, especialmente en relación con el derecho penal. La Ley de IA modifica ciertos delitos que pueden hacer a una empresa legalmente responsable, por lo que las empresas deben actualizar y revisar sus modelos organizativos, de gestión y control para reflejar estos cambios y abordar los riesgos relacionados con la IA, protegiéndose de ser responsables en caso de delitos relacionados con la IA.
Las empresas también deben monitorear la aprobación de los decretos que implementan la Ley de IA, que abordarán cuestiones clave como la compensación por daños causados por la IA, asegurando la adecuada gestión de riesgos y responsabilidades.