Microsoft e Meta: scelte opposte sul codice etico dell’IA

Microsoft e il Codice di Pratica dell’UE per l’IA: Un Confronto con Meta

Il 21 luglio 2025, Microsoft ha annunciato la sua intenzione di firmare il Codice di Pratica dell’Unione Europea, un’iniziativa volta a garantire la conformità alle normative sull’intelligenza artificiale (IA) nel blocco europeo. Questa decisione è stata comunicata dal presidente di Microsoft, Brad Smith, che ha sottolineato l’importanza di supportare le normative necessarie per la crescita di tecnologie avanzate.

D’altra parte, Meta Platforms ha scelto di non firmare il codice, citando incertezze legali e preoccupazioni riguardo a come queste norme potrebbero ostacolare lo sviluppo delle tecnologie IA in Europa. Questo contrasto tra due giganti della tecnologia mette in evidenza le sfide e le complessità che le aziende affrontano nell’adattarsi a nuove regolamentazioni.

Contesto Normativo

Il Codice di Pratica è parte dell’AI Act, che è entrato in vigore nel giugno 2024. Questo atto legislativo richiede alle aziende di divulgare i dati di addestramento utilizzati per i loro modelli di IA generativa e di conformarsi alle leggi sul copyright dell’UE. Le aziende coinvolte, tra cui Alphabet, Meta, e OpenAI, devono affrontare nuove obbligazioni per garantire la trasparenza e la responsabilità nella loro operatività.

Dettagli del Codice di Pratica

Il codice, redatto da 13 esperti indipendenti, ha l’obiettivo di fornire chiarezza legale ai firmatari. Tra i requisiti, le aziende devono pubblicare riassunti del contenuto utilizzato per addestrare i loro modelli di IA e attuare politiche per garantire la conformità alle leggi sul copyright. Questo approccio mira a garantire che l’IA si sviluppi in un ambiente sicuro e responsabile, proteggendo al contempo i diritti degli utenti e dei creatori.

Reazioni delle Aziende

Brad Smith ha dichiarato: “Penso che sia probabile che firmeremo. Dobbiamo leggere i documenti.” Ha aggiunto che Microsoft è aperta a collaborare con l’ufficio dell’IA dell’UE per garantire un dialogo costruttivo. In contrasto, Meta ha espresso forti critiche, affermando che il codice introduce incertezze legali per gli sviluppatori di modelli e che le misure previste vanno oltre l’ambito dell’AI Act.

Joel Kaplan, il chief global affairs officer di Meta, ha affermato che “Meta non firmerà. Questo codice introduce una serie di incertezze legali che potrebbero ostacolare lo sviluppo e l’implementazione dei modelli di IA all’avanguardia in Europa.”

Implicazioni per il Settore Tecnologico

La decisione di Microsoft di firmare il codice potrebbe avere un impatto significativo sul panorama tecnologico europeo. Con aziende come OpenAI e Mistral che hanno già firmato, potrebbe sorgere una pressione crescente su Meta e altre aziende per adeguarsi alle nuove normative.

In sintesi, la divergenza tra Microsoft e Meta riguardo al Codice di Pratica dell’UE sottolinea le sfide che le aziende tecnologiche devono affrontare nell’era dell’IA e della regolamentazione. La capacità di adattarsi a queste normative sarà cruciale per il futuro sviluppo delle tecnologie IA in Europa.

More Insights

Classifica il tuo sistema AI in pochi minuti

L'EU AI Act cambierà il modo in cui l'IA viene costruita, valutata e distribuita in Europa. Per facilitare la classificazione del rischio dei sistemi di intelligenza artificiale, è disponibile un...

Intelligenza artificiale e armonizzazione legale a Yokohama

L'Associazione Internazionale per la Protezione della Proprietà Intellettuale (AIPPI) si riunirà a Yokohama dal 13 al 16 settembre 2025, affrontando temi cruciali come l'intelligenza artificiale e il...

Legge sull’Intelligenza Artificiale in Colorado: Impatti e Responsabilità per le Aziende

La settimana scorsa, i legislatori del Colorado hanno tenuto una sessione speciale che ha portato a una decisione di posticipare l'implementazione della Colorado Artificial Intelligence Act (CAIA)...

Sorveglianza AI: Sicurezza e Privacy in Equilibrio

La sorveglianza guidata dall'IA offre vantaggi operativi reali, ma presenta anche rischi significativi per la privacy e le libertà civili. È fondamentale trovare un equilibrio umano che rispetti i...

AI Responsabile nel Settore Finanziario: Dalla Teoria alla Pratica

La discussione globale sull'intelligenza artificiale è entrata in una nuova fase, spostandosi verso la domanda su come utilizzare questi strumenti in modo responsabile, specialmente nei servizi...

Costruire AI di fiducia per un futuro sostenibile

La certificazione può trasformare la regolamentazione da un vincolo a un'opportunità, facilitando l'adozione di AI fidate e sostenibili. Con normative come l'AI Act dell'Unione Europea, le aziende che...

Intelligenza Artificiale Spiegabile: Costruire Fiducia nel Futuro

L'Intelligenza Artificiale Spiegabile (XAI) è essenziale per costruire fiducia, garantire trasparenza e consentire responsabilità in settori ad alto rischio come la sanità e la finanza. Le normative...

Regolamentare l’IA: Rischi e Opportunità per il Futuro

L'intelligenza artificiale è la tecnologia rivoluzionaria più trasformativa della nostra era, ma porta con sé enormi rischi. Senza una regolamentazione adeguata, questi rischi possono minare la...

Flussi AI Responsabili per la Ricerca UX

Questo articolo esplora come l'intelligenza artificiale può essere integrata in modo responsabile nei flussi di lavoro della ricerca UX, evidenziando i benefici e i rischi associati. L'AI può...