Categoria: Regolamento dell’IA

Texas e la Nuova Legge sull’IA: Trasparenza e Sicurezza in Arrivo

Il 22 giugno 2025, il governatore del Texas, Greg Abbott, ha firmato la legge House Bill 149, che istituisce il Texas Responsible Artificial Intelligence Governance Act (TRAIGA). La legge impone requisiti di divulgazione, consenso e conformità per gli sviluppatori e gli enti governativi che utilizzano sistemi di intelligenza artificiale.

Read More »

Rinominare l’Istituto di Sicurezza dell’AI: una questione di priorità

La recente decisione del Segretario del Commercio degli Stati Uniti, Howard Lutnick, di rinominare l’Istituto di Sicurezza AI degli Stati Uniti in Centro per gli Standard e l’Innovazione AI rappresenta un cambiamento profondo nelle priorità nazionali riguardo allo sviluppo dell’AI. Questo spostamento evidenzia una visione che privilegia l’innovazione e la competitività globale rispetto alla mitigazione dei rischi a lungo termine e alla responsabilità pubblica.

Read More »

Pronti per l’AI: Valutare l’Adattamento nel Settore Farmaceutico

L’intelligenza artificiale è destinata a trasformare ogni angolo dell’industria farmaceutica, dalla scoperta delle molecole alle sperimentazioni cliniche. È fondamentale che le organizzazioni farmaceutiche costruiscano un framework per la prontezza all’IA che garantisca la sicurezza dei pazienti e l’integrità scientifica.

Read More »

AI Sovrana: Il Futuro della Produzione Intelligente

Le nuvole AI sovrane offrono sia controllo che conformità, affrontando le crescenti preoccupazioni riguardo alla residenza dei dati e al rischio normativo. Per i fornitori di servizi gestiti, questa è un’opportunità per fornire piattaforme cloud AI sovrane che integrano sicurezza e prestazioni nel loro nucleo.

Read More »

La pausa sull’AI Act dell’UE: opportunità o rischio?

Il 8 luglio 2025, la Commissione Europea ha ribadito il proprio impegno per rispettare il calendario dell’AI Act, nonostante le richieste di rinvio da parte di alcune aziende. Il Primo Ministro svedese ha chiesto una pausa nell’implementazione delle regole, definendole “confuse” e avvertendo che potrebbero comportare un ritardo tecnologico per l’Europa.

Read More »

LLMOps: Potenziare l’IA Responsabile con Python

In un panorama ipercompetitivo, non è sufficiente distribuire modelli di linguaggio di grandi dimensioni (LLM); è necessario un robusto framework LLMOps per garantire affidabilità e conformità. Python, con il suo ricco ecosistema, è il fulcro che unisce prototipazione, monitoraggio e governance in un flusso di lavoro di produzione senza soluzione di continuità.

Read More »