Giorno: Maggio 29, 2025

Rafforzare la Sicurezza nell’Intelligenza Artificiale Europea

Il 28 maggio 2025, la Commissione Europea ha pubblicato un rapporto sull’analisi dei feedback degli stakeholder riguardo le definizioni dell’IA e le pratiche vietate. Il rapporto evidenzia preoccupazioni significative riguardo le pratiche proibite, come il riconoscimento delle emozioni e l’identificazione biometrica in tempo reale.

Read More »

AI: Etica e Umanità a Confronto

I termini Trustworthy AI, Responsible AI e Human-Centric AI sono spesso raggruppati nelle discussioni sull’IA etica. Sebbene condividano l’idea comune di allineare la tecnologia ai valori umani, rappresentano approcci fondamentalmente diversi alla governance dell’IA.

Read More »

Illusione di Controllo: La Corsa all’Intelligenza Artificiale tra USA e Cina

Negli ultimi tre anni, la competizione tecnologica tra Stati Uniti e Cina si è intensificata, con l’intelligenza artificiale (IA) che è diventata il fulcro degli sforzi statunitensi per rallentare lo sviluppo di modelli avanzati da parte delle aziende cinesi. Questo dinamico scenario ha ostacolato i progressi verso la creazione di un quadro internazionale per garantire lo sviluppo sicuro e protetto dell’IA.

Read More »

Alleanza tra Indonesia e Slovacchia per una Governance Inclusiva dell’IA

I governi di Indonesia e Slovacchia hanno iniziato a esplorare opportunità per forgiare un’alleanza finalizzata allo sviluppo di una governance globale inclusiva per l’IA. Questo incontro si è svolto a Giacarta tra il Vice Ministro della Comunicazione e degli Affari Digitali dell’Indonesia e l’Ambasciatore della Slovacchia in Indonesia.

Read More »

Regolamentazione Urgente per l’Intelligenza Artificiale

Un esperto di comunicazione digitale afferma che la necessità di una regolamentazione sull’uso dell’intelligenza artificiale in Indonesia è urgente. Questa regolamentazione dovrebbe garantire la libertà di espressione e prevenire l’abuso dei contenuti generati dall’IA.

Read More »

Quadro Legale per un’IA Sicura e Responsabile

Con l’avanzare della tecnologia AI, la capacità di autonomia dei sistemi AI aumenta notevolmente, portando a nuove sfide etiche e legali. È fondamentale stabilire un quadro giuridico per la responsabilità e la responsabilità degli agenti AI in caso di malfunzionamenti.

Read More »

Gestire l’Intelligenza Artificiale in Modo Responsabile

Con l’intelligenza artificiale sempre più integrata nelle nostre vite quotidiane e nelle industrie, è diventato imperativo strategico garantire che l’AI venga sviluppata e utilizzata in modo responsabile. ISO/IEC 42001 è il primo standard mondiale per i sistemi di gestione dell’AI, progettato per aiutare le organizzazioni a costruire fiducia, gestire i rischi e scalare l’AI in modo responsabile.

Read More »

Regole sui Sistemi di Decisione Automatizzati in California: Cosa Devono Sapere i Datori di Lavoro

La California ha finalizzato regolamenti innovativi che affrontano direttamente l’uso dell’intelligenza artificiale (AI) e dei sistemi decisionali automatizzati (ADS) nell’occupazione. Queste regole mirano a garantire che l’uso crescente della tecnologia nelle decisioni lavorative rispetti la legge sulla parità di opportunità nell’occupazione e nell’abitazione (FEHA).

Read More »

Fiducia nell’IA: Riflessioni e Sfide

C’è una grande conversazione sulla fiducia nell’IA generativa, e l’ultimo studio di KPMG in collaborazione con l’Università di Melbourne è una revisione molto completa della fiducia, dell’uso e delle attitudini verso l’IA. In media, il 58% delle persone intervistate considera i sistemi di IA affidabili, ma solo il 46% è disposto a fidarsi di essi.

Read More »