Nigeria pronta a introdurre regole rigorose per l’intelligenza artificiale nell’economia digitale
La Nigeria è pronta a introdurre una legge che la collocherà tra i primi paesi africani a regolamentare l’intelligenza artificiale, rafforzando il controllo su uno dei mercati digitali in più rapida crescita del continente, dopo anni di espansione sostanzialmente incontrollata da parte delle aziende tecnologiche globali.
Il progetto di legge
Il National Digital Economy and E-Governance Bill conferirà ai regolatori nuovi poteri su dati, algoritmi e piattaforme digitali, colmando un vuoto esistente dalla pubblicazione della strategia AI della Nigeria nel 2024. La legge, che i legislatori si aspettano di approvare entro la fine di marzo, sottoporrà i sistemi AI ad alto rischio — inclusi quelli utilizzati in finanza, amministrazione pubblica, sorveglianza e decisioni automatizzate — a un controllo più rigoroso. Gli sviluppatori saranno tenuti a presentare valutazioni annuali sugli impatti, le misure di mitigazione e le prestazioni.
Penalità e normative
La proposta di legge consente ai regolatori di imporre multe fino a 10 milioni di naira (circa 7.000 dollari) o il 2% del fatturato annuale di un fornitore di AI in Nigeria. Tuttavia, non specifica come verranno valutate le sanzioni.
Regolamentazione precoce
La legislazione mira a regolare l’AI precocemente — piuttosto che retroattivamente — mentre l’adozione accelera in finanza, servizi pubblici e nel settore privato. Se approvata, la Nigeria diventerà una delle prime nazioni africane a introdurre un regime normativo per l’AI a livello economico. Altri paesi, tra cui Mauritius ed Egitto, hanno strategie per l’AI ma mancano di una legislazione completa.
Standard etici e innovazione
La legge stabilirà standard etici per trasparenza, equità e responsabilità, adottando un approccio basato sul rischio simile a quelli emergenti in Europa e in alcune parti dell’Asia, potenzialmente rimodellando il modo in cui le aziende operano nella nazione più popolosa dell’Africa. I regolatori avranno il potere di richiedere informazioni, emettere direttive di enforcement e sospendere o limitare i sistemi AI considerati non sicuri o non conformi.
La legge prevede inoltre ambienti AI controllati dove startup e istituzioni potranno testare nuove tecnologie sotto supervisione normativa, promuovendo così l’innovazione.
Conclusione
Il direttore generale dell’agenzia nazionale per lo sviluppo delle tecnologie dell’informazione ha dichiarato che la regolamentazione non riguarda solo la concessione di comandi, ma anche l’influenza sul comportamento di mercato, economico e sociale, affinché le persone possano costruire un’AI a beneficio collettivo.