Valutazione di Anthropic raggiunge 545 trilioni di won con la spinta alla regolamentazione dell’IA in Corea

Valutazione di Anthropic in crescita a 545 trilioni di won mentre la Corea guarda a una spinta per la regolamentazione dell’IA

La valutazione di Anthropic, che gestisce il chatbot di intelligenza artificiale “Claude”, è salita a circa 545 trilioni di won. Oltre a un enorme finanziamento, ha anche donato una cospicua somma a un comitato d’azione politica che sostiene la regolamentazione dell’IA.

Raccolta fondi e valutazione

Anthropic ha dichiarato di aver raccolto 30 miliardi di dollari, circa 43 trilioni di won, in un round di finanziamento di Serie G guidato da un fondo sovrano. Questa operazione ha portato la valutazione dell’azienda a 380 miliardi di dollari, pari a circa 545 trilioni di won, raddoppiando in circa cinque mesi da 183 miliardi di dollari nel settembre dell’anno scorso.

Importanti investitori come BlackRock, Blackstone, Fidelity e altri hanno partecipato al round. Gli investimenti annunciati da altre aziende nel novembre dell’anno scorso sono stati inclusi nel totale.

Inizialmente, Anthropic mirava a raccogliere 10 miliardi di dollari, aumentando poi l’obiettivo a 20 miliardi, ma l’importo effettivamente raccolto ha superato le aspettative. La società ha attribuito l’aumento degli investimenti alla crescente domanda da parte dei clienti aziendali.

Crescita dei ricavi e distribuzione

Secondo Anthropic, i ricavi annualizzati sono passati da 100 milioni di dollari nel gennaio 2024 a 1 miliardo di dollari nel gennaio dell’anno scorso, raggiungendo 14 miliardi di dollari il mese scorso. L’azienda ha sottolineato che Claude è disponibile su tutte e tre le principali piattaforme cloud.

Donazioni e regolamentazione dell’IA

Anthropic ha anche donato 20 milioni di dollari, circa 290 miliardi di won, al super PAC “Public First Action”, che sostiene una regolamentazione più rigorosa dell’IA. Questo gruppo promuove una maggiore trasparenza dei modelli di IA, regolamenti a livello federale e controlli sulle esportazioni dei chip per IA.

Public First Action ha fissato un obiettivo di raccolta fondi tra 50 e 75 milioni di dollari e sta anche conducendo campagne pubblicitarie a sostegno di alcuni politici repubblicani.

Conclusione

Anthropic ha dichiarato che è necessaria una “regolamentazione flessibile” per controllare i rischi mantenendo i benefici dell’IA e che parteciperà attivamente al processo di discussione politica. In contrasto, un altro super PAC sostiene una regolamentazione federale unificata e limiti alle normative a livello statale.

More Insights

Responsabilità nell’Intelligenza Artificiale: Un Imperativo Ineludibile

Le aziende sono consapevoli della necessità di un'IA responsabile, ma molte la trattano come un pensiero secondario. È fondamentale integrare pratiche di dati affidabili sin dall'inizio per evitare...

Il nuovo modello di governance dell’IA contro il Shadow IT

Gli strumenti di intelligenza artificiale (IA) si stanno diffondendo rapidamente nei luoghi di lavoro, trasformando il modo in cui vengono svolti i compiti quotidiani. Le organizzazioni devono...

Piani dell’UE per un rinvio delle regole sull’IA

L'Unione Europea sta pianificando di ritardare l'applicazione delle normative sui rischi elevati nell'AI Act fino alla fine del 2027, per dare alle aziende più tempo per adattarsi. Questo cambiamento...

Resistenza e opportunità: il dibattito sul GAIN AI Act e le restrizioni all’export di Nvidia

La Casa Bianca si oppone al GAIN AI Act mentre si discute sulle restrizioni all'esportazione di chip AI di Nvidia verso la Cina. Questo dibattito mette in evidenza la crescente competizione politica...

Ritardi normativi e opportunità nel settore medtech europeo

Un panel di esperti ha sollevato preoccupazioni riguardo alla recente approvazione dell'AI Act dell'UE, affermando che rappresenta un onere significativo per i nuovi prodotti medtech e potrebbe...

Innovazione Etica: Accelerare il Futuro dell’AI

Le imprese stanno correndo per innovare con l'intelligenza artificiale, ma spesso senza le dovute garanzie. Quando privacy e conformità sono integrate nel processo di sviluppo tecnologico, le aziende...

Rischi nascosti dell’IA nella selezione del personale

L'intelligenza artificiale sta trasformando il modo in cui i datori di lavoro reclutano e valutano i talenti, ma introduce anche significativi rischi legali sotto le leggi federali contro la...

L’intelligenza artificiale nella pubblica amministrazione australiana: opportunità e sfide

Il governo federale australiano potrebbe "esplorare" l'uso di programmi di intelligenza artificiale per redigere documenti sensibili del gabinetto, nonostante le preoccupazioni riguardo ai rischi di...

Regolamento Europeo sull’Intelligenza Artificiale: Innovare con Responsabilità

L'Unione Europea ha introdotto la Regolamentazione Europea sull'Intelligenza Artificiale, diventando la prima regione al mondo a stabilire regole chiare e vincolanti per lo sviluppo e l'uso dell'IA...