Anthropic erreicht 545 Billionen Won: Fokus auf KI-Regulierung in Korea

Die Bewertung von Anthropic, das den KI-Chatbot „Claude“ betreibt, hat sich auf etwa 545 Billionen Won erhöht. Neben einer umfangreichen Finanzierung hat das Unternehmen auch einen großen Betrag an ein politisches Aktionskomitee gespendet, das die Regulierung von KI unterstützt.

Finanzierungsrunde und Bewertung:
Anthropic gab am 12. (Ortszeit) bekannt, dass es in einer Serie-G-Runde unter der Leitung eines Staatsfonds und eines Risikokapitalgebers 30 Milliarden Dollar (etwa 43 Billionen Won) gesammelt hat. Dies brachte die Bewertung des Unternehmens auf 380 Milliarden Dollar (ca. 545 Billionen Won). Innerhalb von fünf Monaten hat sich die Bewertung mehr als verdoppelt, nachdem sie im September des letzten Jahres bei 183 Milliarden Dollar lag.

Unternehmen wie BlackRock, Blackstone, Fidelity, Goldman Sachs, JPMorgan Chase, Morgan Stanley, Sequoia Capital und die Qatar Investment Authority (QIA) haben an der Runde teilgenommen. Auch die im November letzten Jahres angekündigten Investitionen von großen Technologiefirmen flossen in diese Runde ein.

Ursprünglich wollte das Unternehmen 10 Milliarden Dollar sammeln und erhöhte das Ziel später auf 20 Milliarden Dollar, doch die tatsächlich aufgebrachte Summe überstieg die Erwartungen erheblich. Anthropic betonte, dass die steigende Nachfrage von Unternehmenskunden hinter dieser größeren Investition steht.

Umsatzentwicklung:
Laut Anthropic stieg der annualisierte Umsatz von 100 Millionen Dollar im Januar 2023 auf 1 Milliarde Dollar im Januar 2024 und erreichte im letzten Monat 14 Milliarden Dollar. Das Unternehmen hebt hervor, dass Claude auf allen drei großen Cloud-Plattformen – Amazon Web Services, Google Cloud und Microsoft Azure – eingesetzt wird.

Politische Spenden und Regulierung:
Die Bewertung von 380 Milliarden Dollar liegt nahe an der von OpenAI, die 500 Milliarden Dollar beträgt. Anthropic gab außerdem bekannt, dass es 20 Millionen Dollar (etwa 290 Milliarden Won) an das Super-PAC „Public First Action“ gespendet hat, das sich für eine stärkere Regulierung von KI einsetzt. Die Gruppe fordert mehr Transparenz bei KI-Modellen, bundesstaatliche Regulierung, Exportkontrollen für KI-Chips und Maßnahmen gegen durch KI bedingte biologische und Cyber-Bedrohungen.

Public First Action hat angeblich ein Fundraising-Ziel von 50 bis 75 Millionen Dollar gesetzt und schaltet auch Werbung, die einige republikanische Politiker unterstützt.

Anthropic stellte fest, dass „flexible Regulierung notwendig ist, um Risiken zu kontrollieren und gleichzeitig die Vorteile von KI zu erhalten“ und betont, dass es aktiv am politischen Diskussionsprozess teilnehmen wird.

Im Gegensatz dazu argumentiert das Super-PAC „Leading the Future“, das von OpenAI und einem Risikokapitalunternehmen geleitet wird, für eine einheitliche bundesstaatliche Regulierung und Begrenzungen separater staatlicher Regeln. Diese Gruppe hat angeblich etwa 125 Millionen Dollar gesammelt.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...