Wesentliche Auswirkungen des EU-KI-Gesetzes auf M&A-Transaktionen

Thorough Reviews of Targets’ AI Capabilities unter dem EU-Gesetz

Neue Verpflichtungen aus dem EU-Gesetz über künstliche Intelligenz (AI Act) für allgemeine KI-Modelle (GPAI) werden im August in Kraft treten, während weitere Verpflichtungen in den kommenden Jahren folgen. Angesichts der wachsenden Bedeutung von KI in allen Geschäftsbereichen stellt sich die Frage, wie Deal-Maker diese neuen Vorschriften in ihre Entscheidungsfindung einbeziehen sollten, sowie die anderen Bestimmungen, die im vergangenen Jahr in Kraft traten.

Die wichtigsten potenziellen Auswirkungen des Gesetzes auf M&A

Das AI Act führt bedeutende Verpflichtungen für Organisationen ein, die bestimmte KI-Systeme bereitstellen und GPAI-Modelle anbieten. Im Kontext von M&A müssen Deal-Maker ihre Due-Diligence-Prozesse verstärken, um sicherzustellen, dass das Zielunternehmen über ein klares Inventar seiner GPAI-Modelle und KI-Systeme verfügt, versteht, wie diese genutzt werden, und Schritte zur Einhaltung unternimmt. Dies wird den vertraglichen Schutz im Kaufvertrag bestimmen und die Grundlage für die fortlaufende Einhaltung des Ziels nach dem Abschluss bilden.

Regulierung von künstlicher Intelligenz im AI Act

Der AI Act verfolgt einen risikobasierten Ansatz zur Regulierung von KI. Je höher das Risiko, das von einem KI-System ausgeht, desto strengere Verpflichtungen werden auferlegt. Einige KI-Praktiken sind gänzlich verboten, wie z.B. die Verwendung eines KI-Systems, das Daten zur Gesichtserkennung durch das ungezielte Scraping von Bildern aus dem Internet erstellt. Andere Systeme gelten als hochriskant, insbesondere wenn sie sicherheitsrelevante Komponenten in medizinischen Geräten darstellen. Der AI Act legt wesentliche Verpflichtungen für hochriskante KI-Systeme für Entwickler und Nutzer fest.

Die Anwendung des EU AI Act auf Unternehmen außerhalb der EU

Der AI Act gilt für Anbieter und Nutzer von KI-Systemen, die ihren Sitz in einem Drittland haben, wenn die von diesen Systemen erzeugten Ausgaben in der EU verwendet werden. Ein Beispiel zeigt, dass der Act gilt, wenn ein in der EU ansässiges Unternehmen ein Unternehmen außerhalb der EU beauftragt, eine Aufgabe mit einem hochriskanten KI-System durchzuführen. Selbst wenn das KI-System nicht physisch in der EU verwendet wird, kann der Act gelten, wenn die Ausgaben des KI-Systems vom EU-Unternehmen genutzt werden.

Strafen für Nichteinhaltung des AI Act

Die maximalen Strafen für die Nichteinhaltung können bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes betragen, je nachdem, welcher Betrag höher ist. Ähnlich wie bei der DSGVO legt der AI Act eine Liste von Faktoren fest, die bei der Entscheidung über die Verhängung einer Geldbuße zu berücksichtigen sind. Dies macht es schwierig, vorherzusagen, in welchen Fällen Geldstrafen verhängt werden.

Verantwortlichkeit von PE-Sponsoren

Es ist möglich, dass Regulierungsbehörden und Gerichte dieselben Kriterien anwenden, die sie zur Bestimmung der elterlichen Haftung für Verstöße gegen die EU-Wettbewerbsregeln verwenden. Wenn dies der Fall ist, könnten PE-Investoren haftbar gemacht werden, wenn sie nachweisen können, dass sie einen entscheidenden Einfluss auf das Zielunternehmen hatten.

Der AI Act und die Nutzung von KI durch Sponsoren

Sponsoren sollten zunächst die auf dem Markt verfügbaren KI-Systeme analysieren, um zu bestimmen, ob diese Systeme zur Verbesserung von Entscheidungsprozessen und Datenanalysen geeignet sind. Im zweiten Schritt sollten sie prüfen, ob die ausgewählten Systeme in den Anwendungsbereich des AI Act fallen. Wenn dies der Fall ist, sollten sie analysieren, ob sie als Nutzer oder Anbieter reguliert werden.

Schlussfolgerung

Die Verpflichtungen im AI Act sind umfangreich und Unternehmen sollten bereits vor Inkrafttreten der Vorschriften über die Einhaltung nachdenken. Es ist entscheidend, dass die Personen, die die Due-Diligence-Prüfung durchführen, die richtigen Fragen stellen und die Antworten entsprechend den relevanten gesetzlichen Anforderungen interpretieren.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...