Thorough Reviews of Targets’ AI Capabilities unter dem EU-Gesetz
Neue Verpflichtungen aus dem EU-Gesetz über künstliche Intelligenz (AI Act) für allgemeine KI-Modelle (GPAI) werden im August in Kraft treten, während weitere Verpflichtungen in den kommenden Jahren folgen. Angesichts der wachsenden Bedeutung von KI in allen Geschäftsbereichen stellt sich die Frage, wie Deal-Maker diese neuen Vorschriften in ihre Entscheidungsfindung einbeziehen sollten, sowie die anderen Bestimmungen, die im vergangenen Jahr in Kraft traten.
Die wichtigsten potenziellen Auswirkungen des Gesetzes auf M&A
Das AI Act führt bedeutende Verpflichtungen für Organisationen ein, die bestimmte KI-Systeme bereitstellen und GPAI-Modelle anbieten. Im Kontext von M&A müssen Deal-Maker ihre Due-Diligence-Prozesse verstärken, um sicherzustellen, dass das Zielunternehmen über ein klares Inventar seiner GPAI-Modelle und KI-Systeme verfügt, versteht, wie diese genutzt werden, und Schritte zur Einhaltung unternimmt. Dies wird den vertraglichen Schutz im Kaufvertrag bestimmen und die Grundlage für die fortlaufende Einhaltung des Ziels nach dem Abschluss bilden.
Regulierung von künstlicher Intelligenz im AI Act
Der AI Act verfolgt einen risikobasierten Ansatz zur Regulierung von KI. Je höher das Risiko, das von einem KI-System ausgeht, desto strengere Verpflichtungen werden auferlegt. Einige KI-Praktiken sind gänzlich verboten, wie z.B. die Verwendung eines KI-Systems, das Daten zur Gesichtserkennung durch das ungezielte Scraping von Bildern aus dem Internet erstellt. Andere Systeme gelten als hochriskant, insbesondere wenn sie sicherheitsrelevante Komponenten in medizinischen Geräten darstellen. Der AI Act legt wesentliche Verpflichtungen für hochriskante KI-Systeme für Entwickler und Nutzer fest.
Die Anwendung des EU AI Act auf Unternehmen außerhalb der EU
Der AI Act gilt für Anbieter und Nutzer von KI-Systemen, die ihren Sitz in einem Drittland haben, wenn die von diesen Systemen erzeugten Ausgaben in der EU verwendet werden. Ein Beispiel zeigt, dass der Act gilt, wenn ein in der EU ansässiges Unternehmen ein Unternehmen außerhalb der EU beauftragt, eine Aufgabe mit einem hochriskanten KI-System durchzuführen. Selbst wenn das KI-System nicht physisch in der EU verwendet wird, kann der Act gelten, wenn die Ausgaben des KI-Systems vom EU-Unternehmen genutzt werden.
Strafen für Nichteinhaltung des AI Act
Die maximalen Strafen für die Nichteinhaltung können bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes betragen, je nachdem, welcher Betrag höher ist. Ähnlich wie bei der DSGVO legt der AI Act eine Liste von Faktoren fest, die bei der Entscheidung über die Verhängung einer Geldbuße zu berücksichtigen sind. Dies macht es schwierig, vorherzusagen, in welchen Fällen Geldstrafen verhängt werden.
Verantwortlichkeit von PE-Sponsoren
Es ist möglich, dass Regulierungsbehörden und Gerichte dieselben Kriterien anwenden, die sie zur Bestimmung der elterlichen Haftung für Verstöße gegen die EU-Wettbewerbsregeln verwenden. Wenn dies der Fall ist, könnten PE-Investoren haftbar gemacht werden, wenn sie nachweisen können, dass sie einen entscheidenden Einfluss auf das Zielunternehmen hatten.
Der AI Act und die Nutzung von KI durch Sponsoren
Sponsoren sollten zunächst die auf dem Markt verfügbaren KI-Systeme analysieren, um zu bestimmen, ob diese Systeme zur Verbesserung von Entscheidungsprozessen und Datenanalysen geeignet sind. Im zweiten Schritt sollten sie prüfen, ob die ausgewählten Systeme in den Anwendungsbereich des AI Act fallen. Wenn dies der Fall ist, sollten sie analysieren, ob sie als Nutzer oder Anbieter reguliert werden.
Schlussfolgerung
Die Verpflichtungen im AI Act sind umfangreich und Unternehmen sollten bereits vor Inkrafttreten der Vorschriften über die Einhaltung nachdenken. Es ist entscheidend, dass die Personen, die die Due-Diligence-Prüfung durchführen, die richtigen Fragen stellen und die Antworten entsprechend den relevanten gesetzlichen Anforderungen interpretieren.