Neues Gesetz zur KI-Haftung: Veränderungen für Entwickler und Nutzer

Vorgeschlagenes Gesetzesentwurf könnte umfassende Änderungen in der KI-Haftung, Abschnitt 230 und staatlicher Regulierung mit sich bringen und Schutzmaßnahmen für die Nutzung von KI einführen

Einführung

Der Trump America AI Act ist ein Diskussionsentwurf, der Haftung und Sorgfaltspflichten für KI-Entwickler und -Anwender einführen würde, um vorhersehbaren Schaden zu verhindern. Dies würde die KI-Regulierung in Richtung eines Produkthaftungsrahmens bewegen.

Wesentliche Bestimmungen

Der Gesetzesentwurf enthält mehrere Bestimmungen, die bestimmte staatliche KI-Regulierungen außer Kraft setzen, gleichzeitig aber ausdrücklich zulassen, dass Staaten Gesetze mit größeren Schutzmaßnahmen erlassen dürfen. Trotz des Ziels, ein einheitliches Bundesregelwerk zu schaffen, könnte die allgemeine Einsparungsklausel erheblichen Raum für allgemein geltende staatliche Verbraucherschutz-, Bias-Audit-, Transparenz- und algorithmische Verantwortlichkeitsgesetze lassen.

Der Entwurf würde Abschnitt 230 zwei Jahre nach Inkrafttreten aufheben, was die Haftungsexposition von Plattformen und KI erheblich umgestalten würde. Erste Reaktionen deuten darauf hin, dass viele staatliche Gesetze zur algorithmischen Verantwortlichkeit, Bias-Audits und Transparenz unter der allgemeinen Einsparungsklausel des Entwurfs überleben könnten.

Haftung und Pflichten

Der Gesetzesentwurf würde neue, umfassende Haftungsrahmen für KI-Entwickler und -Anwender schaffen. Entwickler wären haftbar für Fahrlässigkeit, strikte Haftung und Gewährleistungsansprüche für KI-Systeme, die Schäden verursachen, einschließlich Sachschäden, Körperverletzungen, finanziellen Schäden, Rufschädigung oder psychologischer Belastung.

Die Anwender, die ein Produkt wesentlich modifizieren oder absichtlich missbrauchen, würden für Haftungszwecke als Entwickler betrachtet. Die gemeinsamen und mehreren Haftungsbestimmungen würden gelten, wenn beide Parteien zur angeblichen Schädigung beigetragen haben.

Zusätzlich zur traditionellen Produkthaftung würde der Entwurf eine Sorgfaltspflicht für Chatbots einführen. Verstöße könnten als unlautere oder täuschende Handlungen gemäß dem Gesetz über die Handelspraktiken behandelt werden.

Vorabregulierung

Der Entwurf verfolgt einen Titel-für-Titel-Ansatz, aber die übergreifende Einsparungsklausel besagt, dass nichts im Gesetz irgendwelche allgemein geltenden Gesetze außer Kraft setzen soll. Bestimmte Bestimmungen würden jedoch das staatliche Recht übertreffen, wo dies mit den bundesstaatlichen Bestimmungen „konfliktiert“. Bestimmungen zur Aufhebung von Abschnitt 230 würden den Haftungsrahmen für bestimmte interaktive Computer-Dienste erheblich ändern.

Schutzmaßnahmen für Kinder und Schöpferrechte

Der Gesetzesentwurf würde eine Sorgfaltspflicht für Plattformen einführen, um vorhersehbaren Schaden für Minderjährige zu verhindern, einschließlich Essstörungen und sexueller Ausbeutung. Er würde außerdem Schutzmaßnahmen wie Kommunikationsbeschränkungen und Datensicherheitsvorkehrungen erfordern.

Einige Bestimmungen würden Schutzmaßnahmen für „Schöpfer“ einführen und ein bundesstaatliches Eigentumsrecht an der Stimme und dem visuellen Abbild jeder Person schaffen, das auch nach dem Tod überdauert.

Audit-Anforderungen

Der Entwurf würde mehrere Prüfungsregime vorschreiben. Anbieter von hochriskanten KI-Systemen wären verpflichtet, jährliche unabhängige Audits auf Verzerrungen und Diskriminierung durchzuführen.

Schlussfolgerung

Obwohl der Vorschlag noch ein Diskussionsentwurf ist, signalisiert er einen föderalen Ansatz, der Innovationspolitik mit aggressiven Haftungs-, Kinder- und Plattformverantwortlichkeitsbestimmungen kombiniert. Unternehmen sollten ihre bestehenden KI-Governance-Modelle und Haftungsrisiken im Lichte der neuen Anforderungen bewerten.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...