german
Was sind die wichtigsten Überlegungen beim vorherrschenden Ansatz auf Staatsebene zur Steuerung von KI bei folgenschweren Entscheidungen?
In den USA konzentrieren sich die Gesetzgeber der Bundesstaaten zunehmend auf die Regulierung von KI, die bei „folgenschweren Entscheidungen“ eingesetzt wird – Entscheidungen, die das Leben und die Lebenschancen von Einzelpersonen erheblich beeinflussen. Dieser Ansatz zielt darauf ab, Fairness, Transparenz, Aufsicht und Rechenschaftspflicht zu fördern, insbesondere in Bereichen, die traditionell unter Bürgerrechtsgesetze fallen, wie z. B. Bildung, Wohnen, Finanzdienstleistungen, Gesundheitswesen und Beschäftigung. Die Regulierungslandschaft ist komplex, aber wichtige Überlegungen definieren diesen vorherrschenden Ansatz.
Definition des Geltungsbereichs
Gesetzgeber folgen oft einem fünfteiligen Rahmen, um den Geltungsbereich von „KI-Systemen mit hohem Risiko“ oder „automatisierten Entscheidungsinstrumenten“ zu definieren:
- Definition von KI: Die meisten Bundesstaaten orientieren sich an der OECD-Definition: Ein KI-System leitet aus Eingaben Ausgaben wie Vorhersagen, Inhalte oder Entscheidungen ab, die physische oder virtuelle Umgebungen beeinflussen.
- Relevanter Kontext: Die Regulierung konzentriert sich hauptsächlich auf Sektoren, die durch Bürgerrechtsgesetze geschützt sind, in denen KI Auswirkungen auf Bildung, Beschäftigung, Wohnen, Finanzen, wesentliche Regierungsdienste, Gesundheitswesen, Versicherungen und Rechtsdienstleistungen hat. Einige Vorschläge, wie z. B. AB 2930 aus Kalifornien, sind präskriptiver und umfassen wichtige Versorgungsunternehmen, Strafjustiz, Adoptionsdienste, Reproduktionsdienste und Wahlen.
- Auswirkungen und Rolle der KI: Dies ist der am meisten diskutierte Bereich. Die Gesetzgeber ziehen Begriffe wie „Erleichterung der Entscheidungsfindung“ (niedrigste Schwelle), „wesentlicher Faktor“ (mittlere) und „kontrollierender Faktor“ (höchste) in Betracht. Das Kernproblem ist das Ausbalancieren der regulatorischen Breite mit der betrieblichen Klarheit für Innovatoren.
- Regulierte Einrichtungen: Der Ansatz unterscheidet typischerweise zwischen Entwicklern (die KI-Systeme entwickeln) und Anwendern (die sie verwenden) und weist rollenspezifische Verpflichtungen für Transparenz, Risikobewertungen und Governance zu.
- Häufige Ausnahmen: Oft gibt es Ausnahmen für bestimmte Technologien (Taschenrechner, Datenbanken usw.), Sektoren, die bereits durch bestehende Gesetze geregelt werden, kleine Unternehmen und gemeinnützige Aktivitäten.
Bekämpfung algorithmischer Diskriminierung
Die Eindämmung algorithmischer Diskriminierung gegenüber geschützten Gruppen ist ein Hauptziel. Die meisten Vorschläge definieren sie als ungerechtfertigte unterschiedliche Behandlung aufgrund der Zugehörigkeit zu einer geschützten Gruppe. Einige gesetzliche Rahmen schaffen ein pauschales Verbot algorithmischer Diskriminierung, während andere Rahmen wie in Colorado eine Sorgfaltspflicht zur Verhinderung algorithmischer Diskriminierung schaffen. Die Wechselwirkungen zwischen den neuen Gesetzen und bestehenden Bürgerrechtsgesetzen sind derzeit unklar, was zu Verwirrung und Unsicherheit führt. Darüber hinaus besteht eine Diskrepanz zwischen den Ansichten von Verbrauchern und Branchenvertretern, wobei Verbraucher einen stärkeren Schutz fordern, während die Industrie weniger Einschränkungen fordert.
Verpflichtungen für Entwickler und Anwender
Die gemeinsamen Verpflichtungen für Entwickler und Anwender drehen sich um:
- Transparenz: Dies umfasst Hinweise an Einzelpersonen über die Verwendung von KI, öffentliche Transparenzmaßnahmen und die gemeinsame Dokumentation zwischen Entwicklern und Anwendern.
- Bewertungen: Es gibt wesentliche Unterschiede zwischen dem Testen von KI-Systemen zur Bewertung technischer Aspekte anhand bestimmter Metriken wie Genauigkeit und Zuverlässigkeit in Bezug auf Verzerrungen aufgrund geschützter Merkmale und Bewertungen oder KI-Folgenabschätzungen, die bewerten und dokumentieren, ob und inwieweit ein KI-System ein Diskriminierungsrisiko für Einzelpersonen darstellt.
- KI-Governance-Programme: Strukturierte Rahmen sind erforderlich, um die KI-Entwicklung und -Bereitstellung verantwortungsvoll zu überwachen und zu verwalten.
Verbraucherrechte
Die Rahmen schaffen Rechte für Einzelpersonen, die von KI-Systemen betroffen sind, einschließlich:
- Recht auf Benachrichtigung und Erklärung: Einzelpersonen sollten über die KI-Nutzung und ihre Auswirkungen informiert werden.
- Recht auf Berichtigung: Möglichkeit, unrichtige Informationen zu korrigieren, die in der Entscheidungsfindung verwendet werden.
- Recht auf Opt-out oder Einspruch: Möglichkeit, sich von automatisierten Entscheidungen abzumelden oder einen Einspruch zur menschlichen Überprüfung einzulegen.
Durchsetzung
Die Durchsetzung wird typischerweise von der Staatsanwaltschaft (Attorney General’s office) verwaltet. Zu den regulatorischen Instrumenten gehören die affirmative Berichterstattung und die Vorlage von Dokumenten sowie Durchsetzungsmechanismen wie Rechte auf Abhilfe und widerlegbare Vermutungen der Einhaltung. Derzeit zögern die meisten staatlichen Gesetzgeber, ein privates Klagerecht in KI- und Datenschutzgesetze aufzunehmen, da dies zu einer potenziellen rechtlichen Belastung führen könnte.
Wie begegnen technologiespezifische Ansätze zur Regulierung von KI einzigartigen Herausforderungen, unter Berücksichtigung von Beispielen generativer KI und Frontier-Modelle?
Während viele US-Bundesstaaten einen risikobasierten Ansatz zur KI-Regulierung verfolgen, streben einige Gesetzgeber technologiespezifische Regeln an. Diese konzentrieren sich auf die einzigartigen Risiken, die mit bestimmten Arten von KI verbunden sind, insbesondere mit generativer KI und Frontier-Modellen.
Generative KI: Transparenz und Offenlegung
Die Vorschriften für generative KI zielen in erster Linie darauf ab, die Transparenz zu erhöhen. Dies beinhaltet:
- Verbraucherhinweise: Benutzer darüber informieren, wenn sie mit generativen KI-Systemen interagieren. Ein gutes Beispiel hierfür ist SB 149 aus Utah, das Unternehmen verpflichtet, offenzulegen, wenn eine Einzelperson mit generativer KI interagiert.
- Inhaltskennzeichnung: Inhalte klar als synthetisch oder KI-generiert kennzeichnen.
- Wasserzeichen: Implementierung von Wasserzeichen zur Identifizierung von KI-erstellten Inhalten.
- KI-Erkennungstools: Wie in California SB 942, Bereitstellung von Tools zur Überprüfung, ob Inhalte von KI generiert oder verändert wurden.
- Dokumentationsoffenlegung: California AB 2013 schreibt vor, dass Entwickler generativer KI die Daten, die zum Trainieren ihrer Systeme verwendet werden, öffentlich offenlegen müssen.
Frontier-Modelle: Sicherheit und Aufsicht
Die Vorschriften für Frontier KI oder Foundation Models (große KI-Modelle, die in einer Vielzahl von Anwendungsfällen und Anwendungen eingesetzt werden können, manchmal auch als „Allzweck-KI“ bezeichnet) befassen sich mit Risiken, die sich aus ihrer Größe und Leistung ergeben. Zu den wichtigsten Bereichen, die berücksichtigt werden, gehören:
- Sicherheitsprotokolle: Entwickler müssen über dokumentierte Sicherheits- und Schutzprotokolle verfügen. Ein Beispiel ist der vorgeschlagene California Gesetzestext SB 1047 aus dem Jahr 2024.
- Abschaltfunktion: Sicherstellung der Möglichkeit, Modelle bei Bedarf unverzüglich abzuschalten. SB 1047, das vom Parlament verabschiedet wurde, ist ein Beispiel hierfür.
Herausforderungen bei der Regulierung von Frontier-/Foundation-Modellen
Die Regulierung solcher Modelle birgt einzigartige Herausforderungen:
- Komplexität und Umfang: Die Komplexität dieser Modelle erschwert die Festlegung effektiver Standards.
- Rechenleistung als Schwellenwert: Einige Vorschläge verwenden die Rechenleistung (z. B. FLOPs) als Standardbeschränkung. Kritiker argumentieren, dass diese Messung nicht immer ein zuverlässiger Risikoindikator ist. Sie argumentieren, dass zu viel Fokus auf spekulativen vs. nachgewiesenen Risiken liegt, wie z. B. algorithmische Verzerrung.
- Auswirkungen auf Open Source: Anforderungen an Entwickler könnten die Verfügbarkeit und Modifizierung von Open-Source-Modellen einschränken. Als Reaktion auf Bedenken hinsichtlich der Auswirkungen auf Open Source erhielt California SB 1047 Änderungen, um Modelle auszuschließen, die durch Feinabstimmung eines abgedeckten Modells erstellt wurden und weniger als zehn Millionen Dollar an Rechenkosten verursachen.
Welche spezifischen Pflichten und Rechte in Bezug auf KI-Systeme werden typischerweise für Entwickler, Anwender und Verbraucher festgelegt, und wie werden sie durchgesetzt?
Die staatliche KI-Gesetzgebung konzentriert sich zunehmend auf die Definition spezifischer Rechte und Pflichten für Entwickler, Anwender und Verbraucher, um Fairness, Transparenz und Verantwortlichkeit zu gewährleisten. Lassen Sie uns aufschlüsseln, was jede Rolle typischerweise beinhaltet.
Pflichten für Entwickler
Entwickler, die KI-Systeme bauen, haben Pflichten in Bezug auf:
- Transparenz und Dokumentation: Bereitstellung umfassender Dokumentation über die Funktionalität, den beabsichtigten Zweck und die potenziellen Risiken des KI-Systems. Dies beinhaltet oft die Offenlegung von Informationen über die Daten, die zum Trainieren des Modells verwendet wurden.
- Risikobewertung: Testen von Systemen auf Verzerrungs- und Diskriminierungsschwachstellen und Bereitstellung dieser Informationen für Anwender.
- Angemessene Sorgfalt: In Staaten mit einem regulatorischen Modell der Sorgfaltspflicht übernehmen Entwickler die Verantwortung für „angemessene Sorgfalt“, um Verbraucher vor algorithmischer Diskriminierung zu schützen.
Pflichten für Anwender
Anwender, die KI-Systeme nutzen, sind in der Regel verantwortlich für:
- Transparenz und Hinweis: Informieren von Personen, wann und wie ein KI-System verwendet wird, um folgenschwere Entscheidungen zu treffen, die sie betreffen.
- KI-Governance-Programme: Implementierung strukturierter Programme und Risikomanagementrichtlinien zur Überwachung der KI-Nutzung. Diese Programme erfordern oft Spezifikationen in Bezug auf Risikominderung und iterative Aktualisierungen.
- Überwachung nach der Bereitstellung: Kontinuierliche Überwachung von KI-Systemen auf Verzerrungen, Genauigkeit und Diskriminierungsrisiken.
- Gewährung individueller Rechte: Wahrung der Verbraucherrechte (detailliert unten), was oft die Korrektur ungenauer Informationen einschließt, die bei der Entscheidungsfindung verwendet werden.
Verbraucherrechte
Verbrauchern werden im Rahmen der vorgeschlagenen KI-Gesetzgebung neue Rechte eingeräumt:
- Recht auf Information und Erklärung: Erhalt klarer und zugänglicher Informationen über die Verwendung von KI in Entscheidungsprozessen. Dies beinhaltet das Verständnis des Zwecks des Systems und seiner Funktionsweise.
- Recht auf Berichtigung: Berichtigung fehlerhafter personenbezogener Daten, die von einem KI-System verwendet werden, insbesondere wenn eine nachteilige Entscheidung getroffen wurde.
- Recht auf Beschwerde oder Widerspruch: Einige Gesetze gewähren das Recht, eine KI-gesteuerte Entscheidung zur menschlichen Überprüfung anzufechten oder sich ganz von der automatisierten Entscheidungsfindung abzumelden.
Durchsetzungsmechanismen
Die Durchsetzung erfolgt in der Regel durch den Generalstaatsanwalt des Bundesstaates. Zu den gängigen Mechanismen gehören:
- Affirmative Berichterstattung: Entwickler legen potenzielle Risiken im Zusammenhang mit KI-Systemen offen.
- Dokumentenvorlage: Verpflichtung von Entwicklern und Anwendern, Dokumentationen zu führen und vorzulegen.
- Recht auf Nachbesserung: Gewährung von Organisationen die Möglichkeit, Verstöße innerhalb eines bestimmten Zeitrahmens zu beheben.
- Widerlegbare Vermutung: Bereitstellung einer „widerlegbaren Vermutung“ der Einhaltung, wenn die Unternehmen die regulatorischen Anforderungen erfüllen.
- Einrede: Bereitstellung von Einreden gegen Maßnahmen, wenn Entwickler Verstöße innerhalb von 30 Tagen beheben und anerkannte Risikomanagement-Frameworks einhalten.
Es ist erwähnenswert, dass staatliche Gesetzgeber zögern, ein privates Klagerecht in die KI-Gesetzgebung aufzunehmen, da dies potenziell zu übermäßigen Rechtsstreitigkeiten führen könnte.