Vorgeschlagene Änderungen des Colorado AI-Gesetzes

Vorgeschlagene Änderungen zum Colorado AI Act

Mit der fortschreitenden Entwicklung der regulatorischen Rahmenbedingungen für Künstliche Intelligenz (KI) zieht Colorado bedeutende Änderungen an seinem kürzlich verabschiedeten AI Act in Betracht. Das Gesetzesentwurf 318 folgt fast einem Jahr intensiver Bemühungen der Artificial Intelligence Impact Task Force des Bundesstaates, um Bedenken auszuräumen, dass der AI Act zu weit gefasst sei und Innovationen ersticken könnte. Der Entwurf zielt darauf ab, den AI Act zu überarbeiten, um den Fokus zu schärfen und die Compliance-Belastung für betroffene Unternehmen erheblich zu reduzieren.

Wesentliche vorgeschlagene Änderungen:

  • Überarbeitete Definitionen: Der Entwurf ändert mehrere zentrale Definitionen. Beispielsweise wurde algorithmische Diskriminierung neu definiert als „die Nutzung eines KI-Systems, die zu einem Verstoß gegen geltende lokale, staatliche oder bundesstaatliche Antidiskriminierungsgesetze führt…“. Die Definition von Entwickler wird dahingehend geändert, dass Personen, die Systeme mit offenen Modellgewichten anbieten oder bestimmte Bedingungen erfüllen, ausgeschlossen sind. Dazu gehört, dass sie kein relevantes Verhalten oder Aussagen zur Förderung der Nutzung des Systems bei wesentlichen Entscheidungen tätigen und spezifische Haftungsausschlüsse in Verträgen und Dokumentationen angeben, die besagen, dass das System nicht für wesentliche Entscheidungen entwickelt wurde.
  • Neue und erweiterte Ausnahmen: Eine der einflussreichsten Änderungen ist die neue Ausnahme für Betreiber, die hochriskante KI-Systeme ausschließlich für die Rekrutierung, Beschaffung oder Einstellung externer Kandidaten verwenden, sofern bestimmte Bedingungen bezüglich der Mitarbeiterzahl und Offenlegungen erfüllt sind. Angesichts der Verbreitung KI-gestützter Rekrutierungstools und der hohen Akzeptanz in Personalabteilungen könnten viele Unternehmen von dieser Ausnahme profitieren. Bestimmte Offenlegungspflichten für Entwickler gelten nicht für Entwickler, die spezifische finanzielle Kriterien erfüllen (weniger als 10 Millionen USD von Drittfirmen, weniger als 5 Millionen USD Jahresumsatz, weniger als 5 Jahre aktiv) und hochriskante KI-Systeme verkaufen oder vertreiben, die von Betreibern verwendet werden, um eine begrenzte Anzahl wesentlicher Entscheidungen pro Jahr zu treffen, wobei die Grenze jährlich von 10.000 im Jahr 2027 auf 2.500 im Jahr 2029 sinkt.
  • Änderungen der Pflichten: Eine frühere Anforderung, dass Entwickler/Betreiber den Generalstaatsanwalt über bekannte oder absehbare Risiken der algorithmischen Diskriminierung informieren, scheint gestrichen worden zu sein.
  • Erweiterte Verpflichtungen für Betreiber (mit Einschränkungen): Betroffene Betreiber müssen eine Risiko-Management-Politik und ein Programm implementieren und jährliche Auswirkungen bewerten. Der erforderliche Inhalt der Auswirkungen umfasst jetzt ausdrücklich die Analyse von Risiken bezüglich der Einschränkung der Zugänglichkeit, unfairen Handelspraktiken, Verstößen gegen Arbeitsgesetze oder Verletzungen des Colorado Privacy Act. Betreiber, die hochriskante KI-Systeme für wesentliche Entscheidungen verwenden, müssen den Verbrauchern Offenlegungen über den Zweck des Systems, den Namen, den Entwickler, die Kontaktdaten des Betreibers und eine leicht verständliche Beschreibung der Rolle des Systems und des Datenbewertungsprozesses bereitstellen.
  • Neue Mitteilungspflicht für zurückgehaltene Informationen: Betroffene Unternehmen, die Informationen zurückhalten, die ansonsten nach dem AI Act offengelegt werden müssten, sind verpflichtet, die betroffene Person zu benachrichtigen und den Grund für die Zurückhaltung anzugeben sowie nicht ausgenommene Informationen bereitzustellen.
  • Verzögerte Durchsetzung: Der Generalstaatsanwalt hat die ausschließliche Befugnis zur Durchsetzung des Gesetzes, doch diese Befugnis beginnt erst am 1. Januar 2027. Positive Verteidigungen stehen Unternehmen zur Verfügung, die innerhalb von sieben Tagen eine heilbare Verletzung entdecken und beheben oder die ansonsten compliant waren und spezifische Kriterien erfüllen, einschließlich Unachtsamkeit, die weniger als 1.000 Verbraucher betreffen, und keine Fahrlässigkeit.

Dieser vorgeschlagene Gesetzesentwurf stellt eine bedeutende Verfeinerung des Ansatzes Colorados zur Regulierung von KI dar, indem er mehr Unternehmen von seinem Anwendungsbereich ausnimmt und die Anforderungen und Fristen für Entwickler und Betreiber anpasst. Angesichts ähnlicher Gesetze zur algorithmischen Voreingenommenheit in anderen Bundesstaaten bieten diese Änderungen einen potenziellen Rahmen dafür, wie Bundesstaaten die Komplexität der Regulierung von KI-Systemen in Zukunft angehen könnten.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...