Bericht über die Verantwortung von KI-Politiken
Die Verantwortung von KI-Politiken spielt eine entscheidende Rolle dabei, das Beste aus dieser Technologie herauszuholen. Die Teilnehmer im KI-Ökosystem – einschließlich Politikern, Industrie, zivilgesellschaftlichen Organisationen, Arbeitnehmern, Forschern und betroffenen Gemeinschaften – sollten befähigt werden, Probleme und potenzielle Risiken aufzudecken und verantwortliche Stellen zur Rechenschaft zu ziehen.
Verantwortung der Entwickler und Anwender von KI-Systemen
Entwickler und Anwender von KI-Systemen sollten Mechanismen implementieren, um die Sicherheit und das Wohlergehen von Menschen und der Umwelt zu priorisieren. Sie müssen nachweisen, dass ihre KI-Systeme wie vorgesehen und in einer harmlosen Weise funktionieren. Die Umsetzung von Verantwortungsrichtlinien kann zur Schaffung eines robusten, innovativen und informierten KI-Marktes beitragen, in dem Käufer von KI-Systemen wissen, was sie erwerben, Nutzer wissen, was sie konsumieren, und die Subjekte der KI-Systeme – Arbeiter, Gemeinschaften und die Öffentlichkeit – wissen, wie Systeme implementiert werden.
Transparenz im Markt ermöglicht es Unternehmen, sich anhand von Sicherheits und Vertrauenswürdigkeit zu differenzieren und hilft sicherzustellen, dass KI nicht auf schädliche Weise eingesetzt wird. Ein solcher Wettbewerb, unterstützt durch Informationen, fördert nicht nur die Einhaltung eines Mindeststandards, sondern auch eine kontinuierliche Verbesserung im Laufe der Zeit.
Förderung von Innovation und verantwortungsvoller Nutzung von KI
Um Innovation und die Einführung vertrauenswürdiger KI zu fördern, müssen wir die Evaluierung von KI-Systemen vor und nach der Veröffentlichung anreizen und unterstützen sowie mehr Informationen darüber bereitstellen, wo dies angemessen ist. Die robuste Evaluierung von KI-Fähigkeiten, Risiken und Eignung für den bestimmten Zweck ist nach wie vor ein aufkommendes Feld.
Um echte Verantwortung zu erreichen und alle Vorteile der KI zu nutzen, benötigt die Vereinigten Staaten – und die Welt – neue und umfassendere Verantwortungstools und Informationen, ein Ökosystem unabhängiger Bewertungen von KI-Systemen sowie Konsequenzen für diejenigen, die es versäumen, Verpflichtungen zu erfüllen oder Risiken angemessen zu managen.
Zugang zu Informationen
Der Zugang zu Informationen durch geeignete Mittel und Parteien ist während des gesamten Lebenszyklus von KI entscheidend, von der frühen Entwicklung eines Modells bis zu dessen Einsatz und nachfolgenden Nutzungen. Dies wurde bereits in den laufenden Bemühungen der Bundesregierung anerkannt, die auf Präsident Bidens Exekutivverordnung Nr. 14110 über die sichere, sichere und vertrauenswürdige Entwicklung und Nutzung von KI vom 30. Oktober 2023 Bezug nimmt.
Dieser Informationsfluss sollte Dokumentationen über KI-Systemmodelle, Architektur, Daten, Leistung, Einschränkungen, angemessene Nutzung und Tests umfassen. KI-Systeminformationen sollten in einer für das relevante Publikum geeigneten Form offengelegt werden, einschließlich in einfacher Sprache. Es sollte angemessenen Drittzugang zu Komponenten und Prozessen von KI-Systemen geben, um ein ausreichendes umsetzbares Verständnis von Machine Learning-Modellen zu fördern.
Unabhängige Bewertungen
Die unabhängige Bewertung durch geeignete Mittel und Parteien ist ebenfalls wichtig während des gesamten Lebenszyklus von KI. Diese Informationen sollten Dokumentationen über KI-Systemmodelle, Architektur, Daten, Leistung, Einschränkungen, angemessene Nutzung und Tests umfassen. KI-Systeminformationen sollten in einer für das relevante Publikum geeigneten Form offengelegt werden, einschließlich in einfacher Sprache.
Es sollte angemessener Drittzugang zu KI-Systemkomponenten und -prozessen geben, um ein ausreichendes umsetzbares Verständnis von Machine Learning-Modellen zu fördern.
Konsequenzen für verantwortliche Parteien
Die Anwendung und/oder Entwicklung von Hebeln – wie Regulierung, Marktdruck und/oder rechtlicher Haftung – ist erforderlich, um KI-Entitäten zur Verantwortung zu ziehen, die inakzeptable Risiken auferlegen oder unbegründete Ansprüche erheben.
Der Bericht über die Verantwortung von KI-Politiken betrachtet Verantwortung als eine Kette von Eingaben, die mit Konsequenzen verbunden sind. Er konzentriert sich darauf, wie der Informationsfluss (Dokumentationen, Offenlegungen und Zugänge) unabhängige Bewertungen unterstützt (einschließlich Red-Teaming und Audits), die wiederum in Konsequenzen (einschließlich Haftung und Regulierung) münden, um Verantwortung zu schaffen.
Empfehlungen für die Bundesregierung
Basierend auf den Beiträgen von mehr als 1.400 verschiedenen Kommentaren, die aus einem breiten Spektrum von Interessengruppen stammen, wurden acht wichtige politische Empfehlungen abgeleitet, die in drei Kategorien unterteilt sind: Leitlinien, Unterstützung und regulatorische Anforderungen.
Diese Empfehlungen sollen das KI-Verantwortungssystem fördern und die Risiken, die mit der beschleunigten Bereitstellung von KI-Systemen verbunden sind, mindern. Es wird geglaubt, dass gezielte Leitlinien, Unterstützung und Regulierung ein Ökosystem schaffen werden, in dem KI-Entwickler und -Anwender angemessen zur Verantwortung gezogen werden können, was das angemessene Management von Risiken fördert und die Schaffung vertrauenswürdigerer KI-Systeme anregt.