Künstliche Intelligenz Verantwortlichkeitspolitik
Die Verantwortung für Künstliche Intelligenz (KI) ist ein zunehmendes Thema, das in verschiedenen Bereichen der Gesellschaft und Wirtschaft diskutiert wird. Der Fokus liegt auf der Schaffung eines Systems, das es Regierungsbehörden und anderen Interessengruppen ermöglicht, zu bewerten, ob die Systeme, die überprüft werden, die Ansprüche über ihre Eigenschaften substantiieren und die Basisstandards für „vertrauenswürdige KI“ erfüllen.
AI Assurance Bemühungen
Die AI Assurance-Bemühungen sind Teil eines größeren Verantwortlichkeitssystems, das verschiedene Akteure zusammenbringt. Insbesondere wurde gefragt, welche Bewertungen Einrichtungen vor und nach der Einführung von KI-Systemen durchführen sollten, um die notwendigen Bedingungen für die Bewertungen und Zertifizierungen von KI-Systemen zu bestimmen.
Feedback und Kommentare
Über 1.440 einzigartige Kommentare von verschiedenen Interessengruppen wurden als Antwort auf die Aufforderung zur Stellungnahme (RFC) eingereicht. Ein NTIA-Mitarbeiter hat jeden Kommentar gelesen. Diese Kommentare geben einen Einblick in die unterschiedlichen Perspektiven von Einzelpersonen und Organisationen, die sich mit den Herausforderungen und Chancen von KI befassen.
Initiativen der Biden-Harris-Administration
Die Biden-Harris-Administration hat seit der Veröffentlichung der RFC im April 2023 mehrere Initiativen zur Förderung von vertrauenswürdiger KI ergriffen. Im Mai 2023 wurden Verpflichtungen von führenden KI-Entwicklern gesichert, um an einer öffentlichen Bewertung von KI-Systemen teilzunehmen. Diese Verpflichtungen umfassen Maßnahmen zur Transparenz und Evaluierung, um Vertrauen und Sicherheit in KI-Systeme zu fördern.
Regulatorische Maßnahmen
Bundesregulierungs- und Strafverfolgungsbehörden haben ebenfalls Fortschritte bei den Bemühungen zur Verantwortung von KI erzielt. Eine gemeinsame Erklärung von mehreren Bundesbehörden hebt die Risiken unrechtmäßiger diskriminierender Ergebnisse hervor, die durch KI und andere automatisierte Systeme erzeugt werden können.
Internationale Zusammenarbeit
Die Vereinigten Staaten haben mit internationalen Partnern zusammengearbeitet, um Richtlinien zur Verantwortlichkeit von KI zu entwickeln. Ein Beispiel hierfür ist der U.S. – EU Handels- und Technologierat, der im Mai 2023 eine gemeinsame KI-Roadmap herausgab. Diese Roadmap enthält wichtige Begriffe und Konzepte, die für die Entwicklung von Richtlinien zur KI-Verantwortlichkeit entscheidend sind.
Fazit
Die Verantwortung für Künstliche Intelligenz erfordert eine Vielzahl von politischen Interventionen, um sicherzustellen, dass KI-Systeme legal und vertrauenswürdig sind. Es ist wichtig, dass die Informationen über die Trainingsdaten, die Leistungsbeschränkungen und die Modellmerkmale offengelegt werden, um eine interne und externe Verantwortlichkeit zu fördern.
Insgesamt ist die Diskussion über KI-Verantwortlichkeit ein dynamisches und komplexes Thema, das eine kontinuierliche Zusammenarbeit zwischen verschiedenen Interessengruppen erfordert, um ein sicheres und vertrauenswürdiges KI-Ökosystem zu schaffen.