Fortschritte bei der regulatorischen Bereitschaft durch das AIxpertise-Projekt

Fortschritte bei der regulatorischen Bereitschaft durch das AIxpertise-Projekt

Das NEA veranstaltete den zweiten Workshop der AI-Plattform für nukleare Forschung und Bildung (AIxpertise), bei dem 67 Vertreter aus 45 Organisationen aus 16 NEA-Mitgliedsländern und der Europäischen Kommission zusammenkamen. Der virtuelle Workshop fand am 21. Januar 2026 statt und stellte einen wichtigen Schritt in Richtung der Finalisierung des Arbeitsprogramms und der Governance-Vereinbarungen für dieses neue NEA-Gemeinschaftsprojekt dar.

Ziele des Workshops

Der Workshop hatte zum Ziel, das Feedback zu konsolidieren, das seit dem ersten AIxpertise-Workshop im Oktober 2025 eingegangen war, und eine endgültige Überprüfung des Umfangs, der Prioritäten und des rechtlichen Rahmens des Projekts zu unterstützen. Die Teilnehmer repräsentierten ein breites Spektrum von Interessengruppen, darunter Regulierungsbehörden, technische Unterstützungsorganisationen, Forschungsinstitute, Hochschulen und Industrie, was die allumfassende Natur der Anwendungen von künstlicher Intelligenz (KI) im nuklearen Sektor widerspiegelt.

Kerninhalte des Programms

Diskussionen konzentrierten sich auf den Entwurf des AIxpertise-Arbeitsprogramms, das sich um drei Säulen gruppiert: Daten, Benchmarking von KI-Algorithmen und praktische Schulungen sowie Best Practices. Das NEA-Sekretariat präsentierte Updates zur Priorisierung von Aufgaben und Ergebnissen basierend auf den Eingaben der teilnehmenden Organisationen.

Regulatorische Perspektive

Eine spezielle Sitzung brachte ein Panel von Regulierungsbehörden und technischen Unterstützungsorganisationen zusammen, um das AIxpertise-Arbeitsprogramm aus einer regulatorischen Perspektive zu überprüfen. Beiträge von verschiedenen Regulierungsbehörden hoben gemeinsame regulatorische Interessen und Herausforderungen im Zusammenhang mit dem Einsatz von KI hervor. Die Panelteilnehmer betonten die Bedeutung von Transparenz, Erklärbarkeit, Validierung und Unsicherheitsquantifizierung in KI-basierten Methoden sowie die Notwendigkeit international koordinierter Ansätze zum Benchmarking und zur Entwicklung von Best Practices.

Synergien und zukünftige Schritte

Die Diskussion umfasste auch Erfahrungen aus einem anderen Projekt, das einen regulatorischen Sandbox-Ansatz zur Innovation anwendet. Die Erkenntnisse aus den Aktivitäten zeigten, wie strukturierte, szenariobasierte Diskussionen Regulierungsbehörden und Technologieentwicklern helfen können, KI-Anwendungsfälle in einer kontrollierten Umgebung zu erkunden und regulatorische Erwartungen besser zu verstehen, ohne Lizenzentscheidungen vorwegzunehmen. Teilnehmer überprüften, wie AIxpertise bestehende nationale und internationale Initiativen ergänzen könnte, indem es eine neutrale Plattform für Zusammenarbeit, Wissensaustausch und Kompetenzentwicklung bietet.

Der Workshop endete mit einer Diskussion über die nächsten Schritte, einschließlich der Finalisierung des Arbeitsprogramms, der Bestätigung der Beiträge der teilnehmenden Organisationen und der Vorbereitung zur Einrichtung des AIxpertise-Managementausschusses. Die Teilnehmer zeigten Interesse an einer fortgesetzten Zusammenarbeit, während AIxpertise in die Implementierungsphase eintritt, und erkannten dessen Potenzial zur Unterstützung des verantwortungsvollen und sicherheitsorientierten Einsatzes von KI in der nuklearen Forschung, Bildung und Regulierung.

Das AIxpertise-Gemeinschaftsprojekt steht auch weiteren interessierten Parteien offen.

More Insights

Verantwortungsvolle KI: Ein unverzichtbares Gebot für Unternehmen

Unternehmen sind sich der Notwendigkeit von verantwortungsvollem KI-Betrieb bewusst, behandeln ihn jedoch oft als nachträglichen Gedanken oder separates Projekt. Verantwortliche KI ist eine vordere...

Neues KI-Governance-Modell gegen Schatten-KI

Künstliche Intelligenz (KI) verbreitet sich schnell in den Arbeitsplatz und verändert, wie alltägliche Aufgaben erledigt werden. Unternehmen müssen ihre Ansätze zur KI-Politik überdenken, um mit der...

EU plant Aufschub für AI-Gesetzgebung

Die EU plant, die Anforderungen für risikobehaftete KI-Systeme im KI-Gesetz bis Ende 2027 zu verschieben, um Unternehmen mehr Zeit zu geben, sich anzupassen. Kritiker befürchten, dass diese...

Weißes Haus lehnt GAIN AI-Gesetz ab: Nvidia im Fokus

Das Weiße Haus hat sich gegen den GAIN AI Act ausgesprochen, während es um die Exportbeschränkungen für Nvidia-AI-Chips nach China geht. Die Diskussion spiegelt die politischen Spannungen wider, die...

Ethische KI als Beschleuniger für Innovation

Unternehmen stehen heute unter Druck, mit künstlicher Intelligenz zu innovieren, oft jedoch ohne die notwendigen Sicherheitsvorkehrungen. Indem sie Datenschutz und Ethik in den Entwicklungsprozess...

KI im Recruiting: Verborgene Risiken für Arbeitgeber

Künstliche Intelligenz verändert die Art und Weise, wie Arbeitgeber Talente rekrutieren und bewerten. Während diese Tools Effizienz und Kosteneinsparungen versprechen, bringen sie auch erhebliche...

KI im australischen Kabinett: Chancen und Sicherheitsbedenken

Die australische Regierung könnte in Betracht ziehen, KI-Programme zur Erstellung sensibler Kabinettsanträge zu nutzen, trotz Bedenken hinsichtlich Sicherheitsrisiken und Datenverletzungen...