U.K. Lacks the Ability to Respond to AI Disasters, Report Warns
Ein neuer Bericht eines in London ansässigen Think Tanks warnt, dass die britische Regierung nicht über die erforderlichen Notfallbefugnisse verfügt, um auf KI-gesteuerte Katastrophen zu reagieren. Angesichts der fortschreitenden Fähigkeiten von Künstlicher Intelligenz wird ein großes KI-gestütztes Unglück immer wahrscheinlicher.
Vorbereitung auf eine KI-Notlage
Der Bericht, der exklusiv mit TIME geteilt wurde, argumentiert, dass das Vereinigte Königreich seinen Beamten neue Befugnisse einräumen muss. Dazu gehört die Möglichkeit, Technologieunternehmen zur Offenlegung von Informationen zu zwingen und im Notfall den öffentlichen Zugang zu ihren KI-Modellen einzuschränken. Es wird betont, dass sich das Modell für KI-Gesetzgebung nicht nur in Großbritannien, sondern auch in anderen Teilen der Welt verbreiten könnte, wo die Zuständigkeit über KI-Unternehmen begrenzt ist.
Mangel an Handlungsspielräumen
Tommy Shaffer Shane, der Direktor für KI-Politik des CLTR und Autor des Berichts, erklärt: „Es ist nicht unbedingt der beste Ansatz, sich auf 20 oder 50 Jahre alte Gesetzgebung zu verlassen, die nie für diese Art von Technologie gedacht war.“ Sollte etwas wirklich schiefgehen, wird die Regierung nach Handlungsoptionen suchen, die möglicherweise nicht mehr wirksam sind.
Die Vorschläge
Der Bericht enthält 34 Vorschläge, die das CLTR in das lang erwartete KI-Gesetz der Regierung aufgenommen sehen möchte. Diese umfassen unter anderem:
- Die Regierung in die Lage zu versetzen, Technologieunternehmen zur Offenlegung von Informationen zu zwingen.
- Die Verpflichtung für KI-Unternehmen, schwerwiegende Sicherheitsvorfälle der KI der Regierung zu melden.
- Regelmäßige Übungen zur Notfallbereitschaft durchzuführen.
Ein neuer Ansatz zur KI-Regulierung
Wenn die britische Regierung diese Vorschläge annimmt, würde dies einen anderen Ansatz zur KI-Regulierung signalisieren als beispielsweise die Europäische Union, deren umfangreicher KI-Gesetzentwurf auf die Regulierung einzelner KI-Modelle abzielt. Diese EU-Gesetze haben in Silicon Valley und Washington bereits Kritik auf sich gezogen, weil sie als innovationshemmend wahrgenommen werden.
Die Herausforderung
Wie kann Großbritannien KI regulieren, während es gleichzeitig den Zugang zu den wirtschaftlichen Wachstumschancen, die KI verspricht, nicht verliert? Die Antwort des CLTR lautet: Regulieren Sie nicht die Modelle selbst, sondern bereiten Sie sich auf die nachgelagerten Konsequenzen vor. Shaffer Shane sagt: „Wir sprechen über Notfallvorbereitung und akzeptieren, dass wir nicht die gewünschten Interventionen haben werden.“
Beispiel für KI in Aktion
Ein 60-jähriger Mann suchte Rat bei ChatGPT, um herauszufinden, was er als Ersatz für Speisesalz verwenden sollte, um seine Ernährung zu verbessern. ChatGPT empfahl ihm, es durch Bromid zu ersetzen, was zu gesundheitlichen Problemen führte. Dieser Fall verdeutlicht, wie die Nutzung von Künstlicher Intelligenz potenziell zu vermeidbaren negativen gesundheitlichen Folgen beitragen kann.