Superintelligente KI: Soll ihre Entwicklung gestoppt werden?
Die Frage, ob die Entwicklung von superintelligenter künstlicher Intelligenz (KI) gestoppt werden sollte, wird am 29. Januar 2026 im House of Lords zur Debatte gestellt. Lord Hunt von Kings Heath wird die Regierung fragen, welche Pläne sie hat, um Vorschläge für ein internationales Moratorium zur Entwicklung superintelligenter KI vorzulegen.
1. Definitionen und Ebenen der KI
KI kann als die Fähigkeit von Computersystemen definiert werden, Aufgaben zu übernehmen, die normalerweise menschliche Intelligenz erfordern. KI birgt sowohl Vorteile als auch Risiken, darunter Datenschutzprobleme, Voreingenommenheiten, Fehlinformationen und Cybersicherheit.
Innerhalb dieser Definition gibt es verschiedene Arten von KI:
- Schwache KI ist darauf ausgelegt, spezifische Aufgaben zu erfüllen, während
- starke KI oder Allgemeine KI (AGI) die Fähigkeit hat, jegliche intellektuelle Aufgabe zu übernehmen, die ein Mensch bewältigen kann.
- Maschinelles Lernen ist eine Methode zur Erreichung schwacher KI, die es einem System ermöglicht, aus Beispielen zu lernen und sich zu verbessern.
- Tiefes Lernen ist eine spezielle Form des maschinellen Lernens, die auf der Funktionsweise des menschlichen Gehirns basiert und in großen Sprachmodellen (LLMs) wie ChatGPT Anwendung findet.
2. Superintelligente künstliche Intelligenz (ASI)
Der Begriff der künstlichen Superintelligenz (ASI) beschreibt ein hypothetisches KI-System mit einer intellektuellen Bandbreite, die über die menschliche Intelligenz hinausgeht. ASI könnte transformative Auswirkungen auf die Welt haben, indem sie in der Lage wäre, komplexe Probleme in Bereichen wie Gesundheitswesen, Finanzwesen und wissenschaftlicher Forschung zu lösen.
Die Entwicklung von ASI könnte jedoch auch erhebliche Risiken mit sich bringen, darunter die Möglichkeit, dass diese Technologie gegen die Menschheit gerichtet sein könnte.
3. Regulierung und Aufrufe zu einem Moratorium
Die potenziellen Vorteile und Gefahren der KI haben zu Forderungen geführt, die Entwicklung von KI zu pausieren und eine striktere Regulierung einzuführen. Ein offener Brief von über 1.000 KI-Experten forderte eine sofortige Pause bei der Entwicklung von „großen“ KI-Systemen, um die Fähigkeiten und Gefahren solcher Systeme zu untersuchen.
In Großbritannien hat eine Non-Profit-Organisation, die sich für die Reduzierung der Risiken von KI einsetzt, eine Kampagne für strengere Vorschriften zur Entwicklung von KI unterstützt. Die Argumentation besagt, dass die Entwicklung superintelligenter KI-Systeme die nationale und globale Sicherheit gefährden könnte.
4. Regierungspolitik zur KI und ASI
Die britische Regierung hat derzeit keine spezifischen Vorschriften für KI. Stattdessen werden KI-Systeme im Kontext ihrer Anwendung reguliert. Ein neues Institut zur Sicherheit von KI wurde eingerichtet, um Sicherheitsbedenken in Bezug auf KI-Systeme zu identifizieren und zu testen.
5. Fazit
Die Entwicklung superintelligenter KI könnte tiefgreifende Auswirkungen auf die Gesellschaft haben, sowohl positiv als auch negativ. Daher ist eine sorgfältige Abwägung der Risiken und Vorteile sowie eine angemessene Regulierung erforderlich, um die Sicherheit der Gesellschaft zu gewährleisten.