Microsofts Wissenschaftschef kritisiert Trumps AI-Regulationsverbot

Microsofts Wissenschaftschef kritisiert Trumps Vorschlag zur Verbot von staatlicher KI-Governance

Der Wissenschaftschef von Microsoft hat sich gegen Donald Trumps Plan ausgesprochen, staatliche Vorschriften für künstliche Intelligenz (KI) zu verbieten. Er argumentiert, dass solche Einschränkungen die Entwicklung von KI tatsächlich verlangsamen könnten, anstatt sie zu beschleunigen.

Die Position von Dr. Eric Horvitz

Dr. Eric Horvitz, der zuvor als Technologieberater für Joe Biden tätig war, glaubt, dass ein Verbot von Vorschriften uns „zurückhalten“ könnte und gegen echte Fortschritte bei der Weiterentwicklung der KI-Wissenschaft sowie deren praktischer Anwendung arbeiten könnte.

Seine Kommentare kommen zu einem Zeitpunkt, an dem die Trump-Administration einen umfassenden 10-jährigen Bann vorschlägt, der es den US-Bundesstaaten verbieten würde, Gesetze zu erlassen, die KI-Modelle, KI-Systeme oder automatisierte Entscheidungswerkzeuge einschränken oder regulieren.

Der Hintergrund des Vorschlags

Der vorgeschlagene Bann ist das Ergebnis von Bedenken im Weißen Haus, dass China im Wettlauf um die Entwicklung von menschenähnlicher KI gewinnen könnte. Tech-Investoren wie Andreessen Horowitz, ein früher Unterstützer von Facebook, setzen sich ebenfalls für diese Maßnahme ein.

Sie argumentieren, dass Verbraucheranwendungen reguliert werden sollten, anstatt Forschungsanstrengungen. Marc Andreessen, Mitbegründer der Firma und Trump-Spender, beschrieb die Situation kürzlich als ein „Zweipferderennen um die KI-Hoheit“ zwischen den USA und China.

JD Vance vs. Microsoft: Ein Konflikt über die Zukunft der KI

Vizepräsident JD Vance unterstrich diese Bedenken und warnte, dass die USA, wenn sie die KI-Entwicklung pausieren, während China unvermindert weitermacht, sich „in die Knechtschaft von china-gesteuerter KI“ begeben könnten.

Horvitz sieht die Dinge jedoch anders. Er ist bereits besorgt über die Verwendung von KI zur Verbreitung von Fehlinformationen und unangemessener Beeinflussung sowie über deren potenzielle Verwendung in böswilligen Aktivitäten, insbesondere im Bereich biologischer Gefahren.

Die Notwendigkeit von Regulierung

Bei einem Treffen der Association for the Advancement of Artificial Intelligence betonte er, dass Wissenschaftler mit Regierungsbehörden kommunizieren müssen, um zu erklären, warum eine vollständige Vermeidung von Vorschriften kontraproduktiv wäre.

„Leitlinien, Vorschriften… Zuverlässigkeitskontrollen sind Teil der Weiterentwicklung des Fachgebiets und tragen in vielerlei Hinsicht dazu bei, das Feld schneller voranzubringen“, erklärte Horvitz.

Seine Position schafft einen interessanten Widerspruch, da Berichten zufolge Microsoft tatsächlich Teil einer Lobbyarbeit im Silicon Valley ist, zusammen mit Google, Meta und Amazon, um Trumps Verbot der staatlichen Regulierung zu unterstützen.

Das Lobbying und die Bedenken über unregulierte KI-Entwicklung

Laut dem Financial Times beteiligt sich Microsoft an einem Lobbying-Vorstoß, der den US-Senat auffordert, das Jahrzehnt dauernde Moratorium für staatliche KI-Gesetzgebung zu genehmigen. Dieses Verbot ist Bestandteil von Trumps Haushaltsgesetz, das bis zum Unabhängigkeitstag am 4. Juli verabschiedet werden soll.

Die Debatte spiegelt die wachsenden Bedenken über die unregulierte Entwicklung von KI und deren potenziellen katastrophalen Risiken für die Menschheit wider. Einige Kritiker befürchten, dass Unternehmen kurzfristige Gewinne über Sicherheitsüberlegungen priorisieren.

Die Zukunft der KI-Regulierung

Stuart Russell, ein Informatikprofessor an der UC Berkeley, der ebenfalls auf dem Seminar sprach, stellte sogar noch alarmierendere Fragen. „Warum sollten wir absichtlich die Freisetzung einer Technologie zulassen, für die selbst ihre Schöpfer eine 10 % bis 30 % Chance auf menschliche Ausrottung angeben?“ fragte er. „Wir würden niemals ein solches Risiko für irgendeine andere Technologie akzeptieren.“

Die Einsätze in dieser Debatte sind enorm. Microsoft hat 14 Milliarden Dollar in OpenAI investiert, das Unternehmen hinter ChatGPT. Der CEO von OpenAI, Sam Altman, hat kürzlich gewagte Vorhersagen über die Zukunft gemacht und angedeutet, dass wir innerhalb von fünf bis zehn Jahren „große humanoide Roboter“ auf den Straßen sehen werden, die verschiedene Aufgaben übernehmen.

Die Vorhersagen darüber, wann wir künstliche allgemeine Intelligenz (AGI) erreichen werden – KI, die menschliche Intelligenz erreicht – variieren dramatisch. Während der Chefwissenschaftler von Meta, Yann LeCun, vorschlägt, dass AGI Jahrzehnte entfernt sein könnte, hat sein Chef Mark Zuckerberg gerade eine Investition von 15 Milliarden Dollar angekündigt, um „Superintelligenz“ zu erreichen.

Der Zeitpunkt dieser Debatte ist entscheidend, da der Kongress über Trumps Haushaltsgesetz nachdenkt. Das Ergebnis könnte darüber entscheiden, ob einzelne Bundesstaaten die Fähigkeit behalten, die KI-Entwicklung innerhalb ihrer Grenzen zu regulieren, oder ob solche Entscheidungen im nächsten Jahrzehnt ausschließlich auf Bundesebene getroffen werden.

Microsoft lehnte es ab, zu dem offensichtlichen Widerspruch zwischen der öffentlichen Position ihres Wissenschaftschefs und ihren berichteten Lobbybemühungen Stellung zu nehmen, was Fragen über die wahre Haltung des Unternehmens zur KI-Regulierung offenlässt.

More Insights

EU AI-Gesetz und Australiens Sicherheitsrahmen: Ein globaler Überblick

Laut dem DJ Piper Technology’s Legal Edge-Blog müssen globale Unternehmen, die künstliche Intelligenz einsetzen, die internationalen KI-Vorschriften verstehen. Die Europäische Union und Australien...

Quebecs KI-Politik für Hochschulen und Cégeps

Die Regierung von Quebec hat eine neue KI-Richtlinie für Universitäten und CÉGEPs veröffentlicht, um die Nutzung von generativer KI im Hochschulbereich zu regeln. Die Richtlinien betonen die...

Deutschland setzt AI Act um: Neue Regelungen für KI-Compliance

Die bestehenden Regulierungsbehörden werden die Verantwortung für die Überwachung der Einhaltung des EU-AI-Gesetzes durch deutsche Unternehmen übernehmen, wobei der Bundesnetzagentur (BNetzA) eine...

Weltführer und KI-Pioniere fordern verbindliche globale AI-Schutzmaßnahmen bis 2026

Weltführer und KI-Pioniere fordern die UN auf, bis 2026 verbindliche globale Sicherheitsvorkehrungen für KI zu schaffen. Diese Initiative zielt darauf ab, die Risiken und Herausforderungen, die mit...

Künstliche Intelligenz im Zeitalter des Zero Trust: Governance neu denken

Im Jahr 2025 sehen wir, wie KI von einem bloßen Schlagwort zu einer praktischen Anwendung in verschiedenen Bereichen wird. Effektive Governance in einer Zero-Trust-Wirtschaft ist entscheidend, um...

Neue AI-Strategie: Technisches Sekretariat statt Regulator

Der bevorstehende Governance-Rahmen für künstliche Intelligenz könnte ein "technisches Sekretariat" umfassen, das die KI-Politik zwischen den Regierungsbehörden koordiniert. Dies stellt einen Wechsel...

KI-Sicherheit als Motor für Innovation in Schwellenländern

Die Diskussion über KI-Sicherheit und -Schutz wird oft als Hindernis für Innovationen wahrgenommen, insbesondere in Ländern der Global Majority. Die bevorstehende AI Impact Summit in Indien im Februar...

AI-Governance in ASEAN: Auf dem Weg zu einem einheitlichen Ansatz?

Wenn es um KI geht, legisliert Europa, während Amerika auf marktorientierte Innovation setzt und China zentral steuert. ASEAN hingegen setzt auf einen konsensorientierten Ansatz, der eine freiwillige...