EU AI Gesetz – Regulierung des Unsichtbaren: Lernen, mit Künstlicher Intelligenz zu koexistieren
Die letzten zwei Jahre waren äußerst spannend; diese Zeit haben wir nicht nur damit verbracht, die Möglichkeiten der Künstlichen Intelligenz (KI) zu diskutieren, sondern auch die realen Gefahren zu adressieren und Wege zu identifizieren, um diese zu managen. Hat man zwei Jahre Zeit? Schwer zu sagen, aber meiner Meinung nach haben wir überraschend schnell auf diese Herausforderungen reagiert: Die EU war die erste weltweit, die ein risikobasiertes regulatorisches Gesetz für KI entwickelt hat. Das Gesetz über künstliche Intelligenz der Europäischen Union trat am 1. August 2024 in Kraft, und im Rahmen dieses Gesetzes trat die erste und wichtigste Regelung, die die Verwendung von Systemen mit inakzeptablen Risiken verbietet, am 2. Februar dieses Jahres in Kraft.
Es gab bereits frühere Versuche, KI zu kontrollieren. Die ethischen Richtlinien der EU für künstliche Intelligenz bestehen seit 2019. Diese Richtlinien sollten in erster Linie den Unternehmen, die KI-Technologien entwickeln, eine Richtung geben, um sicherzustellen, dass deren Entwicklung und Anwendung sicher, ethisch und zuverlässig bleibt. Anders gesagt, wir versuchten, einen ethischen Kodex für KI zu definieren. Es war ein richtiger Schritt, aber meiner Ansicht nach konzentrierte er sich nicht auf das Wesentliche, da er versuchte, die Technologie innerhalb ethischer und moralischer Grenzen zu beschränken. Das Wort „Ethik“ – ein griechisches Wort – bezieht sich auf angemessenes menschliches Verhalten in bestimmten Situationen, sodass wir versuchten, menschliche Eigenschaften der Technologie zuzuweisen – eine unmögliche Mission.
Es ist nicht die Ethik der KI, die überdacht werden muss, sondern unsere eigene menschliche Ethik und Moral, unter Berücksichtigung der Existenz von KI.
Die Mission des Gesetzes
Die Mission des Gesetzes besteht darin, das öffentliche Bewusstsein für künstliche Intelligenz zu schärfen und eine Art „digitale Bewusstheit“ zu fördern. Wir müssen uns immer der Risiken bewusst sein, die wir eingehen, wenn wir Dienste oder Produkte nutzen, die KI verwenden. Dieses Verständnis hilft uns, die Chancen und Risiken im Zusammenhang mit KI zu begreifen. Das Ziel ist nicht, die Technologie an unsere Bedürfnisse anzupassen, sondern Regeln zu schaffen, die eine bewusste und risikobasierte Nutzung fördern. Das Ziel ist es, die Gesellschaft vor den potenziellen Gefahren der KI zu schützen.
Wir sollten keine Angst vor KI haben – dies ist nicht Skynet – sondern vor den Menschen, die beabsichtigen, sie missbräuchlich zu verwenden.
Zukunftsgerichtete Regulierung
Das EU AI Gesetz reagiert nicht nur auf aktuelle Gegebenheiten, sondern bietet auch einen zukunftssicheren regulatorischen Rahmen, der sich an zukünftige technologische Entwicklungen anpassen kann. Sein primäres Ziel ist es, Vertrauen in KI aufzubauen und aufrechtzuerhalten, während Transparenz und Rechenschaftspflicht gewahrt bleiben.
In Zukunft werden KI-basierte Lösungen in vier Kategorien eingeteilt. Systeme mit inakzeptablen Risiken werden einfach verboten. Für die anderen drei Kategorien – hohe, begrenzte und minimale Risiken – müssen Maßnahmen proportional zum Risikoniveau angewandt werden. Diese umfassen die Gewährleistung von Transparenz (z.B. Erstellung von Betriebsberichten), die Aufrechterhaltung menschlicher Aufsicht (KI sollte keine Entscheidungen unabhängig treffen) und die Implementierung strengerer Testanforderungen für hochriskante Anwendungen. Bei minimalen Risikoklassifizierungen genügt es, die Nutzer darüber zu informieren, dass sie mit KI interagieren, und Inhalte, die von KI generiert wurden, müssen klar gekennzeichnet sein.
Diese Maßnahmen spiegeln in gewisser Weise die früheren ethischen Prinzipien wider, stellen aber sicher, dass die Nutzer stets das Risiko verstehen, das sie bei der Nutzung von KI eingehen.
Beispiel: Call Center Kundenservice
Stellen wir uns ein Call Center Kundenservice-System über die vier Risikostufen vor. Minimal-riskierte KI könnte ein KI-Assistent sein, der uns unterhält, während wir in der Warteschleife sind. Wenn KI dabei hilft, die Kundenservice-Prozesse zu optimieren oder über einen Chatbot mit Kunden zu interagieren, fällt dies in die Kategorie des begrenzten Risikos, was eine klare Offenlegung erfordert, dass der Kunde mit KI kommuniziert. Wenn das System automatisierte Entscheidungsfindung oder Emotionserkennung verwendet, wird es als hochriskant eingestuft, was strengere Protokolle erforderlich macht. Wenn KI für verdeckte Überwachung oder Manipulation eingesetzt wird, ist dies schlichtweg verboten (inakzeptables Risiko).
Regulierung weltweit
Jetzt beginnt die Diskussion über die Regulierung der KI-Nutzung interessant zu werden. Die Regulierung der KI-Nutzung innerhalb der EU ist lobenswert, aber was ist mit dem Rest der Welt? In Ländern wie China werden KI-Systeme, die die EU für inakzeptabel hält, auf staatlicher Ebene eingesetzt – beispielsweise das Sozialkreditsystem, das das Verhalten der Bürger mithilfe von Überwachungstechnologien, Finanztransaktionen und Aktivitäten in sozialen Medien überwacht.
Das EU AI Gesetz verbietet nicht nur soziale Bewertungen, sondern auch die biometrische Identifizierung in Echtzeit im öffentlichen Raum. Das bedeutet, dass beispielsweise, wenn wir ein Einkaufszentrum betreten, das System uns nicht identifizieren sollte. Die Erfassung allgemeiner Daten, wie Geschlecht, Alter oder Größe, ist zur Verbesserung von Dienstleistungen erlaubt, aber die Speicherung und Analyse persönlicher Daten ist streng reguliert und nur unter bestimmten Bedingungen oder vollständig verboten.
Manipulative Praktiken
Eine weitere verbotene Praxis ist die Verwendung von KI-Systemen, die kognitive Verhaltensweisen manipulieren. Wir haben alle Tricks wie „Letzter Artikel verfügbar!“ oder „Drei Personen sehen sich derzeit dieses Produkt an!“ gesehen. Diese Taktiken schaffen ein Gefühl der Dringlichkeit oder die Verwendung von Countdown-Timern, die uns psychologisch unter Druck setzen, um Käufe zu tätigen. Dies sind alles emotional gezielte Anzeigen, die darauf abzielen, psychologische Schwächen auszunutzen, um Entscheidungen zu beeinflussen.
Eine der besorgniserregendsten Praktiken, die von dem Gesetz als inakzeptabel angesehen wird, ist die Verwendung von versteckter Emotionserkennung in Arbeitsplätzen und Bildungseinrichtungen. Niemand möchte für ein Unternehmen arbeiten, bei dem Software während Videoanrufen ihre Emotionen analysiert, um Stress- oder Zufriedenheitsniveaus zu bewerten. Es war bereits unangenehm während COVID, als unsere Temperatur überwacht wurde; wir wollen sicherlich nicht, dass Unternehmen unser Engagement bewerten, unsere grundlegenden Rechte ignorieren und uns dazu drängen, ständig „positive“ Emotionen zu zeigen.
Fazit
In Zukunft könnten Menschen zwischen Ländern oder sogar Kontinenten ziehen, nicht wegen besserem Wetter oder höheren Lebensstandard, sondern einfach um invasive staatliche Überwachung ihres Privatlebens zu entkommen. Die EU wird in dieser Hinsicht ein sicherer Ort zum Leben sein. Unternehmen, die gegen das Gesetz verstoßen, könnten mit Geldstrafen von bis zu 35 Millionen Euro oder 7% ihres globalen Umsatzes des Vorjahres belegt werden, je nachdem, welcher Betrag höher ist. Ähnlich wie bei der DSGVO hat dies eine erhebliche abschreckende Wirkung. Aber vielleicht ist der größte Vorteil, dass es den Individuen die Möglichkeit gibt, zu entscheiden, wie viel Zugang und Einfluss KI in ihrem Leben haben sollte und wie tief sie ihre Gedanken mit KI-Technologien teilen.
Die Frage der Vertrauenswürdigkeit von KI
Die entscheidende Frage ist nicht, ob wir KI vertrauen können, sondern ob wir es uns leisten können, KI nicht zu vertrauen.
Wir müssen lernen, mit KI zu koexistieren. Das Bewusstsein für KI wird eine Fähigkeit sein, nicht nur für Unternehmen, sondern auch für Einzelpersonen. Die Sensibilität für KI kann mehrere Aspekte beinhalten, die über das Nutzerbewusstsein und -verständnis hinausgehen. Es könnte auch ethische Sensibilität beinhalten – die Sicherstellung einer verantwortungsbewussten Nutzung von KI, die mit unseren menschlichen ethischen Prinzipien in Einklang steht. Es könnte auch Umweltbewusstsein beinhalten – die Vermeidung der Schaffung unnötiger digitaler Abfälle trotz scheinbar unendlicher Ressourcen und das Bewusstsein für die Energieanforderungen von Rechenzentren, in denen die KI „lebt“. Schließlich ist soziale Sensibilität entscheidend, um die Auswirkungen von KI auf die Gesellschaft, den Arbeitsmarkt und verschiedene soziale Gruppen zu verstehen. Wir müssen auf die gesellschaftlichen Konsequenzen der KI vorbereitet sein, wie Arbeitsplatztransformationen und aufkommende soziale Fragen im Allgemeinen.
Eine Sache ist sicher: Wir treten in ein aufregendes neues Zeitalter ein. Vor zwei Jahren explodierten die ersten großen KI-Lösungen wie Geysire; seitdem sind viele weitere anspruchsvolle, multimodale KI-Systeme – die Text, Bild, Stimme und Video kombinieren – entstanden. Die kombinierte Wirkung dieser Innovationen wird bald wie ein Tsunami über die Welt hinwegfegen und wir müssen vorbereitet sein.