LexisNexis Zukunftsbericht zur Arbeit 2026: Generative KI – Werkzeug, Kollege oder Haftung?
Der Bericht zeigt, dass generative KI (genAI) die Arbeitsabläufe in Unternehmen schnell transformiert und von Experimenten zu einer täglichen Nutzung übergeht. Eine globale Studie unter 1.400 Fachleuten aus über 20 Branchen hat ergeben, dass mit der beschleunigten Akzeptanz von genAI die Richtlinien und Aufsicht nicht Schritt halten, was einen wachsenden Bedarf an unternehmensgerechten Kontrollen zur Unterstützung eines nachhaltigen, verantwortungsvollen Wachstums schafft.
Schnelle Akzeptanz schafft neue Anforderungen an die Governance
Die formale Aufsicht bleibt inkonsistent, während genAI von Experimenten zur routinemäßigen Nutzung übergeht:
- 53 % der Fachleute berichten, dass sie genAI ohne formelle Genehmigung nutzen.
- 28 % geben an, dass ihre Organisation keine formelle genAI-Richtlinie hat.
- 55 % bezahlen persönlich für genAI-Tools, wobei 60 % von diesen sie für die Arbeit nutzen.
- 19 % haben keine Schulung in Bezug auf KI erhalten.
Diese Trends deuten darauf hin, dass KI innerhalb von Organisationen schneller vorankommt als die Unternehmenskontrollen eingerichtet werden.
Wachsende Zuversicht bei der Ausrichtung der Aufsicht
Der Bericht hebt eine wachsende Kluft zwischen den Vertrauensniveaus der Nutzer und der Reife der organisatorischen Aufsicht hervor:
- 64 % der Fachleute geben an, sehr oder extrem zuversichtlich im verantwortungsvollen Umgang mit genAI zu sein.
- 74 % derjenigen, die eine verpflichtende KI-Schulung erhalten haben, berichten weiterhin von unbefugter Nutzung von genAI.
- 51 % der Organisationen haben interne KI-Agenten eingeführt.
- Nur 44 % der Mitarbeiter verstehen klar, was diese KI-Agenten sind oder wie sie funktionieren.
Mit der zunehmenden Autonomie von genAI-Systemen wird sich der Fokus der Führung von Fähigkeiten auf Verantwortlichkeit und die Frage verschieben, ob angemessene Leitplanken vorhanden sind.
Menschliche Aufsicht bleibt unerlässlich
Trotz der wachsenden Autonomie der KI-Systeme betonen Fachleute weiterhin die Bedeutung der menschlichen Validierung:
- 65 % der Fachleute sagen, dass menschliche Validierung sehr oder extrem wichtig ist.
- 56 % glauben, dass Menschen in jeder Phase beteiligt sein sollten.
- Nur 9 % unterstützen eine minimale menschliche Aufsicht.
Die Daten unterstreichen, dass die Effektivität von KI von einer strukturierten Validierung, risikobasierten Aufsicht und klaren Richtlinienrahmen abhängt.
Ein praktischer Fahrplan für Führungskräfte
Um Organisationen zu helfen, den frühen Schwung in nachhaltigen Wert umzuwandeln, skizziert der Bericht zehn sofortige Maßnahmen, die Führungskräfte ergreifen können, um die Aufsicht zu stärken und Risiken zu reduzieren:
- Einrichtung von funktionsübergreifenden KI-Governance-Räten.
- Durchführung unternehmensweiter Audits zur Nutzung von KI.
- Veröffentlichung klarer und durchsetzbarer KI-Richtlinien.
- Bereitstellung sicherer, unternehmensgerechter KI-Tools.
- Implementierung risikobasierter Validierungsprotokolle.
Die Forschung identifiziert auch fünf integrierte Elemente, die für die verantwortungsvolle Einführung von KI in Unternehmen erforderlich sind: umfassende Schulungen, klare Richtlinien, geprüfte Tools, Validierungsprozesse und fortlaufende Unterstützung.
Während genAI weiterhin die Art und Weise verändert, wie Arbeit erledigt wird, werden Organisationen, die Innovation mit vertrauenswürdigen Daten, strukturierten Arbeitsabläufen und klaren Governance-Mechanismen in Einklang bringen, am besten positioniert sein, um Expertise zu skalieren, die Produktivität zu steigern und nachhaltige Renditen zu erzielen.