Verwaltung der KI-Governance im Gesundheitswesen: Was Aufsichtsräte wissen müssen
Künstliche Intelligenz (KI) hat sich schnell von Pilotprojekten in zentrale klinische und administrative Arbeitsabläufe in US-Krankenhäusern verwandelt und verändert, wie die Versorgung bereitgestellt, dokumentiert und verwaltet wird. Das Tempo der Einführung übersteigt die Geschwindigkeit der Aufsicht, und Bundesbehörden, staatliche Gesetzgeber und Vollzugsbehörden reagieren gleichzeitig. KI entwickelt sich rasant weiter. Für Aufsichtsräte im Gesundheitswesen erfordert es mehr als nur Kenntnisse, mit diesen Entwicklungen Schritt zu halten. Governance und Aufsicht müssen sich parallel zur Technologie weiterentwickeln. Die entscheidende Frage ist, ob Ihr Aufsichtsrat aktiv KI verwaltet oder lediglich die Folgen im Nachhinein behandelt.
Der regulatorische Rahmen: Was Führungskräfte im Gesundheitswesen wissen müssen
Aufsichtsräte im Gesundheitswesen müssen sich der bedeutenden und beschleunigten Aktivitäten auf Bundesebene bewusst sein, die alle parallel ablaufen und die Anforderungen an die KI-Governance im Gesundheitswesen kollektiv erhöhen. Auf Bundesebene hat das Weiße Haus die Behörden angewiesen, die Einführung von KI zu beschleunigen und gleichzeitig Governance-Schutzmaßnahmen zu schaffen. Das US-Gesundheitsministerium harmonisiert seine Betriebseinheiten rund um gemeinsame Standards und schafft Kanäle, damit Anbieter an der Umsetzung teilnehmen können. Die Zentren für Medicare & Medicaid Services (CMS) haben bereits KI in die vorherige Genehmigung, Programmintegrität, Zahlungsmodelle und Analysen integriert, während das Büro für Bürgerrechte (OCR) klar gemacht hat, dass automatisierte Systeme die Verpflichtungen in Bezug auf Datenschutz oder Bürgerrechte nicht mindern und diskriminierende Auswirkungen in bundesfinanzierten Programmen verhindert werden müssen.
Die Bundesstaaten bewegen sich mit gleicher Dringlichkeit, um umfassende und sektorspezifische KI-Gesetze voranzutreiben, einschließlich Gesetzen, die automatisierte Entscheidungsfindung im Utilization Management einschränken oder daran knüpfen. Diese Maßnahmen gehen in einigen Fällen über bestehende Bundesanforderungen hinaus und können in anderen damit in Konflikt stehen, was eine sorgfältige Präemption-Analyse und koordinierte Umsetzung erfordert.
Treuepflichten im Zeitalter der KI
KI schafft keine neuen Treuepflichten für Mitglieder des Aufsichtsrats von Gesundheitssystemen. Sie erhöht jedoch die Anforderungen an die Erfüllung der bestehenden Pflichten.
Pflicht zur Sorgfalt: Aufsichtsratsmitglieder werden erwartet, mit der Sorgfalt und dem Fleiß zu handeln, die eine vernünftigerweise umsichtige Person bei wichtigen Entscheidungen verwenden würde. Im Kontext der KI bedeutet dies, dass Aufsichtsräte KI nicht als rein technologische oder Management-Angelegenheit behandeln können. Wenn eine Organisation KI-Tools einsetzt, die die Patientenversorgung, Abrechnung oder den Betrieb betreffen, wird von den Aufsichtsratsmitgliedern erwartet, dass sie die wesentlichen Risiken verstehen und informierte Fragen dazu stellen, wie diese Risiken verwaltet werden. Dies erfordert nicht, dass Aufsichtsratsmitglieder KI-Experten werden; es erfordert, auf klaren und bedeutungsvollen Berichten zu bestehen und nachzufragen, wenn Antworten unvollständig sind.
Die Caremark-Doktrin legt fest, dass Direktoren persönliche Haftung für eine nachhaltige oder systematische Nichterfüllung der Implementierung und Überwachung angemessener Aufsichtssysteme tragen können. Gerichte haben diesen Standard zunehmend auf technologiebezogene Versäumnisse angewendet, und KI ist der nächste logische Schritt. Delaware-Gerichte haben gezeigt, dass sie eher bereit sind, Caremark-Klagen zuzulassen, wenn Aufsichtsräte angeblich Warnsignale ignoriert haben.
Pflicht zur Loyalität: Die Beschaffung von KI wird zu einer erheblichen organisatorischen Investition, und die Lieferantenlandschaft ist komplex und entwickelt sich ständig weiter. Direktoren mit finanziellen Verbindungen zu KI-Anbietern oder deren verbundenen Unternehmen müssen Interessenkonflikte offenlegen und verwalten. Gerichte haben signalisiert, dass bewusste Missachtung bekannter Risiken die Pflicht zur Loyalität in Frage stellen kann. Während KI zunehmend zentral für den Betrieb wird, sollten Aufsichtsräte sicherstellen, dass die Richtlinien zu Interessenkonflikten aktuell sind und konsequent angewendet werden.
Pflicht zur Gehorsamkeit: Für gemeinnützige Gesundheitssysteme erfordert die Pflicht zur Gehorsamkeit, dass die Organisation ihrer wohltätigen Mission treu bleibt. KI-Einsätze, die unterschiedliche Auswirkungen auf gefährdete Bevölkerungsgruppen haben, die die Privatsphäre der Patienten gefährden oder bestimmte Gruppen systematisch benachteiligen, könnten die Verpflichtungen gegenüber der Mission, den Status der Steuerbefreiung und die Einhaltung der bundesstaatlichen Bürgerrechtsgesetze gefährden. Da KI in den Kern des Betriebs von Gesundheitssystemen vordringt, einschließlich der Datenmonetarisierung, algorithmischer Ressourcenallokation und automatisierter Ablehnungen von Pflegeleistungen, ist mit einer erhöhten Prüfung durch Regulierungsbehörden und Gemeinschaften zu rechnen.
Eine praktische Anmerkung zur Haftung
Die Regel des geschäftlichen Urteils schützt in der Regel Direktoren, die informierte, gut gemeinte Entscheidungen treffen, die sie vernünftigerweise für im besten Interesse der Organisation halten. Das Risiko liegt nicht in fehlerhaften Entscheidungen, sondern in uninformierten. Umfassende Protokolle, regelmäßige Berichte über KI-Risiken und dokumentierte Ausschussüberwachungen sind die Bausteine einer glaubwürdigen Verteidigung.
Fragen, die jeder Aufsichtsrat im Gesundheitswesen heute stellen sollte
Rechenschaftspflicht: Wer ist für KI-Entscheidungen in der Organisation verantwortlich?
Die Einführung von KI übertrifft die Entwicklung von Governance-Rahmen im Gesundheitswesen und schafft eine sich entwickelnde Aufsichtsherausforderung. Aufsichtsräte sollten sicherstellen, dass das Management klare Verantwortlichkeiten für den gesamten KI-Lebenszyklus zugewiesen hat, einschließlich Genehmigung, Leistungsüberwachung und Deaktivierungsbefugnis. Ohne diese Klarheit kann KI unbemerkt in Arbeitsabläufe eindringen und die Patientensicherheit, Privatsphäre und Compliance gefährden.
Diese Sorge ist nicht theoretisch. Eine kürzlich durchgeführte Umfrage ergab, dass 40 Prozent der Gesundheitsakteure nicht genehmigte KI-Tools am Arbeitsplatz begegnet sind, und fast 20 Prozent berichteten, dass sie diese persönlich verwendeten. Von den Nutzern nicht genehmigter Tools taten fast die Hälfte dies, um Arbeitsabläufe zu beschleunigen, und ein Drittel gab an, entweder keine genehmigten Tools oder genehmigte Tools ohne die benötigte Funktionalität zu haben.
Die gleiche Umfrage ergab eine erhebliche Diskrepanz bei der Erstellung und Kommunikation von KI-Richtlinien: Fast ein Drittel der Administratoren berichteten von einer Beteiligung an der Entwicklung von KI-Richtlinien, während nur 9 Prozent der Anbieter und 21 Prozent der Anbieter unklar waren, ob Richtlinien überhaupt kommuniziert worden waren. Für Aufsichtsräte ist die Schlussfolgerung einfach: Governance funktioniert nur, wenn sie die Menschen erreicht, die sie regeln soll. Das bedeutet, sichere, genehmigte Tools bereitzustellen, Richtlinien dort zu kommunizieren, wo das Personal arbeitet, einschließlich innerhalb der elektronischen Gesundheitsakten, und in fortlaufende Schulungen zu investieren, die mit der sich ständig weiterentwickelnden Technologie Schritt halten.
Transparenz: Welche KI-Tools werden genutzt und wo?
KI-Funktionen sind oft unsichtbar in elektronische Gesundheitsakten, Abrechnungssysteme und Anbieteranwendungen eingebettet. Aufsichtsräte sollten vom Management verlangen, ein aktuelles Inventar der KI zu führen, hochriskante Systeme zu identifizieren und die KI-Integrationen der Anbieter zu verfolgen.
Kürzliche Rechtsstreitigkeiten verdeutlichen die Risiken. In einem Fall wurde die Klage in mehreren Punkten abgewiesen, aber es wurden Ansprüche wegen Vertragsbruchs und verwandten Theorien zugelassen, die algorithmische Ablehnungen von Leistungen betrafen. Dieser Fall unterstreicht die Notwendigkeit der Transparenz in Bezug auf die Logik der Anbieter-KI, die Datennutzung, Modellaktualisierungen und menschliche Überprüfungen.
Kontrolle: Gibt es Sicherheitsmaßnahmen, bevor neue KI-Tools live geschaltet werden?
Die Einführung eines neuen KI-Tools in eine klinische oder betriebliche Umgebung birgt rechtliche, sicherheitstechnische und Compliance-Implikationen, die eine strukturierte Überprüfung vor der Einführung erfordern. Diese Überprüfung ist nicht mehr optional.