Kategorie: KI-Konformität

Die Rolle der Standardisierung im Umgang mit KI-Risiken

Die Rolle der Standardisierung ist entscheidend, um die Risiken von KI zu managen, während Unternehmen gleichzeitig Innovation und Agilität aufrechterhalten müssen. Eine standardisierte Herangehensweise, wie die ISO/IEC 42001:2023, bietet Organisationen eine strukturierte Methode zur Risikomanagement im Bereich der Künstlichen Intelligenz.

Read More »

Maximale Werte aus KI schöpfen

Die Gesellschaft wird durch künstliche Intelligenz (KI) transformiert, und es ist wichtig, zu fragen, was wir tun müssen, um ihren Wert zu maximieren und gleichzeitig Risiken zu minimieren. Drei Schlüsselfaktoren müssen zusammenkommen, damit KI sicher gedeihen kann: Infrastruktur, Ökosystem und Governance.

Read More »

Neue Zertifizierung für KI-Audit von ISACA

ISACA hat die Advanced in AI Audit (AAIA) Zertifizierung eingeführt, eine wegweisende Qualifikation für Prüfer, um die Herausforderungen und Chancen zu bewältigen, die AI im Bereich der Prüfung mit sich bringt. Diese Zertifizierung richtet sich an erfahrene Prüfer, die sich in einer sich wandelnden Technologie- und Compliance-Landschaft zurechtfinden müssen.

Read More »

Künstliche Intelligenz im Hochschulwesen: Governance, Risiko und Compliance

Künstliche Intelligenz (KI) revolutioniert die Hochschulbildung, indem sie erhebliche Veränderungen in den Bereichen Zulassung, Forschung, akademische Integrität und Unterstützung der Studierenden mit sich bringt. Um den verantwortungsvollen und ethischen Einsatz von KI zu gewährleisten, müssen Hochschulen ein umfassendes Rahmenwerk für Governance, Risiko und Compliance (AI GRC) implementieren.

Read More »

Risiken der KI im Compliance-Bereich

Das schnelle Wachstum der künstlichen Intelligenz (KI), insbesondere der generativen KI (GenAI) und Chatbots, bietet Unternehmen zahlreiche Möglichkeiten zur Verbesserung ihrer Arbeitsweise. Gleichzeitig bringt GenAI jedoch auch Probleme mit sich, die von Sicherheitslücken und Datenschutzbedenken bis hin zu Fragen der Verzerrung und Genauigkeit reichen.

Read More »

Kroatien bereitet sich auf das AI-Gesetz vor: Risiken für Menschenrechte und notwendige Schutzmaßnahmen

EDRi-Mitglied Politiscope veranstaltete kürzlich eine Veranstaltung in Kroatien, um die Auswirkungen von Künstlicher Intelligenz (KI) auf die Menschenrechte zu erörtern. Die Veranstaltung zielte darauf ab, das Bewusstsein für KI-bedingte Schäden zu schärfen und zukünftige politische Maßnahmen zu beeinflussen, um Schutzmaßnahmen für die Rechte der Menschen zu integrieren.

Read More »

Datenherkunft als Schlüssel zur KI-Governance für CISOs

Künstliche Intelligenz hat schleichend in zentrale Funktionen des Unternehmens Einzug gehalten, und viele dieser Funktionen basieren auf großen Sprachmodellen (LLMs). Die Annahme der Sicherheit der Modelle ist jedoch gefährlich, da die Herkunft der Daten oft nicht nachvollzogen werden kann, was in regulierten Bereichen zu einer Governance-Krise führt.

Read More »

Chinas Weg zur offenen KI-Governance

Chinas schnelle Fortschritte im Bereich der künstlichen Intelligenz (KI) werden zunehmend durch eine starke Betonung der Open-Source-Zusammenarbeit vorangetrieben. Dies ermöglicht es Unternehmen, KI-Modelle zu entwickeln und zu skalieren, die weniger von westlichen Lieferketten abhängig sind.

Read More »

Ethik in der Automatisierung: Bias und Compliance im KI-Zeitalter

Die Nutzung automatisierter Systeme wirft zunehmend ethische Bedenken auf, da Algorithmen Entscheidungen beeinflussen, die zuvor von Menschen getroffen wurden. Verzerrte Systeme können reale Konsequenzen für Menschen haben, einschließlich Ungerechtigkeiten bei Krediten, Arbeitsplätzen und Gesundheitsversorgung.

Read More »