Tag: 26. März 2025

Kernmetriken für verantwortungsbewusste KI

Die rasante Entwicklung von großen Sprachmodellen (LLMs) wie GPT, LLaMA und Gemini hat die Landschaft der künstlichen Intelligenz grundlegend verändert. Um sicherzustellen, dass diese Modelle zuverlässig und ethisch sind, sind umfassende Benchmarks und präzise Bewertungsmetriken erforderlich.

Read More »

MEPs warnen vor Verwässerung der KI-Risiko-Regelungen

Eine Gruppe von Abgeordneten des Europäischen Parlaments äußert große Besorgnis über die Pläne der Europäischen Kommission, den Verhaltenskodex für die Nutzung von KI zu lockern. Sie warnen, dass dies die Grundrechte und die Demokratie gefährden könnte, da Technologieunternehmen nicht mehr verpflichtet wären, ihre Systeme auf diskriminierende Inhalte zu testen.

Read More »

Texas und Virginia: Ein Schritt in die richtige Richtung für KI-Regulierung

Neue Entwicklungen in Virginia und Texas deuten darauf hin, dass sich die Debatte über die Politik der künstlichen Intelligenz (KI) in eine positivere, innovationsfreundliche Richtung entwickeln könnte. Der Gouverneur von Virginia, Glenn Youngkin, hat ein wichtiges KI-Regulierungsgesetz vetoiert, das die Fähigkeit des Bundesstaates, ein führender Innovator im digitalen Bereich zu bleiben, gefährdet hätte.

Read More »

Chatbot- Täuschung: Wie KI Vertrauen ausnutzt und Autonomie untergräbt

Da sich große Sprachmodell-Chatbots weiterentwickeln, um menschliche Eigenschaften nachzuahmen—wie Gesichter, Namen und Persönlichkeiten—werfen sie erhebliche ethische Bedenken auf. Diese Forschung untersucht das Potenzial für Manipulation, das in diesen KI-Technologien innewohnt, und hebt die Gefahren hervor, digitale „Spiegel“ zu schaffen, die:

Read More »