DeepSeek passt seine KI für Italien nach Halluzinationsuntersuchung an
Ein chinesisches Unternehmen für künstliche Intelligenz hat angekündigt, seine erste ausschließlich nationale Version seines Chatbots zu starten, die speziell auf die Bedürfnisse Italiens zugeschnitten ist, vorausgesetzt, es erfüllt die regulatorischen Vorgaben.
Regulierung und Herausforderungen
Die italienische Aufsichtsbehörde AGCM wird strenger in der Regulierung von Künstlicher Intelligenz, um Halluzinationen zu beseitigen. Italien gehört zu den strengsten Ländern der EU in Bezug auf KI-Regulierung, wie die regelmäßigen Untersuchungen von Unternehmen verdeutlichen, die oft zu Geldstrafen führen.
Probleme mit Halluzinationen
Die AGCM hat anerkannt, dass das Phänomen der Halluzinationen bei KI-Modellen eine globale Herausforderung darstellt, die nicht vollständig beseitigt werden kann. Das Unternehmen hat sich verpflichtet, Halluzinationen zu reduzieren, was von den Regulierungsbehörden als lobenswert erachtet wird. Es bleibt jedoch unklar, wie dies gemessen werden wird.
Verpflichtungen und Maßnahmen
DeepSeek wird einen Bericht an die AGCM einreichen, um seine Verpflichtungen festzulegen. Bei Nichteinhaltung könnte eine Geldstrafe von 10 Millionen Euro verhängt werden. Ein Sprecher eines Partnerunternehmens bemerkte, dass die Änderungen an der Benutzeroberfläche und den Geschäftsbedingungen relativ einfach zu implementieren seien, während technische Verbesserungen schwerer zu garantieren sind.
Ausblick
Die AGCM hat betont, dass DeepSeek die Risiken von Halluzinationen transparenter und verständlicher kommunizieren muss. Diese Verpflichtungen könnten einen möglichen Weg zurück nach Italien markieren, nachdem der Chatbot des Unternehmens im Januar des letzten Jahres aus den App-Stores entfernt wurde. Eine Rückkehr hängt davon ab, ob die Regulierungsbehörden mit den Transparenzmaßnahmen zufrieden sind.
Die Klassifizierung des Dienstes als Suchmaschine im Rahmen des Digital Services Act der EU wird ebenfalls eine entscheidende Rolle spielen.