Microsoft hat ein neues KI-Korrekturtool, das versucht zu verhindern, dass KI-Modelle sachlich falsche Inhalte generieren. Einfach ausgedrückt setzt Microsoft KI ein, um zu verhindern oder einzuschränken, dass eine andere KI Müll ausspuckt, ein Phänomen, das allgemein als KI-Halluzinationen bekannt ist.
Die „Korrektur“-Funktion von Microsoft versucht, KI-Halluzinationen zu bekämpfen
Generative Künstliche Intelligenz (Gen AI) hat eine phänomenale Akzeptanz erfahren. Allerdings generieren nicht wenige dieser Gen-KI-Chatbots oft selbstbewusst Inhalte, die nicht korrekt sind.
Microsoft versucht mit seiner neuen Funktion „Korrektur“ gegen KI-Halluzinationen vorzugehen. Es basiert auf der bestehenden „Groundedness Detection“ von Microsoft. Das neue KI-Korrekturtool stellt im Wesentlichen einen Querverweis zwischen KI-generiertem Text und einem vom Benutzer eingegebenen unterstützenden Dokument her.
Microsoft wird das neue Korrekturtool als Teil der Azure AI Safety API von Microsoft anbieten. Benutzer von Gen-AI-Plattformen wie GPT-4o von OpenAI und Llama von Meta sollten die neue Funktion bald erleben.
Die Funktion „Korrekturen“ versucht, alle Inhalte zu kennzeichnen, die möglicherweise nicht sachlich korrekt sind. Anschließend wird der Text auf Fakten überprüft, indem er mit einer wahren Quelle verglichen wird.
Microsoft behauptet, dass diese Funktion auf einem Grunddokument basieren wird, das vom Benutzer hochgeladene Transkripte umfassen könnte. Dies könnte bedeuten, dass die Verantwortung für die Zertifizierung der Richtigkeit eines Dokuments nicht beim Endbenutzer liegen muss. Die KI wäre in der Lage, anhand von Begründungsdokumenten zu sagen, was als Tatsache anzusehen ist.
Microsoft setzt „Bewertungen“ auch als „vertrauliche Inferenz“-Ebene ein
Microsoft hat angedeutet, dass sein KI-Korrekturtool Halluzinationen in Echtzeit beheben könnte. Neben der Bekämpfung von KI-Halluzinationen setzt Microsoft auch „Bewertungen“ ein.
Laut Microsoft handelt es sich bei „Evaluations“ um ein proaktives Risikobewertungstool. Es fungiert als vertrauliche Inferenzschicht. Mit anderen Worten: Die Gen AI-Plattform leitet den Inhalt durch diese Ebene, bevor sie Vorhersagen trifft.
Berichten zufolge soll das neue Tool sicherstellen, dass vertrauliche Informationen während des Rückschlussprozesses sicher und privat bleiben. Dies könnte dabei helfen, potenzielle Datenschutzbedenken herauszufiltern. Mit diesen neuen Tools scheint Microsoft zwei häufige Probleme der Generation AI anzugehen: Datenschutz und Genauigkeit.