Microsoft stärkt Azure AI mit sofortigen Schutz- und Sicherheitstools

Oscar

Microsoft hat ein neues Update für die Azure AI-Plattform angekündigt. Es umfasst Systeme zur Erkennung und Abwehr von Halluzinationen und böswilligen Sofortangriffen. Azure AI-Kunden haben jetzt Zugriff auf neue LLM-basierte Tools, die den Schutz vor unerwünschten oder unbeabsichtigten Reaktionen in ihren KI-Anwendungen erheblich verbessern.

Microsoft stärkt die Azure-KI-Abwehr durch Halluzination und die Erkennung böswilliger Angriffe

Sarah Bird, Microsofts Chief Product Officer of Responsible AI, erklärt, dass diese Sicherheitsfunktionen den „durchschnittlichen“ Azure-Benutzer schützen werden, der möglicherweise nicht auf die Identifizierung oder Behebung von KI-Schwachstellen spezialisiert ist. TheVerge hat ausführlich darüber berichtet und dargelegt, wie diese neuen Tools potenzielle Schwachstellen identifizieren, Halluzinationen überwachen und böswillige Eingabeaufforderungen in Echtzeit blockieren können. Unternehmen erhalten dadurch wertvolle Einblicke in die Leistung und Sicherheit ihrer KI-Modelle.

Zu diesen Funktionen gehören Prompt Shields, um sofortige Injektionen/böswillige Eingabeaufforderungen zu verhindern, Groundedness Detection zur Identifizierung von Halluzinationen und Sicherheitsbewertungen, die die Verwundbarkeit des Modells bewerten. Während Azure AI diese Attribute bereits in der Vorschau aufweist, sind weitere Funktionen wie die Weiterleitung von Modellen an sichere Ausgaben oder die Verfolgung potenziell problematischer Benutzer für zukünftige Versionen geplant.

Eine Sache, die den Ansatz von Microsoft auszeichnet, ist die Betonung einer benutzerdefinierten Steuerung, die es Azure-Benutzern ermöglicht, Filter für Hassrede oder Gewalt in KI-Modellen umzuschalten. Dies hilft bei Befürchtungen hinsichtlich Voreingenommenheit oder unangemessener Inhalte und ermöglicht es Benutzern, die Sicherheitseinstellungen entsprechend ihren jeweiligen Anforderungen anzupassen.

Das Überwachungssystem überprüft Eingabeaufforderungen und Antworten auf verbotene Wörter oder versteckte Eingabeaufforderungen, bevor sie zur Verarbeitung an das Modell weitergeleitet werden. Dadurch wird jegliches Risiko ausgeschlossen, dass KI Ergebnisse produziert, die den gewünschten Sicherheits- und ethischen Standards widersprechen und dadurch umstrittene oder schädliche Materialien erzeugen.

Microsoft Azure AI-Eingabeaufforderungsinjektionsfilter

Azure AI konkurriert jetzt in puncto Sicherheit und Schutz mit GPT-4 und Llama 2

Obwohl diese Sicherheitsfunktionen bei beliebten Modellen wie GPT-4 und Llama 2 problemlos verfügbar sind, müssen diejenigen, die kleinere oder weniger bekannte Open-Source-KI-Systeme verwenden, diese möglicherweise manuell in ihre Modelle integrieren. Nichtsdestotrotz zeigt Microsofts Engagement für die Verbesserung der KI-Sicherheit sein Engagement für die Bereitstellung robuster und vertrauenswürdiger KI-Lösungen auf Azure.

Die Bemühungen von Microsoft zur Verbesserung der Sicherheit zeigen ein wachsendes Interesse an einem verantwortungsvollen Einsatz der KI-Technologie. Ziel von Microsoft ist es daher, eine sicherere Umgebung zu schaffen, in der Kunden bei der Nutzung des KI-Ökosystems in Azure Risiken erkennen und verhindern können, bevor sie eintreten.