Microsoft schränkt den Einsatz der Azure AI-Gesichtserkennung für Polizeikräfte ein

Oscar

Es scheint, dass Microsoft nicht möchte, dass Strafverfolgungsbehörden Azure OpenAI für die Echtzeit-Gesichtserkennung von Personen verwenden. Das Unternehmen aus Redmond hat kürzlich seinen Verhaltenskodex bezüglich der Nutzung seiner KI-Dienste durch die Polizei geändert.

Auch Strafverfolgungsbehörden stellen sich seit einiger Zeit auf KI-basierte Technologien um. Darüber hinaus Anbieter von Militär- und Polizeitechnik wie Axon. Letzterer kündigte beispielsweise kürzlich an, die Fähigkeiten des GPT-4-Modells zu nutzen, um die Transkription von mit mobilen Kameras aufgenommenen Audiodaten zu ermöglichen. Dies kann sehr nützlich sein, um die Polizeiberichte zu beschleunigen.

Allerdings zielen die neuesten Änderungen am Azure AI-Verhaltenskodex direkt auf mobile Kameras ab. Wie The Register herausfand, hat Microsoft den Einsatz von Azure AI für die Echtzeit-Gesichtserkennung mithilfe von Geräten wie On-Body-Polizeikameras und Dashcams strikt verboten. Microsoft hat die Beschränkungen auf Polizeikräfte auf der ganzen Welt ausgeweitet. Bisher galt das Verbot nur für die Polizei des US-Bundesstaates und der örtlichen Polizei.

Microsoft möchte nicht, dass die Polizei Azure AI für die Echtzeit-Gesichtserkennung nutzt

In Bezug auf das Verbot werden im neuen Verhaltenskodex einige Schlüsselbegriffe ausdrücklich erwähnt. Zum Beispiel „Echtzeit-Gesichtserkennungstechnologie auf mobilen Kameras“ und „in freier Wildbahn“. Dies deutet darauf hin, dass Polizeikräfte Azure AI weiterhin für die Gesichtserkennung von Inhalten verwenden könnten, die von Überwachungskameras erfasst wurden. Auch bei Aufnahmen nach Situationen. Eine Bestätigung hierzu gibt es aber noch nicht.

Der genaue Grund für die Entscheidung von Microsoft ist nicht bekannt. Das Unternehmen antwortete nicht auf Fragen von The Register dazu. Es könnte jedoch im Einklang mit einer der Kernrichtlinien des Unternehmens hinsichtlich der Nutzung und Implementierung KI-basierter Technologien stehen. Konkreter heißt es in seinen Richtlinien, dass es nicht „dazu verwendet werden darf, aus Bildern oder Videos von ihnen sensible Eigenschaften von Menschen wie Geschlecht, Rasse oder bestimmtes Alter abzuleiten“.

Darüber hinaus hat der Einsatz von KI zeitweise einige Probleme bei der Identifizierung anhand von Attributen gezeigt. Es gab Fälle, in denen es unter bestimmten Umständen zu Vorurteilen kam. Daher ist sein Einsatz in diesem Bereich zumindest heute nicht völlig sicher.