Als Reaktion auf Berichte, die darauf hindeuten, dass MyCity möglicherweise falsche, unrichtige und irreführende Informationen bereitstellt, verteidigt New Yorks Bürgermeister Eric Adams dies. Für diejenigen, die es nicht wissen: Die New Yorker Regierung hat kürzlich den MyCity AI-Chatbot eingeführt, um Geschäftsinhabern bei ihren Fragen zu helfen.
Der Bürgermeister von New York verteidigt den umstrittenen KI-Chatbot unter dem Vorwurf irreführender Leitlinien
Ziel ist es, Unternehmern zu helfen, die einen ununterbrochenen Zugang zu Informationen und Beratung benötigen. Dennoch ergab eine Untersuchung von The Markup mit Unterstützung der lokalen Nachrichtenredaktionen Documented und The City, dass es in mehreren Fällen falsche Rechtsberatung gab.
Beispielsweise behauptete der Bot fälschlicherweise, dass Vermieter Mieter aufgrund des Einkommens diskriminieren könnten und dass Arbeitgeber einen Teil des Trinkgelds ihres Dienstleisters einstreichen könnten; Beide Praktiken sind in New York City illegal.
Wie andere KI-Modelle, die auf den großen Azure-KI-Sprachmodellen von Microsoft basieren, neigt MyCity dazu, ungenaue oder irreführende Informationen zu liefern. Dementsprechend räumte Bürgermeister Adams Fehler in Bezug auf dieses Tool ein, indem er sagte: „Es ist in bestimmten Bereichen fehlerhaft“, verteidigte jedoch dessen allgemeines Ziel.
Er sagte, dass sich diese Art von Technologie naturgemäß in realen Umgebungen bewähren muss, um Probleme und Lösungen dafür aufzuzeigen. Spätere Untersuchungen ergaben jedoch, dass die Versuche scheiterten, da immer noch falsche Behauptungen wie „Unternehmen nehmen keine Barzahlungen mehr an“ vorgebracht wurden, was im Widerspruch zum New Yorker Recht steht.
MyCity AI könnte sich als ineffizient erweisen und mehr Dialoge mit Anwälten erfordern
Andrew Rigie, Direktor der NYC Hospitality Alliance, lobte den Versuch der Stadt, KI-gestützte Technologie einzusetzen, betonte jedoch die Genauigkeit. Rigie behauptete, dass das Befolgen falscher Vorschläge von Bots wie diesem sein Ziel ruinieren und mehr Dialoge mit Anwälten erfordern könnte.
Aufgrund dieser Kontroverse enthält der MyCity-Chatbot jetzt einen Haftungsausschluss, der Benutzer warnt, dass Antworten möglicherweise unzuverlässig oder unvollständig sind; Daher sollten sie sich aus rechtlichen oder beruflichen Gründen nicht auf sie verlassen.
Dieser Vorfall verdeutlicht, wie schwierig es ist, künstliche Intelligenz in öffentliche Dienste zu integrieren, und unterstreicht gleichzeitig die Notwendigkeit von Genauigkeit und Verlässlichkeit bei der Orientierung auf gesetzlicher Grundlage. Während die Bemühungen zur Verbesserung des MyCity-Chatbots fortgesetzt werden, sind verschiedene Interessengruppen immer noch auf der Suche nach Herausforderungen, die möglicherweise angegangen werden müssen.