Googles jüngster Versuch, generative KI in unsere Lebensräume zu integrieren, Gemini for Home, sorgt für Schlagzeilen – aber vielleicht nicht in der Art, wie Google es beabsichtigt hat. Die Funktion wird als Teil des kostenpflichtigen Home-Abonnements von Google eingeführt und verspricht intelligente tägliche Zusammenfassungen und Gesprächseinblicke aus den Aufnahmen Ihrer Nest-Kamera. Erste Berichte von Nutzern deuten jedoch darauf hin, dass das System Gemini für Google Home häufig häufige Haushaltsereignisse falsch erkennt und sogar fälschlicherweise die Anwesenheit von Rehen oder falschen Personen erkennt, was zu Zweifeln an der Genauigkeit führt.
Die neue Funktion nutzt das Gemini-KI-Modell, um Videoclips zu verarbeiten, Zusammenfassungen zu erstellen und Fragen über einen „Ask Home“-Chatbot zu beantworten. Berichten zufolge bewältigt es grundlegende Aufgaben wie das Erstellen von Automatisierungen gut. Allerdings erweist sich die Videoerkennungsfunktion manchmal als unzuverlässig, was zu einigen wirklich beunruhigenden Benachrichtigungen führt.
Google Gemini for Home identifiziert Hunde fälschlicherweise als Hirsche, die Genauigkeit ist fraglich
Wie von Ars Technica festgestellt, besteht ein wiederkehrendes Problem darin, dass die KI fiktive Ereignisse meldet. Ein Benutzer wurde darauf aufmerksam gemacht: „Unerwartet betrat kurzzeitig ein Reh das Familienzimmer.“ Zu diesem Zeitpunkt blickt die Kamera lediglich auf einen Hund. Das ist kein einmaliger Fehler; Das System verwechselt Hunde und Schatten häufig mit „Hirsch“, „Katzen“ oder sogar „einer Person“, die in einem leeren Raum umherstreift.

Das Problem ist besonders problematisch, wenn Gemini sicherheitskritische Ereignisse falsch bezeichnet. Eine Warnung, dass „Eine Person im Familienzimmer gesehen wurde“, kann echten Alarm auslösen, nur dass der Benutzer den Feed überprüft und absolut nichts findet. Nach ein paar Fehlalarmen lernen Benutzer schnell, dem System zu misstrauen. Diese Fehler machen den gesamten Zweck eines Sicherheitsüberwachungssystems zunichte.
Google führt diese Fehler auf die Natur großer Sprachmodelle zurück. Das Unternehmen erklärt, dass Zwillinge „schlussfolgernde Fehler“ machen können, wenn es an ausreichend visuellen Details oder einem gesunden Menschenverstand mangelt. Tatsächlich ist die KI Berichten zufolge hervorragend darin, Automodelle und Logos zu erkennen. Es hat jedoch Schwierigkeiten mit dem einfachen, notwendigen Kontext, den ein menschlicher Beobachter niemals übersehen würde.
Die Frage der Startbereitschaft
Damit das Sicherheitsüberwachungssystem wirklich nützlich ist, sollten diese Rückschlussfehler erheblich zurückgehen. Google investiert „stark in die Verbesserung der genauen Identifizierung“ und ermutigt Nutzer, das Modell durch Feedback zu korrigieren. Allerdings bleibt das Kernproblem, zumindest vorerst, bestehen.

Es ist überraschend, dass Google sich für die Einführung einer Premium-Funktion entschieden hat, die so viel „Händchenhalten“ erfordert, um sofort korrekt zu funktionieren. Gemini for Home ist ein neues Produkt und wird wahrscheinlich erheblich verbessert. Das Unternehmen muss mehr Daten sammeln und das Modell verfeinern. Allerdings birgt die Veröffentlichung einer Sicherheitsfunktion, die Eindringlinge gleich beim Start effektiv in Schach hält, das Vertrauen der Benutzer und macht es schwierig, die Gebühr für das Advanced-Abonnement von 20 US-Dollar pro Monat zu rechtfertigen. Für Benutzer ist das Abonnement für 10 US-Dollar pro Monat, das weniger Videoverlauf bietet, aber die unzuverlässigen KI-Funktionen vermeidet, derzeit möglicherweise eine viel intelligentere Wahl.
Der Beitrag „Google Gemini for Home AI Labels Pets as Deer“ erschien zuerst in den Android-Schlagzeilen.