Der von Google erstellte Podcast erklärt das Sounddesign von Google Pixel

Oscar

Der Made by Google-Podcast hat kürzlich eine Episode veröffentlicht, in der die Moderatoren die Technik hinter dem Sounddesign von Google Pixel erklärten. Die Pixel-Telefone von Google gelten als einige der am besten gestalteten Android-Smartphones auf dem Markt. Dieser Ruf beruht insbesondere auf der Liebe zum Detail, die das Unternehmen in sein Betriebssystem legt. Vom visuellen Design über die Animationen bis hin zu den Sounds für jede Aktion. Hinter jedem einzelnen Aspekt eines Pixel-Telefons stecken monatelange Tests und Perfektionierungen.

Wie das Sounddesign des Google Pixel geplant ist

Made by Google ist ein Podcast, der einen Blick hinter die Kulissen der Funktionsweise von Google wirft. Dazu gehört, mit „Googlern“ zu sprechen und nach dem Wie und Warum von Google zu fragen. Staffel 5, Folge 2 – Sounds Like Pixel Perfect – war ein Blick darauf, wie Soundeffekte für die Pixel-Telefonreihe erstellt werden.

Bemerkenswert ist, dass das Team die Geräusche als „einfach“, „menschlich“ und „verspielt“ beschreibt. Dies ergänzt natürlich das UI-Design der Pixel-Telefone. Zum Beispiel die verschiebbare Blasenanimation, die am Bildschirm haftet, bis sie weggezogen wird. Ein weiterer interessanter Fakt ist, dass es nicht nur auf den Klang ankommt, sondern auch auf die Hardware der Telefone. Die Designer bei Google sorgen dafür, dass sowohl Software als auch Hardware in perfekter Synergie funktionieren, ganz wie bei den Geräten von Apple.

„Wenn es ein Klingelton ist, möchte ich sicherstellen, dass er bei mir zu Hause, aber auch auf der Straße wirklich gut klingt. Und dann optimieren wir den Sound für die Hardware. Also nehmen wir jede Orchestrierung oder jeden EQ oder was auch immer vor, alle Arten von Änderungen, die vorgenommen werden müssen, damit der Klang auf dem tatsächlichen Gerät so gut wie möglich klingt.“

KI ist ein „Kooperationspartner“

Es scheint auch, dass die Designer bei Google bereits damit begonnen haben, generative KI in ihre Arbeit zu integrieren. Dies ist überhaupt nicht überraschend, wenn man bedenkt, wie stark die Pixel-Telefone KI nutzen. Die kürzlich veröffentlichte Gems-Sammlung von Sounds und Klingeltönen wurde mit Hilfe von KI erstellt. Das bedeutet natürlich nicht, dass es vollständig KI-generiert ist.

Wie beispielsweise von 9to5Google beschrieben, begann der „Amber Beats“-Sound mit einer Aufforderung an die KI. „Hinter der groovigen Basslinie verbirgt sich ein atmosphärischer Pad-Synthesizer, der dem Track Tiefe verleiht. Die federnden Trommeln zeichnen sich durch einen vorherrschenden Schlagklang aus klarem Glas aus. Es gibt Schichten von Synthesizer-Sounds.“

Die Aufforderung selbst zeigt umfangreiche Kenntnisse im Audiodesign, aber das war noch nicht alles. Aus dem 30-sekündigen Clip, der von der KI ausgegeben wurde, wurde ein zweisekündiger Ausschnitt erstellt und verändert. „Ich nahm diesen Audioclip und begann, ihn rhythmisch und melodisch zu verändern, um eine originelle Idee zu entwickeln, die sich für mich authentisch anfühlte.“

Die gesamte Folge bietet einen sehr coolen Einblick in die Arbeitsweise des Sounddesign-Teams von Google. Da sich die generative KI immer weiter verbessert, kann es sogar dazu kommen, dass Mitarbeiter entlassen werden und die gesamte oben genannte Arbeit von der KI erledigt wird. Wenn es jedoch soweit ist, könnte das Sounddesign seinen „menschlichen“ Deskriptor verlieren.