Das Videogenerierungsmodell von Google ist fast bereit für die Hauptsendezeit

Oscar

Der Einstieg vieler Menschen in die generative KI war der Anblick der unheimlichen Bilder, die das frühe DALL-E erzeugte. Heutzutage konzentrieren sich Unternehmen auf die Bereitstellung KI-generierter Videos. Anfang des Jahres stellte Google auf der Google I/O seine Plattform zur Videogenerierung namens Veo vor, die jetzt als Vorschau verfügbar ist.

Google hat versucht, den mit seiner Bildgenerierungsplattform Imagen angerichteten Schaden wiedergutzumachen. Das Unternehmen hat aufgehört, Bilder von Menschen zu erstellen, und bietet diese Funktionalität für die meisten Menschen immer noch nicht an. Daher erscheint es seltsam, dass das Unternehmen ein Videogenerierungsmodell einführt.

Google hat Veo in einer privaten Vorschau veröffentlicht

Seit dem großen Leak vor nicht allzu langer Zeit haben wir nichts mehr von Sora von OpenAI gesehen. Die Clips, die wir von diesem Modell sahen, waren beunruhigend gut. Wir sind uns nicht sicher, wann Sora offiziell auf den Markt kommt, aber wir sind sicher, dass es vor dem Nova Reels-Modell von Amazon sein wird.

Bevor diese Modelle den Filmemachern kostenlos zur Verfügung gestellt werden, hat Google sein Videogenerierungsmodell veröffentlicht. Seien Sie sich nur darüber im Klaren, dass die meisten Menschen es nicht nutzen können. Google hat lediglich eine private Vorschau des Modells veröffentlicht. Sie können es verwenden, wenn Sie den Vertex-Clouddienst des Unternehmens abonniert haben. Wir wissen nicht, wie lange es im Vorschaustatus bleiben wird. So wie ich Google kenne, werden wir in Zukunft eine Art öffentliche Veröffentlichung erleben. Das Unternehmen scheut sich nicht, Benutzern kostenlosen Zugriff auf seine Tools zu gewähren.

Wie lang die Videoclips sein dürfen, wissen wir derzeit nicht. Allerdings wissen wir, dass Veo Videos mit einer Auflösung von 1080p ausspuckt.

Wie gut sind die Videos?

Genau wie bei anderen mit KI erstellten Videos, die wir gesehen haben, sind die Ergebnisse äußerst realistisch. Sie sind sicher weit entfernt von den Videos, in denen Will Smith Spaghetti isst. Sie sind so weit, dass man die Videos genau unter die Lupe nehmen müsste, um irgendwelche Tells zu erkennen.

Beispielsweise ist der Videoclip mit dem Welpen kaum von einem echten Video zu unterscheiden. Das Einzige, was darauf hinweist, ist die Tatsache, dass die Pfote des Hundes beim Kontakt mit dem Boden nicht zusammengedrückt wird. Außerdem ist im Video des Konzerts die Hand der Person auf der linken Seite etwas seltsam.

Allerdings werden 99 % der Menschen den Unterschied nicht erkennen können. Wenn diese Clips also in einen Hollywood-Film oder eine Fernsehsendung eingefügt würden, würden die meisten Leute denken, dass sie echt sind. Dies gilt auch für den Clip mit dem lächelnden alten Mann oder den Marshmallows.

Das ist ziemlich beängstigend, wenn man bedenkt, dass die CEOs einiger großer Filmfirmen den Knopf „Alle feuern und KI-Inhalte herauspumpen“ gedrückt haben. Hoffen wir nur, dass Google bei der Verbreitung dieser Modelle an die breite Masse Vorsicht walten lässt.