Google stellt Gemini 1.5 mit einem wahnsinnigen Kontextfenster vor

Oscar

Google hat kürzlich Gemini veröffentlicht, sein leistungsstärkstes KI-Modell. Es übernahm schnell die Rolle von Googles Flaggschiff-KI-Modell und ersetzte Bard vollständig. Obwohl Gemini erst zwei Monate alt ist, hat Google uns Gemini 1.5 vorgestellt, die nächste Generation der KI-Technologie des Unternehmens.

Wenn Sie in den letzten Wochen unter einem Stein gestanden haben, brauchen Sie eine kleine Auffrischung. Google Bard ist weg; Das Unternehmen ersetzte es durch Gemini. Sie können über die Website und die offizielle App darauf zugreifen. Wenn Sie außerdem nach einer fortgeschritteneren Version des Modells suchen, können Sie Gemini Advanced ausprobieren. Dies ist der Chatbot, der das Gemini Ultra-Modell verwendet.

Da Bard weg ist, sieht es so aus, als hätte Google das Ziel, Google Assistant irgendwann zu ersetzen. Wir sind nicht sicher, wann dies geschehen wird, aber wir sehen bereits Anzeichen dafür. Beispielsweise können Sie jetzt die Gemini-App als Ersatz für den Google Assistant auf Ihrem Telefon verwenden.

Google hat Gemini 1.5 mit einem verrückten Kontextfenster eingeführt

Da es sich um die 1.5-Version von Gemini handelt, können Sie ein viel leistungsfähigeres Erlebnis als Version 1.0 erwarten. Das Unternehmen kündigte dieses neue Modell über einen Google-Blogbeitrag an. Sowohl der CEO von Google (Sundar Pichai) als auch der CEO von Google DeepMind (Demis Hassabis) erklärten, warum Gemini 1.5 dem ersten Modell überlegen ist.

Was ist ein Kontextfenster? Was sind Token?

Bevor wir uns damit befassen, was diese Iteration leistungsfähiger macht, finden Sie hier eine Auffrischung der Kontextfenster und Token. A Zeichen ist eine kleine Information, die von einem Modell verarbeitet werden kann. Es kann sich um einen Wortabschnitt, einen Teil einer Audiodatei, einen Teil eines Videos oder einen Teil eines Bildes handeln. Ein so einfaches Wort wie „Toaster“ besteht beispielsweise aus einer Handvoll Token.

Ein Modell kann jeweils nur eine bestimmte Anzahl von Token verstehen. Die Anzahl der Token, die ein Modell gleichzeitig verstehen kann, wird als bezeichnet Kontextfenster. Je größer das Kontextfenster, desto umfangreicher kann Ihre Abfrage sein.

Angenommen, Sie fügen Ihren Hochschulbericht zur Zusammenfassung in Gemini ein und Ihr Bericht ist 2.000 Wörter lang (sagen wir einfach, das entspricht 5.000 Token). Solange das Kontextfenster größer als 5.000 Token ist, kann Gemini alle Informationen in Ihrem Bericht verstehen.

Gemini 1.5 könnte ein enormes Kontextfenster haben

Die bedeutendste Änderung ist das riesige Kontextfenster. Das Unternehmen führt Gemini 1.5 Pro für frühe Tests ein und verfügt über ein beeindruckendes Kontextfenster von 128.000 Token. Um das ins rechte Licht zu rücken: Gemini 1.0 hat ein Kontextfenster von 32.000. Das sind viermal so viele Token.

Damit ist es aber noch nicht getan, denn eine kleine Gruppe von Testern erhält Zugriff auf eine Version von Gemini 1.5 mit einem Kontextfenster von bis zu 1 Million Token. Mit einem solchen Fenster können Sie ihm einen Roman mit 700.000 Wörtern, 30.000 Zeilen Code, 11 Stunden Audio oder eine Stunde Video füttern, und er wird alles verstehen. Mit so vielen Token können Sie die ersten vier Bücher der Dark Tower-Reihe von Stephen King hineinpassen. Das sind mehr als 609.000 Wörter und 2.000 Seiten.

Google gab sogar an, intern bis zu 10 Millionen Token getestet zu haben, diese werden aber so schnell nicht an die Öffentlichkeit gelangen. Auf jeden Fall ist es toll zu sehen, dass Google mit der KI-Technologie so weit und so schnell neue Maßstäbe setzt.

Weitere Verbesserungen

Neben dem größeren Kontextfenster können Sie weitere Verbesserungen wie besseres Denken, bessere Lernfähigkeiten, bessere Ethik und vieles mehr erwarten. Der Blogbeitrag geht viel detaillierter darauf ein. Wenn Sie also ein KI-Enthusiast sind, sollten Sie den Blogbeitrag lesen. Es befasst sich mit weiteren Aspekten, die dieses KI-Modell antreiben.

Lesen Sie den Blogbeitrag