Generative Modelle zerlegen Daten zur Verarbeitung in Einheiten, die als Tokens bezeichnet werden. Jedes Modell hat eine maximale Anzahl von Tokens, die es in einem Prompt und einer Antwort verarbeiten kann.
Auf dieser Seite erfahren Sie, wie Sie mit der Count Tokens API eine Schätzung der Tokenanzahl und der Anzahl der abrechenbaren Zeichen für eine Anfrage an ein Gemini-Modell abrufen. Es gibt keine API, mit der die geschätzte Anzahl der Tokens in einer Antwort abgerufen werden kann.
Die Count Tokens API kann nicht für Imagen-Modelle verwendet werden.
Welche Informationen werden in der Zählung angegeben?
Beachten Sie Folgendes zum Zählen von Tokens und abrechenbaren Zeichen:
Anzahl der Tokens insgesamt zählen
Dieser Wert ist hilfreich, damit Ihre Anfragen das zulässige Kontextfenster nicht überschreiten.
Die Tokenanzahl entspricht der Größe aller Dateien (z. B. Bilder), die als Teil der Anfrage bereitgestellt werden. Die Anzahl der Bilder oder die Anzahl der Sekunden in einem Video werden nicht gezählt.
Bei allen Gemini-Modellen entspricht ein Token etwa vier Zeichen. 100 Tokens entsprechen etwa 60–80 englischen Wörtern.
Abrechenbare Zeichen insgesamt zählen
Diese Anzahl ist hilfreich, um Ihre Kosten zu verstehen und zu kontrollieren, da die Anzahl der Zeichen bei Vertex AI Teil der Preisberechnung ist.
Die abrechenbare Zeichenanzahl entspricht der Anzahl der Zeichen im Text, der als Teil der Anfrage-Eingabe bereitgestellt wird.
Bei älteren Gemini-Modellen sind Tokens nicht Teil der Preisberechnung. Bei Gemini 2.0-Modellen werden sie jedoch verwendet. Weitere Informationen zu Tokenlimits pro Modell und Preisen pro Modell
Preise und Kontingente für die Zählung von Tokens und abrechenbaren Zeichen
Für die Verwendung der CountTokens
API fallen keine Gebühren an und es gibt keine Kontingentbeschränkungen. Das maximale Kontingent für die CountTokens
API beträgt 3.000 Anfragen pro Minute.