Contar tokens e caracteres faturáveis para modelos do Gemini

Os modelos generativos dividem os dados em unidades chamadas tokens para processamento. Cada modelo tem um número máximo de tokens que pode ser processado em um comando e uma resposta.

Nesta página, mostramos como usar a API Count Tokens para receber uma estimativa da contagem de tokens e do número de caracteres faturáveis de uma solicitação para um modelo Gemini. Não há uma API para receber a estimativa de tokens em uma resposta.

A API Count Tokens não pode ser usada para modelos Imagen.

Quais informações são fornecidas na contagem?

Observe o seguinte sobre a contagem de tokens e caracteres faturáveis:

  • Contagem do total de tokens

    • Essa contagem é útil para garantir que suas solicitações não ultrapassem a janela de contexto permitido.

    • A contagem de tokens vai refletir o tamanho de todos os arquivos (por exemplo, imagens) fornecidos como parte da entrada de solicitação. Ele não vai contar o número de imagens ou o número de segundos em um vídeo.

    • Em todos os modelos Gemini, um token equivale a cerca de quatro caracteres. 100 tokens equivalem aproximadamente a 60-80 palavras em inglês.

  • Contagem do total de caracteres faturáveis

    • Essa contagem é útil para entender e controlar seus custos, já que, para Vertex AI, o número de caracteres faz parte do cálculo de preços.

    • O número de caracteres faturáveis vai refletir o número de caracteres no texto fornecido como parte da entrada request.

Em modelos Gemini mais antigos, os tokens não fazem parte do cálculo de preços. No entanto, em modelos Gemini 2.0, os tokens são usados no cálculo de preços. Saiba mais sobre os limites de tokens por modelo e os preços por modelo.

Preços e cota para contar tokens e caracteres faturáveis

Não há cobrança ou restrição de cota para usar a API CountTokens. A cota máxima para a API CountTokens é de 3.000 solicitações por minuto (RPM).

Amostras de código

Entrada somente de texto

Entrada multimodal