Este guia mostra como começar a fazer chamadas para o Vertex AI Gemini API diretamente no app usando o SDK Vertex AI in Firebase para a plataforma escolhida.
Outras opções para trabalhar com o Gemini API
Opcionalmente, teste uma versão alternativa "Google AI" do Gemini API
para ter acesso sem custo financeiro (dentro dos limites e onde disponível) usando Google AI Studio e SDKs de cliente Google AI. Esses SDKs devem ser usados somente para prototipagem em apps para dispositivos móveis e da Web.Depois de entender como um Gemini API funciona, migre para nossos SDKs Vertex AI in Firebase (esta documentação), que têm muitos outros recursos importantes para apps para dispositivos móveis e da Web, como a proteção da API contra abuso usando Firebase App Check e suporte para arquivos de mídia grandes em solicitações.
Chame opcionalmente o Vertex AI Gemini API do lado do servidor (como com Python, Node.js ou Go)
Use os SDKs Vertex AI do lado do servidor, Firebase Genkit ou Firebase Extensions para o Gemini API.
Você também pode usar este guia para acessar modelos Imagen usando os SDKs Vertex AI in Firebase.
Pré-requisitos
Neste guia, pressupomos que você já sabe usar o Android Studio para desenvolver apps para Android.
Verifique se o ambiente de desenvolvimento e o app Android atendem aos seguintes requisitos:
- Android Studio (versão mais recente)
- O app Android precisa ser destinado ao nível 21 da API ou mais recente.
(Opcional) Confira o app de exemplo.
Fazer o download do app de exemplo
Você pode testar o SDK rapidamente, conferir uma implementação completa de vários casos de uso ou usar o app de exemplo se não tiver um próprio app Android. Para usar o app de exemplo, é necessário conectar a um projeto do Firebase.
Etapa 1: configurar um projeto do Firebase e conectar o app ao Firebase
Se você já tem um projeto e um app conectados ao Firebase
No console do Firebase, acesse a página Criar com o Gemini.
Clique no card Vertex AI in Firebase para iniciar um fluxo de trabalho que ajuda você a concluir as seguintes tarefas:
Faça upgrade do seu projeto para usar o plano de preços Blaze de pagamento por uso.
Ative as APIs necessárias no seu projeto (API Vertex AI e Vertex AI in Firebase).
Siga para a próxima etapa deste guia para adicionar o SDK ao app.
Se você ainda não tem um projeto do Firebase e um app conectado a ele
Configurar um projeto do Firebase
Faça login no console do Firebase.
Clique em Criar projeto e use uma das seguintes opções:
Opção 1: crie um projeto do Firebase totalmente novo (que vai ser um projeto do Google Cloud automaticamente) ao inserir um novo nome na primeira etapa do fluxo de trabalho "Criar projeto".
Opção 2: "Adicionar o Firebase" a um projeto Google Cloud existente selecionando o nome do projeto Google Cloud no menu suspenso da primeira etapa do fluxo de trabalho "Criar projeto".
Quando solicitado, não é necessário configurar o Google Analytics para usar os SDKs Vertex AI in Firebase.
No console do Firebase, acesse a página Criar com o Gemini.
Clique no card Vertex AI in Firebase para iniciar um fluxo de trabalho que ajuda você a concluir as seguintes tarefas:
Faça upgrade do seu projeto para usar o plano de preços Blaze de pagamento por uso.
Ative as APIs necessárias no seu projeto (API Vertex AI e Vertex AI in Firebase).
Conectar seu app ao Firebase
Continue no fluxo de trabalho de IA generativa do console para conectar seu app ao Firebase, o que inclui estas tarefas:
Registrar o app no projeto do Firebase.
Adicionar o arquivo de configuração do Firebase (
) e o plug-in do Gradlegoogle-services.json
ao app.google-services
Nas próximas etapas deste guia, você vai adicionar o SDK Vertex AI in Firebase ao app e concluir a inicialização necessária para usar o SDK e a Gemini API.
Etapa 2: adicionar o SDK
Com o projeto do Firebase configurado e o app conectado ao Firebase (consulte a etapa anterior), agora você pode adicionar o SDK Vertex AI in Firebase ao app.
O SDK Vertex AI in Firebase para Android (firebase-vertexai
) oferece acesso às APIs para interagir com os modelos Gemini e Imagen.
No arquivo Gradle do módulo (nível do app)
(como <project>/<app-module>/build.gradle.kts
),
adicione a dependência da biblioteca Vertex AI in Firebase para Android.
Recomendamos o uso do
Firebase Android BoM
para controlar o controle de versões da biblioteca.
dependencies { // ... other androidx dependencies // Import the BoM for the Firebase platform implementation(platform("com.google.firebase:firebase-bom:33.10.0")) // Add the dependency for the Vertex AI in Firebase library // When using the BoM, you don't specify versions in Firebase library dependencies implementation("com.google.firebase:firebase-vertexai") }
Para Java, é necessário adicionar duas bibliotecas.
dependencies { // ... other androidx dependencies // Import the BoM for the Firebase platform implementation(platform("com.google.firebase:firebase-bom:33.10.0")) // Add the dependency for the Vertex AI in Firebase library // When using the BoM, you don't specify versions in Firebase library dependencies implementation("com.google.firebase:firebase-vertexai") // Required for one-shot operations (to use `ListenableFuture` from Guava Android) implementation("com.google.guava:guava:31.0.1-android") // Required for streaming operations (to use `Publisher` from Reactive Streams) implementation("org.reactivestreams:reactive-streams:1.0.4") }
Com o Firebase Android BoM, seu app sempre vai usar versões compatíveis das bibliotecas do Firebase para Android.
(Alternativa) Adicionar dependências das bibliotecas do Firebase sem usar o BoM
Se você preferir não usar o Firebase BoM, especifique cada versão das bibliotecas do Firebase na linha de dependência correspondente.
Se você usa várias bibliotecas do Firebase no app, recomendamos usar o BoM para gerenciar as versões delas, o que garante que todas as versões sejam compatíveis.
dependencies { // Add the dependency for the Vertex AI in Firebase library // When NOT using the BoM, you must specify versions in Firebase library dependencies implementation("com.google.firebase:firebase-vertexai:16.2.0") }
Etapa 3: inicializar o serviço Vertex AI e o modelo generativo
Antes de fazer chamadas de API e solicitar um modelo Gemini, é necessário inicializar o serviço Vertex AI e o modelo generativo.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
val generativeModel = Firebase.vertexAI.generativeModel("gemini-2.0-flash")
Publisher
da biblioteca Reativo Streams.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
GenerativeModel gm = FirebaseVertexAI.getInstance()
.generativeModel("gemini-2.0-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
Depois de concluir este guia de início, aprenda a escolher um modelo e (opcionalmente) um local adequado para seu caso de uso e app.
Etapa 4: enviar uma solicitação de comando para um modelo
Agora que você conectou seu app ao Firebase, adicionou o SDK e inicializou o serviço Vertex AI e o modelo generativo, já pode enviar uma solicitação de solicitação para um modelo Gemini.
Você pode usar generateContent()
para gerar texto a partir de uma solicitação de comando
de texto:
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
val generativeModel = Firebase.vertexAI.generativeModel("gemini-2.0-flash")
// Provide a prompt that contains text
val prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
val response = generativeModel.generateContent(prompt)
print(response.text)
ListenableFuture
.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
GenerativeModel gm = FirebaseVertexAI.getInstance()
.generativeModel("gemini-2.0-flash");
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
// Provide a prompt that contains text
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
// To generate text output, call generateContent with the text input
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
O que mais você pode fazer?
Saiba mais sobre os modelos compatíveis
Saiba mais sobre os modelos disponíveis para vários casos de uso e as cotas e o preço.
Testar outros recursos do Gemini API
- Saiba mais sobre como gerar texto de solicitações somente de texto, incluindo como transmitir a resposta.
- Gerar texto a partir de comandos multimodais (incluindo texto, imagens, PDFs, vídeo e áudio).
- Crie conversas com vários turnos (chat).
- Gere saída estruturada (como JSON) com comandos de texto e multimodais.
- Use a chamada de função para conectar modelos generativos a sistemas e informações externas.
Saiba como controlar a geração de conteúdo
- Entenda o design de comandos, incluindo práticas recomendadas, estratégias e exemplos de comandos.
- Configure os parâmetros do modelo, como temperatura e máximo de tokens de saída (para Gemini) ou proporção e geração de pessoas (para Imagen).
- Use as configurações de segurança para ajustar a probabilidade de receber respostas que podem ser consideradas nocivas.
Enviar feedback sobre sua experiência com o Vertex AI in Firebase