En esta guía, se muestra cómo comenzar a realizar llamadas al Vertex AI Gemini API directamente desde tu app con el SDK de Vertex AI in Firebase para la plataforma que elegiste.
Requisitos previos
En esta guía, se asume que estás familiarizado con el uso de Android Studio para desarrollar para Android.
Asegúrate de que tu entorno de desarrollo y tu app para Android cumplan con los con los siguientes requisitos:
- Android Studio (versión más reciente)
- Tu app para Android debe orientarse al nivel de API 21 o versiones posteriores.
(Opcional) Revisa la app de ejemplo.
Puedes probar el SDK rápidamente, ver una implementación completa de varios usos casos prácticos o usar la app de ejemplo si no tienes tu propia app para Android. Para usar la app de ejemplo, deberás conéctalo a un proyecto de Firebase.
Paso 1: Configura un proyecto de Firebase y conecta tu app a Firebase
Si ya tienes un proyecto y una app de Firebase conectados a Firebase
En la consola de Firebase, ve a Página de Crea con Gemini.
Haz clic en la tarjeta Vertex AI in Firebase para iniciar un flujo de trabajo que te ayude completa las siguientes tareas. (ten en cuenta que si ves una pestaña en la consola para Vertex AI, entonces, estas tareas están completas).
Actualiza tu proyecto para usar plan de precios Blaze (pago por uso).
Habilita las dos APIs siguientes para tu proyecto:
aiplatform.googleapis.com
yfirebaseml.googleapis.com
Continúa con el siguiente paso de esta guía para agregar el SDK a tu app.
Si aún no tienes un proyecto y una app de Firebase conectados a esta plataforma
Paso 2: Agrega el SDK
Con tu proyecto de Firebase configurado y tu app conectada a Firebase (consulta el paso anterior), ahora puedes agregar el SDK de Vertex AI in Firebase a tu app.
El SDK de Vertex AI in Firebase para Android (firebase-vertexai
) proporciona
acceso a Vertex AI Gemini API.
En el archivo de configuración de Gradle de tu módulo (nivel de app)
(como <project>/<app-module>/build.gradle.kts
), agrega la dependencia del
SDK de Vertex AI in Firebase para Android:
Kotlin+KTX
dependencies {
// ... other androidx dependencies
// add the dependency for the Vertex AI in Firebase SDK for Android
implementation("com.google.firebase:firebase-vertexai:16.0.0-beta04")
}
Java
Para Java, debes agregar dos bibliotecas adicionales.
dependencies {
// ... other androidx dependencies
// add the dependency for the Vertex AI in Firebase SDK for Android
implementation("com.google.firebase:firebase-vertexai:16.0.0-beta04")
// Required for one-shot operations (to use `ListenableFuture` from Guava Android)
implementation("com.google.guava:guava:31.0.1-android")
// Required for streaming operations (to use `Publisher` from Reactive Streams)
implementation("org.reactivestreams:reactive-streams:1.0.4")
}
Paso 3: Inicializa el servicio de Vertex AI y el modelo generativo
Antes de realizar llamadas a la API, debes inicializar Vertex AI. y el modelo generativo.
Kotlin+KTX
En el caso de Kotlin, los métodos de este SDK son funciones de suspensión y se deben llamar desde un alcance de corrutina.// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
val generativeModel = Firebase.vertexAI.generativeModel("gemini-1.5-flash")
Java
En el caso de Java, los métodos de transmisión de este SDK devuelven un TipoPublisher
de la biblioteca de Reactive Streams.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
GenerativeModel gm = FirebaseVertexAI.getInstance()
.generativeModel("gemini-1.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
Cuando hayas terminado la guía de introducción, aprende a elegir Modelo de Gemini y, de forma opcional, un la ubicación adecuada para tu caso de uso y app.
Paso 4: Llama al Vertex AI Gemini API
Ahora que conectaste tu app a Firebase, agregaste el SDK y, luego, inicializaste el servicio de Vertex AI y el modelo generativo, ya puedes llamar a Vertex AI Gemini API.
Puedes usar generateContent()
para generar texto a partir de una instrucción de solo texto.
solicitud:
Kotlin+KTX
En el caso de Kotlin, los métodos de este SDK son funciones de suspensión y se deben llamar desde un alcance de corrutina.// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
val generativeModel = Firebase.vertexAI.generativeModel("gemini-1.5-flash")
// Provide a prompt that contains text
val prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
val response = generativeModel.generateContent(prompt)
print(response.text)
Java
En el caso de Java, los métodos de este SDK devuelven unListenableFuture
.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
GenerativeModel gm = FirebaseVertexAI.getInstance()
.generativeModel("gemini-1.5-flash");
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
// Provide a prompt that contains text
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
// To generate text output, call generateContent with the text input
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
¿Qué más puedes hacer?
Más información sobre los modelos de Gemini
Obtén más información acerca de la modelos disponibles para varios casos de uso y sus cuotas y precios.
Prueba otras funciones de Gemini API
- Obtén más información sobre cómo generar texto a partir de mensajes de solo texto, lo que incluye cómo transmitir la respuesta.
- Generar texto desde instrucciones multimodales (incluidos texto, imágenes, archivos PDF, videos y audio).
- Crear conversaciones de varios turnos (chat)
- Usa la llamada a función para conectarte los modelos generativos a la información y los sistemas externos.
Aprende a controlar la generación de contenido
- Comprender el diseño de instrucciones, por ejemplo: prácticas recomendadas, estrategias y ejemplos de instrucciones.
- Configura los parámetros del modelo, como temperatura y máximo de tokens de salida.
- Usa la configuración de seguridad para ajustar la más probabilidades de recibir respuestas que se consideren perjudiciales.
Enviar comentarios sobre tu experiencia con Vertex AI in Firebase