Con Gemini API, puedes entablar conversaciones de formato libre en
varios turnos. El SDK de Vertex AI in Firebase simplifica el proceso, ya que administra
el estado de la conversación, por lo que, a diferencia de lo que ocurre con generateContentStream()
o
generateContent()
, no tienes que almacenar el historial de la conversación por tu cuenta.
Antes de comenzar
Si aún no lo hiciste, completa la guía de introducción a los SDK de Vertex AI in Firebase. Asegúrate de haber realizado todo lo siguiente:
Configura un proyecto de Firebase nuevo o existente, incluido el uso del plan de precios Blaze y la habilitación de las APIs requeridas.
Conecta tu app a Firebase, incluido el registro de la app y el agregado de la configuración de Firebase en tu app.
Agrega el SDK y, luego, inicializa el servicio Vertex AI y el modelo generativo. en tu app.
Una vez que hayas conectado tu app a Firebase, agregado el SDK y inicializado el servicio Vertex AI y el modelo generativo, todo estará listo para llamar a Gemini API.
Envía una solicitud de instrucción de chat
Para crear una conversación de varios turnos (como el chat), comienza inicializando
chatear llamando a startChat()
. Luego, usa sendMessageStream()
(o sendMessage()
) para enviar un nuevo mensaje del usuario, que también adjuntará el mensaje y la respuesta al historial de chat.
Hay dos opciones posibles para role
asociadas con el contenido de una conversación:
user
: Es la función que proporciona los mensajes. Este valor es el predeterminado para las llamadas asendMessageStream()
(osendMessage()
), y la función arroja una excepción si se pasa un rol diferente.model
: Es el rol que proporciona las respuestas. Este rol se puede usar cuando se llama astartChat()
conhistory
existente.
Elige si quieres transmitir la respuesta (sendMessageStream
) o esperar.
para la respuesta hasta que se genere el resultado completo (sendMessage
).
Transmisión
Puedes lograr interacciones más rápidas si no esperas a que se genere todo el resultado del modelo y, en su lugar, usas la transmisión para controlar los resultados parciales.
Sin transmisión
Como alternativa, puedes esperar a que se muestre todo el resultado en lugar de transmitirlo. El resultado solo se muestra después de que el modelo completa todo el proceso de generación.
Descubre cómo elegir un modelo de Gemini y, opcionalmente, una ubicación adecuados para tu caso de uso y app.
¿Qué más puedes hacer?
- Más información para contar tokens antes de enviar instrucciones largas al modelo.
- Configura Cloud Storage for Firebase para que puedas incluir archivos grandes en tus solicitudes multimodales con URLs Cloud Storage. Los archivos pueden incluir imágenes, archivos PDF, videos y audio.
- Comienza a pensar en prepararte para la producción, incluidas configura Firebase App Check para proteger Gemini API del abuso de clientes no autorizados.
Prueba otras funciones de Gemini API
- Genera texto a partir de instrucciones solo de texto.
- Genera texto a partir de instrucciones multimodales (incluidos texto, imágenes, PDF, video y audio).
- Usa la llamada a función para conectarte los modelos generativos a la información y los sistemas externos.
Aprende a controlar la generación de contenido
- Comprende el diseño de instrucciones, incluidas las prácticas recomendadas, las estrategias y los ejemplos de instrucciones.
- Configura los parámetros del modelo, como la temperatura y la cantidad máxima de tokens de salida.
- Usa la configuración de seguridad para ajustar la probabilidad de obtener respuestas que se puedan considerar dañinas.
Más información sobre los modelos de Gemini
Obtén información sobre los modelos disponibles para varios casos de uso y sus cuotas y precios.Enviar comentarios sobre tu experiencia con Vertex AI in Firebase