Con Gemini API, puedes entablar conversaciones de formato libre en
varios turnos. El SDK de Vertex AI in Firebase simplifica el proceso, ya que administra
el estado de la conversación, por lo que, a diferencia de lo que ocurre con generateContentStream()
o
generateContent()
, no tienes que almacenar el historial de la conversación por tu cuenta.
Antes de comenzar
Si aún no lo hiciste, completa el guía de introducción para los SDK de Vertex AI in Firebase. Asegúrate de haber realizado todo lo siguiente:
Configurar un proyecto de Firebase nuevo o existente, incluido el uso de Plan de precios Blaze y habilitación de las APIs necesarias.
Conecta tu app a Firebase, incluido el registro y la adición de tu app la configuración de Firebase en tu app.
Agrega el SDK y, luego, inicializa el servicio Vertex AI y el modelo generativo. en tu app.
Después de conectar la app a Firebase, agregar el SDK e inicializar la el servicio de Vertex AI y el modelo generativo, ya puedes llamar a Gemini API.
Enviar una solicitud de instrucción de chat
Para crear una conversación de varios turnos (como el chat), comienza inicializando
chatear llamando a startChat()
. Luego, utiliza
sendMessageStream()
(o sendMessage()
) para enviar un mensaje de usuario nuevo, que
también se adjuntarán el mensaje y la respuesta al historial de chat.
Hay dos opciones posibles para role
asociado con el contenido de una
conversación:
user
: Es la función que proporciona los mensajes. Este es el valor predeterminado para llamadas asendMessageStream()
(osendMessage()
) y la función arroja una excepción si se pasa un rol diferente.model
: Es la función que proporciona las respuestas. Este rol puede usarse cuando Llamando astartChat()
conhistory
existentes
Elige si quieres transmitir la respuesta (sendMessageStream
) o esperar.
para la respuesta hasta que se genere el resultado completo (sendMessage
).
Transmisión
Puede lograr interacciones más rápidas si no espera el resultado completo de la generación del modelo y, en su lugar, usar la transmisión para manejar resultados parciales.
Sin reproducción
También puedes esperar el resultado completo en lugar de transmitirlo. el resultado solo se muestra después de que el modelo completa toda la generación el proceso de administración de recursos.
Descubre cómo elegir un modelo de Gemini y, opcionalmente, una ubicación adecuados para tu caso de uso y app.
¿Qué más puedes hacer?
- Más información para contar tokens antes de enviar instrucciones largas al modelo.
- Configura Cloud Storage for Firebase para que puedas incluir archivos grandes en tus solicitudes multimodales mediante Cloud Storage de URLs. Los archivos pueden incluir imágenes, archivos PDF, videos y audio.
- Comienza a pensar en prepararte para la producción, incluidas configura Firebase App Check para proteger Gemini API del abuso de clientes no autorizados.
Prueba otras funciones de Gemini API
- Generar texto desde instrucciones de solo texto.
- Generar texto desde instrucciones multimodales (incluidos texto, imágenes, archivos PDF, videos y audio).
- Usa la llamada a función para conectarte los modelos generativos a la información y los sistemas externos.
Aprende a controlar la generación de contenido
- Comprender el diseño de instrucciones, por ejemplo: prácticas recomendadas, estrategias y ejemplos de instrucciones.
- Configura los parámetros del modelo, como temperatura y máximo de tokens de salida.
- Usa la configuración de seguridad para ajustar la más probabilidades de recibir respuestas que se consideren perjudiciales.
Más información sobre los modelos de Gemini
Obtén más información acerca de la modelos disponibles para varios casos de uso y sus cuotas y precios.Enviar comentarios sobre tu experiencia con Vertex AI in Firebase