Con Gemini API puoi creare conversazioni in formato libero su più turni. L'SDK Vertex AI in Firebase semplifica il processo gestendo
lo stato della conversazione, quindi a differenza di generateContentStream()
o
generateContent()
, non è necessario che tu memorizzi la cronologia delle conversazioni.
Prima di iniziare
Se non l'hai già fatto, completa la Guida introduttiva per gli SDK Vertex AI in Firebase. Assicurati di avere eseguito tutte le seguenti operazioni:
Configura un progetto Firebase nuovo o esistente, ad esempio utilizzando il piano di prezzi Blaze e attivando le API richieste.
Collega la tua app a Firebase, registrandola e aggiungendo di Firebase alla tua app.
Aggiungi l'SDK e inizializza il servizio Vertex AI e il modello generativo all'interno dell'app.
Dopo aver collegato l'app a Firebase, aggiunto l'SDK e inizializzato Vertex AI e il modello generativo, puoi chiamare il Gemini API.
Inviare una richiesta di prompt di chat
Per creare una conversazione con più turni (ad esempio una chat), inizia con l'inizializzazione della chat chiamando startChat()
. Quindi utilizza
sendMessageStream()
(o sendMessage()
) per inviare un nuovo messaggio utente, che
il messaggio e la risposta verranno aggiunti alla cronologia chat.
Esistono due possibili opzioni per role
associate ai contenuti di una
conversazione:
user
: il ruolo che fornisce i prompt. Questo valore è predefinito per le chiamate asendMessageStream()
(osendMessage()
) e la funzione genera un'eccezione se viene passato un ruolo diverso.model
: il ruolo che fornisce le risposte. Questo ruolo può essere utilizzato quando chiamata astartChat()
conhistory
esistente.
Scegli se vuoi trasmettere la risposta in streaming (sendMessageStream
) o attendi
per la risposta finché non viene generato l'intero risultato (sendMessage
).
Streaming
Puoi ottenere interazioni più rapide non aspettando l'intero risultato della generazione del modello, ma utilizzando lo streaming per gestire i risultati parziali.
Senza streaming
In alternativa, puoi attendere l'intero risultato anziché lo streaming. il il risultato viene restituito solo dopo che il modello ha completato l'intera generazione e il processo di sviluppo.
Scopri come scegliere un modello Gemini e, facoltativamente, una posizione appropriata per il tuo caso d'uso e la tua app.
Cos'altro puoi fare?
- Scopri come conteggiare i token. prima di inviare lunghi prompt al modello.
- Configura Cloud Storage for Firebase in modo da poter includere file di grandi dimensioni nelle richieste multimodali utilizzando Cloud Storage URL. I file possono includere immagini, PDF, video e audio.
- Inizia a pensare alla preparazione per la produzione, inclusa la configurazione di Firebase App Check per proteggere Gemini API da abusi da parte di clienti non autorizzati.
Prova altre funzionalità di Gemini API
- Genera testo da prompt di solo testo.
- Genera testo da prompt multimodali (inclusi testo, immagini, PDF, video e audio).
- Usa le chiamate di funzione per connetterti di modelli generativi a sistemi e informazioni esterni.
Scopri come controllare la generazione di contenuti
- Comprendere la progettazione dei prompt, ad esempio: best practice, strategie e prompt di esempio.
- Configura i parametri del modello, come la temperatura e i token di output massimi.
- Utilizza le impostazioni di sicurezza per regolare probabilità di ricevere risposte che possono essere considerate dannose.
Scopri di più sui modelli Gemini
Scopri di più sulla disponibili per vari casi d'uso e le relative quote e prezzi.Inviare un feedback sulla tua esperienza con Vertex AI in Firebase