Flussi di lavoro avanzati per i modelli


Per Firebase AI Logic, la console Firebase fornisce un'interfaccia utente guidata per specificare i contenuti di un modello. Tuttavia, esistono diversi casi d'uso in cui potresti aver bisogno di modi più avanzati per configurare un modello, tra cui:

I workflow avanzati descritti in questa pagina utilizzano l'API REST Firebase AI Logic.

Informazioni importanti sull'utilizzo dell'API REST

  • Se un modello è sbloccato, puoi sovrascriverlo utilizzando lo stesso ID modello nella chiamata API REST. Un modello bloccato non può essere sovrascritto.

  • Quando crei un template di prompt del server tramite l'API REST e imposti la sua posizione su global, il template di prompt del server viene automaticamente sottoposto a provisioning in tutte le posizioni (inclusa global) ed è disponibile per l'utilizzo con entrambi i provider Gemini API. Tuttavia, se imposti un'altra località durante la creazione del modello tramite l'API REST, il modello sarà disponibile solo per Vertex AI Gemini API. Scopri di più su come impostare una posizione specifica per un modello più avanti in questa pagina.

    Tieni presente che quando utilizzi la UI guidata nella console Firebase, il modello viene eseguito il provisioning automaticamente anche in tutte le località (inclusa global) ed è disponibile per l'utilizzo con entrambi i provider Gemini API.

  • Per accedere a un modello di prompt del server in una richiesta templateGenerateContent o templateStreamGenerateContent tramite l'API REST, devi utilizzare l'endpoint specifico per il tuo fornitore Gemini API (Gemini Developer API | Vertex AI Gemini API).

(Solo Vertex AI Gemini API) Imposta una posizione specifica per un modello

Questa sezione si applica alle seguenti situazioni:

  • Il caso d'uso della tua app ha requisiti basati sulla posizione.

  • Le richieste della tua app utilizzano Vertex AI Gemini API e specifichi una posizione per accedere a un modello.

Come descritto in precedenza in questa pagina, un modello di prompt del server viene automaticamente fornito a tutte le regioni disponibili per Firebase AI Logic (inclusa global) se esegui una delle seguenti operazioni:

  • Crea il modello utilizzando la UI guidata nella console Firebase.
  • Crea il modello tramite l'API REST e imposta la sua posizione su global.

Ciò significa che puoi impostare la posizione nella richiesta della tua app su una qualsiasi delle regioni disponibili per Firebase AI Logic e il modello sarà disponibile. Non è necessario impostare la posizione nella richiesta dell'app a global.

Tuttavia, se vuoi che il tuo modello sia disponibile solo in una posizione specifica, devi creare il modello tramite l'API REST e impostare esplicitamente quella posizione specifica. Non impostare la posizione come global.

  1. Crea il modello chiamando l'endpoint projects.locations.templates.create. Specifica il location del modello (ad esempio europe-west4) durante la creazione di un PromptTemplate.

  2. Nella richiesta dell'app, assicurati che la posizione da cui accedi al modello corrisponda alla posizione del modello (europe-west4).

Tieni presente quanto segue:

  • L'elenco dei modelli nella console Firebase mostra solo i modelli di cui è stato eseguito il provisioning (almeno) nella località global.

  • Se utilizzi l'API REST per eseguire il provisioning di un modello in una posizione specifica (non global), la posizione in cui accedi al modello nella richiesta della tua app deve corrispondere alla posizione impostata per il modello. Se le località non corrispondono, la richiesta non andrà a buon fine (a causa delle norme di isolamento regionale).

Fornisci il modello come file

Puoi fornire i contenuti di un file di modello di prompt del server chiamando l'endpoint projects.locations.templates.create.