Workflows avancés pour les modèles


Pour Firebase AI Logic, la console Firebase fournit une interface utilisateur guidée qui vous permet de spécifier le contenu d'un modèle. Toutefois, dans plusieurs cas d'utilisation, vous devrez peut-être configurer un modèle de manière plus avancée, par exemple :

Les workflows avancés décrits sur cette page utilisent l' Firebase AI Logic API REST.

Informations importantes sur l'utilisation de l'API REST

  • Si un modèle est déverrouillé, vous pouvez l'écraser en utilisant le même ID de modèle dans votre appel d'API REST. Un modèle verrouillé ne peut pas être écrasé.

  • Lorsque vous créez un modèle de prompt côté serveur via l'API REST et que vous définissez son emplacement sur global, le modèle de prompt côté serveur est automatiquement provisionné dans tous les emplacements (y compris global) et peut être utilisé avec les deux fournisseurs Gemini API. Toutefois, si vous définissez un autre emplacement lors de la création du modèle via l'API REST, le modèle ne sera disponible que pour l'Vertex AI Gemini API. Pour en savoir plus sur la définition d'un emplacement spécifique pour un modèle , consultez la suite de cette page.

    Notez que lorsque vous utilisez l'interface utilisateur guidée dans la console Firebase, le modèle est également provisionné automatiquement dans tous les emplacements (y compris global), et il peut être utilisé avec les deux fournisseurs Gemini API.

  • Pour accéder à un modèle de prompt côté serveur dans une requête templateGenerateContent ou templateStreamGenerateContent via l'API REST, vous devez utiliser le point de terminaison spécifique à votre fournisseur Gemini API (Gemini Developer API | Vertex AI Gemini API).

(Vertex AI Gemini API uniquement) Définir un emplacement spécifique pour un modèle

Cette section s'applique aux situations suivantes :

  • Le cas d'utilisation de votre application présente des exigences basées sur la localisation.

  • Les requêtes de votre application utilisent le Vertex AI Gemini API et vous spécifiez un emplacement pour accéder à un modèle.

Comme décrit précédemment sur cette page, un modèle de prompt côté serveur est automatiquement provisionné dans toutes les régions disponibles pour Firebase AI Logic (y compris global) si vous effectuez l'une des opérations suivantes :

  • Créez le modèle à l'aide de l'interface utilisateur guidée dans la console Firebase.
  • Créez le modèle via l'API REST et définissez son emplacement sur global.

Cela signifie que vous pouvez définir l'emplacement dans la requête de votre application sur l'une des régions disponibles pour Firebase AI Logic, et le modèle sera disponible. Vous n'êtes pas obligé de définir l'emplacement sur global dans la requête de votre application.

Toutefois, si vous souhaitez que votre modèle ne soit disponible que dans un emplacement spécifique, vous devez le créer via l'API REST et définir explicitement cet emplacement spécifique. Ne définissez pas l'emplacement sur global.

  1. Créez le modèle en appelant le projects.locations.templates.create point de terminaison. Spécifiez le location du modèle (par exemple, europe-west4) lors de la création d'un PromptTemplate.

  2. Dans la requête de votre application, assurez-vous que l' emplacement où vous accédez au modèle correspond à l'emplacement du modèle (europe-west4).

Important :

  • La liste des modèles dans la console Firebase n'affiche que les modèles provisionnés (au minimum) dans l'emplacement global.

  • Si vous utilisez l'API REST pour provisionner un modèle dans un emplacement spécifique (autre que pas global), l'emplacement où vous accédez au modèle dans la requête de votre application doit correspondre à l'emplacement défini pour le modèle. Si les emplacements ne correspondent pas, la requête échoue (en raison des règles d'isolation régionale).

Fournir le modèle sous forme de fichier

Vous pouvez fournir le contenu d'un fichier de modèle de prompt côté serveur en appelant le projects.locations.templates.create point de terminaison.