Pour Firebase AI Logic, la console Firebase fournit une interface utilisateur guidée qui vous permet de spécifier le contenu d'un modèle. Toutefois, dans plusieurs cas d'utilisation, vous devrez peut-être configurer un modèle de manière plus avancée, par exemple :
Les workflows avancés décrits sur cette page utilisent l' Firebase AI Logic API REST.
Informations importantes sur l'utilisation de l'API REST
Si un modèle est déverrouillé, vous pouvez l'écraser en utilisant le même ID de modèle dans votre appel d'API REST. Un modèle verrouillé ne peut pas être écrasé.
Lorsque vous créez un modèle de prompt côté serveur via l'API REST et que vous définissez son emplacement sur
global, le modèle de prompt côté serveur est automatiquement provisionné dans tous les emplacements (y comprisglobal) et peut être utilisé avec les deux fournisseurs Gemini API. Toutefois, si vous définissez un autre emplacement lors de la création du modèle via l'API REST, le modèle ne sera disponible que pour l'Vertex AI Gemini API. Pour en savoir plus sur la définition d'un emplacement spécifique pour un modèle , consultez la suite de cette page.Notez que lorsque vous utilisez l'interface utilisateur guidée dans la console Firebase, le modèle est également provisionné automatiquement dans tous les emplacements (y compris
global), et il peut être utilisé avec les deux fournisseurs Gemini API.Pour accéder à un modèle de prompt côté serveur dans une requête
templateGenerateContentoutemplateStreamGenerateContentvia l'API REST, vous devez utiliser le point de terminaison spécifique à votre fournisseur Gemini API (Gemini Developer API | Vertex AI Gemini API).
(Vertex AI Gemini API uniquement) Définir un emplacement spécifique pour un modèle
Cette section s'applique aux situations suivantes :
Le cas d'utilisation de votre application présente des exigences basées sur la localisation.
Les requêtes de votre application utilisent le Vertex AI Gemini API et vous spécifiez un emplacement pour accéder à un modèle.
Comme décrit précédemment sur cette page, un modèle de prompt côté serveur est automatiquement
provisionné dans toutes
les régions disponibles pour Firebase AI Logic
(y compris global) si vous effectuez l'une des opérations suivantes :
- Créez le modèle à l'aide de l'interface utilisateur guidée dans la console Firebase.
- Créez le modèle via l'API REST et définissez son emplacement sur
global.
Cela signifie que vous pouvez définir l'emplacement dans la requête de votre application sur l'une des
régions disponibles pour Firebase AI Logic, et le modèle sera disponible.
Vous n'êtes pas obligé de définir l'emplacement sur global dans la requête de votre application.
Toutefois, si vous souhaitez que votre modèle
ne soit disponible que dans un emplacement spécifique, vous devez le créer via l'API REST et définir explicitement cet emplacement spécifique. Ne définissez pas l'emplacement sur global.
Créez le modèle en appelant le
projects.locations.templates.createpoint de terminaison. Spécifiez lelocationdu modèle (par exemple,europe-west4) lors de la création d'unPromptTemplate.Dans la requête de votre application, assurez-vous que l' emplacement où vous accédez au modèle correspond à l'emplacement du modèle (
europe-west4).
Important :
La liste des modèles dans la console Firebase n'affiche que les modèles provisionnés (au minimum) dans l'emplacement
global.Si vous utilisez l'API REST pour provisionner un modèle dans un emplacement spécifique (autre que pas
global), l'emplacement où vous accédez au modèle dans la requête de votre application doit correspondre à l'emplacement défini pour le modèle. Si les emplacements ne correspondent pas, la requête échoue (en raison des règles d'isolation régionale).
Fournir le modèle sous forme de fichier
Vous pouvez fournir le contenu d'un fichier de modèle de prompt côté serveur en appelant le
projects.locations.templates.create point de terminaison.