Para Firebase AI Logic, o console Firebase oferece uma interface guiada para você especificar o conteúdo de um modelo. No entanto, há vários casos de uso em que você pode precisar de maneiras mais avançadas de configurar um modelo, incluindo:
Os fluxos de trabalho avançados descritos nesta página usam a Firebase AI Logic API REST.
Informações importantes sobre o uso da API REST
Se um modelo estiver desbloqueado, você poderá substituí-lo usando o mesmo ID de modelo na chamada de API REST. Não é possível substituir um modelo bloqueado.
Ao criar um modelo de comando do servidor pela API REST e definir o local como
global, o modelo de comando do servidor é provisionado automaticamente em todos os locais (incluindoglobal) e fica disponível para uso com ambos os provedores Gemini API. No entanto, se você definir qualquer outro local ao criar o modelo pela API REST, o modelo estará disponível apenas para a Vertex AI Gemini API. Saiba mais sobre como definir um local específico para um modelo mais adiante nesta página.Observe que, ao usar a interface guiada no console Firebase, o modelo também é provisionado automaticamente em todos os locais (incluindo
global), e fica disponível para uso com ambos os provedores Gemini API.Para acessar um modelo de comando do servidor em uma solicitação
templateGenerateContentoutemplateStreamGenerateContentpela API REST, use o endpoint específico do provedor Gemini API (Gemini Developer API | Vertex AI Gemini API).
(Vertex AI Gemini API somente) Definir um local específico para um modelo
Esta seção é aplicável a estas situações:
O caso de uso do seu app tem requisitos baseados em localização.
As solicitações do seu app usam o Vertex AI Gemini API e você especifica um local para acessar um modelo.
Conforme descrito anteriormente nesta página, um modelo de comando do servidor é provisionado automaticamente
para todas
as regiões disponíveis para Firebase AI Logic
(incluindo global) se você fizer uma destas ações:
- Criar o modelo usando a interface guiada no console Firebase.
- Criar o modelo pela API REST e definir o local como
global.
Isso significa que você pode definir o local na solicitação do seu app para qualquer uma das
regiões disponíveis para Firebase AI Logic, e o modelo estará disponível.
Não é necessário definir o local na solicitação do seu app como global.
No entanto, se você quiser que o modelo
só esteja disponível em um local específico, crie o
modelo pela API REST e defina esse local específico explicitamente. Não defina
o local como global.
Crie o modelo chamando o
projects.locations.templates.createendpoint. Especifique olocationdo modelo (por exemplo,europe-west4) como parte da criação de umPromptTemplate.Na solicitação do seu app, verifique se o local em que você acessa o modelo corresponde ao local do modelo (
europe-west4).
Atente para o seguinte:
A lista de modelos no console Firebase mostra apenas modelos que são provisionados (no mínimo) no local
global.Se você usar a API REST para provisionar um modelo em um local específico (que não seja
global), o local em que você acessa o modelo na solicitação do seu app precisa corresponder ao local definido para o modelo. Se os locais não corresponderem, a solicitação vai falhar (devido a políticas de isolamento regional).
Fornecer o modelo como um arquivo
Você pode fornecer o conteúdo de um arquivo de modelo de comando do servidor chamando o
projects.locations.templates.create endpoint.