Fluxos de trabalho avançados para modelos


Para Firebase AI Logic, o console Firebase oferece uma interface guiada para especificar o conteúdo de um modelo. No entanto, há vários casos de uso em que você pode precisar de maneiras mais avançadas de configurar um modelo, incluindo:

Os fluxos de trabalho avançados descritos nesta página usam a API REST Firebase AI Logic.

Informações importantes sobre o uso da API REST

  • Se um modelo estiver desbloqueado, será possível substituí-lo usando o mesmo ID na chamada de API REST. Não é possível substituir um modelo bloqueado.

  • Quando você cria um modelo de comando do servidor usando a API REST e define o local como global, o modelo de comando do servidor é provisionado automaticamente em todos os locais (incluindo global) e fica disponível para uso com ambos os provedores Gemini API. No entanto, se você definir outro local ao criar o modelo usando a API REST, ele estará disponível para o Vertex AI Gemini API. Saiba mais sobre como definir um local específico para um modelo mais adiante nesta página.

    Observe que, ao usar a interface guiada no console do Firebase, o modelo também é provisionado automaticamente em todos os locais (incluindo global) e está disponível para uso com ambos os provedores Gemini API.

  • Para acessar um modelo de solicitação do servidor em uma solicitação templateGenerateContent ou templateStreamGenerateContent pela API REST, use o endpoint específico do seu provedor de Gemini API (Gemini Developer API | Vertex AI Gemini API).

(Somente Vertex AI Gemini API) Definir um local específico para um modelo

Esta seção é aplicável às seguintes situações:

  • O caso de uso do app tem requisitos baseados em localização.

  • As solicitações do app usam o Vertex AI Gemini API, e você especifica um local para acessar um modelo.

Conforme descrito anteriormente nesta página, um modelo de solicitação do servidor é provisionado automaticamente para todas as regiões disponíveis para Firebase AI Logic (incluindo global) se você fizer uma destas ações:

  • Crie o modelo usando a interface guiada no console Firebase.
  • Crie o modelo usando a API REST e e defina o local como global.

Isso significa que você pode definir a localização na solicitação do app para qualquer uma das regiões disponíveis para Firebase AI Logic, e o modelo vai estar disponível. Não é necessário definir a localização na solicitação do app para global.

No entanto, se você quiser que seu modelo esteja disponível apenas em um local específico, crie o modelo usando a API REST e defina esse local específico de maneira explícita. Não defina o local como global.

  1. Crie o modelo chamando o endpoint projects.locations.templates.create. Especifique o location do modelo (por exemplo, europe-west4) ao criar um PromptTemplate.

  2. Na solicitação do app, verifique se o local em que você acessa o modelo corresponde ao local do modelo (europe-west4).

Atente para o seguinte:

  • A lista de modelos no console do Firebase mostra apenas os modelos provisionados (no mínimo) no local global.

  • Se você usar a API REST para provisionar um modelo em um local específico (que não é global), o local em que você acessa o modelo na solicitação do app precisa corresponder ao local definido para o modelo. Se os locais não corresponderem, a solicitação vai falhar devido às políticas de isolamento regional.

Fornecer o modelo como um arquivo

Você pode fornecer o conteúdo de um arquivo de modelo de solicitação do servidor chamando o endpoint projects.locations.templates.create.