Fluxos de trabalho avançados para modelos


Para Firebase AI Logic, o console Firebase oferece uma interface guiada para você especificar o conteúdo de um modelo. No entanto, há vários casos de uso em que você pode precisar de maneiras mais avançadas de configurar um modelo, incluindo:

Os fluxos de trabalho avançados descritos nesta página usam a Firebase AI Logic API REST.

Informações importantes sobre o uso da API REST

  • Se um modelo estiver desbloqueado, você poderá substituí-lo usando o mesmo ID de modelo na chamada de API REST. Não é possível substituir um modelo bloqueado.

  • Ao criar um modelo de comando do servidor pela API REST e definir o local como global, o modelo de comando do servidor é provisionado automaticamente em todos os locais (incluindo global) e fica disponível para uso com ambos os provedores Gemini API. No entanto, se você definir qualquer outro local ao criar o modelo pela API REST, o modelo estará disponível apenas para a Vertex AI Gemini API. Saiba mais sobre como definir um local específico para um modelo mais adiante nesta página.

    Observe que, ao usar a interface guiada no console Firebase, o modelo também é provisionado automaticamente em todos os locais (incluindo global), e fica disponível para uso com ambos os provedores Gemini API.

  • Para acessar um modelo de comando do servidor em uma solicitação templateGenerateContent ou templateStreamGenerateContent pela API REST, use o endpoint específico do provedor Gemini API (Gemini Developer API | Vertex AI Gemini API).

(Vertex AI Gemini API somente) Definir um local específico para um modelo

Esta seção é aplicável a estas situações:

  • O caso de uso do seu app tem requisitos baseados em localização.

  • As solicitações do seu app usam o Vertex AI Gemini API e você especifica um local para acessar um modelo.

Conforme descrito anteriormente nesta página, um modelo de comando do servidor é provisionado automaticamente para todas as regiões disponíveis para Firebase AI Logic (incluindo global) se você fizer uma destas ações:

  • Criar o modelo usando a interface guiada no console Firebase.
  • Criar o modelo pela API REST e definir o local como global.

Isso significa que você pode definir o local na solicitação do seu app para qualquer uma das regiões disponíveis para Firebase AI Logic, e o modelo estará disponível. Não é necessário definir o local na solicitação do seu app como global.

No entanto, se você quiser que o modelo só esteja disponível em um local específico, crie o modelo pela API REST e defina esse local específico explicitamente. Não defina o local como global.

  1. Crie o modelo chamando o projects.locations.templates.create endpoint. Especifique o location do modelo (por exemplo, europe-west4) como parte da criação de um PromptTemplate.

  2. Na solicitação do seu app, verifique se o local em que você acessa o modelo corresponde ao local do modelo (europe-west4).

Atente para o seguinte:

  • A lista de modelos no console Firebase mostra apenas modelos que são provisionados (no mínimo) no local global.

  • Se você usar a API REST para provisionar um modelo em um local específico (que não seja global), o local em que você acessa o modelo na solicitação do seu app precisa corresponder ao local definido para o modelo. Se os locais não corresponderem, a solicitação vai falhar (devido a políticas de isolamento regional).

Fornecer o modelo como um arquivo

Você pode fornecer o conteúdo de um arquivo de modelo de comando do servidor chamando o projects.locations.templates.create endpoint.