Práticas recomendadas e considerações sobre modelos


Nesta página, descrevemos algumas práticas recomendadas e considerações para modelos de comandos do servidor, incluindo recursos ainda não disponíveis. Muitos desses recursos não estão disponíveis na versão inicial dos modelos de solicitação do servidor. Confira as notas da versão para atualizações.

Práticas recomendadas

Muitas dessas práticas recomendadas também são detalhadas em Gerenciar seus modelos.

Controlar a versão dos modelos

Proteja seu modelo

  • Bloqueie o modelo antes de ir para a produção. Evite editar modelos usados na produção.

    • O bloqueio de um modelo serve como proteção contra edições não intencionais, mas nãoimpede totalmente a edição. Um membro do projeto com as permissões adequadas sempre pode desbloquear um modelo para edição.

    • Recomendamos bloquear modelos que estão sendo usados ativamente pelo código, principalmente o de produção.

  • Escreva uma validação de entrada forte para suas variáveis de entrada, o que pode ajudar com o seguinte:

    • Pode ajudar a proteger contra injeção de comandos.
    • Ajuda a garantir que as solicitações sejam bem-sucedidas e que as respostas sejam as esperadas.

Recursos ainda não disponíveis

Muitos desses recursos ainda não estão disponíveis na versão inicial. Confira as observações da versão para atualizações.

Recursos do Firebase AI Logic que ainda não estão disponíveis

No momento, os modelos de comandos do servidor não são compatíveis com os seguintes recursos do Firebase AI Logic. Vários desses recursos serão lançados em breve.

  • Chat
  • Usar ferramentas (incluindo chamada de função e embasamento com a Pesquisa Google)
  • Edição iterativa de imagens (chat) com modelos Gemini (requer chat)
  • Editar imagens com modelos Imagen
  • Streaming bidirecional (Gemini Live API)
  • Híbrido no dispositivo
  • Restringir a saída a uma lista de enums

Observe também que, se você usar o AI monitoring no console Firebase, o ID do modelo ainda não será preenchido em nenhum registro.

Elementos comuns do Dotprompt ainda não compatíveis

Os modelos de comando do servidor provavelmente em breve vão oferecer suporte aos seguintes elementos comuns do Dotprompt:

  • Usando a especificação de esquema JSON para esquemas de entrada e saída no seu frontmatter.

    • Essa especificação também não é compatível com solicitações de modelos que não são do servidor. No momento, oferecemos suporte apenas à especificação de esquema OpenAPI.
  • Declarar uma definição de campo de caractere curinga usando *.

  • Usar @key ou iterar geralmente nos campos de uma entrada de objeto (que é o caso em que @key é relevante).

  • Usando @root, que permite referenciar o contexto da variável raiz, independente do this atual.

Os modelos de comando do servidor provavelmente não serão compatíveis com os seguintes elementos comuns do Dotprompt:

  • Usando parciais, que são snippets de modelo reutilizáveis que podem ser incluídos em outros modelos.

Outras considerações

  • Por padrão, quando você usa a interface guiada no console Firebase, provisionamos o modelo em todas as regiões disponíveis para Firebase AI Logic. Se você usa o Vertex AI Gemini API e seu caso de uso exige restrições com base em local, especifique o local do modelo usando a API REST.

  • Se você quiser fornecer um modelo de solicitação do servidor como um arquivo (em vez de usar a interface guiada do console Firebase), use a API REST. Os modelos de comandos do servidor não são compatíveis com o esquema definido no código do app e transmitido ao modelo.

  • Embora o modelo esteja no servidor, ele não pode interagir diretamente com os outros recursos do lado do servidor do projeto do Firebase (como um banco de dados), exceto URLs Cloud Storage for Firebase (que podem ser fornecidos como variáveis de entrada).