Práticas recomendadas e considerações sobre modelos


Nesta página, descrevemos algumas práticas recomendadas e considerações para modelos de comandos do servidor, incluindo recursos ainda não disponíveis. Muitos desses recursos vão ficar disponíveis à medida que os modelos de comandos do servidor evoluírem. Por isso, confira as notas da versão para ficar por dentro das atualizações.

Práticas recomendadas

Muitas dessas práticas recomendadas também são detalhadas em Gerenciar seus modelos.

Controle de versões dos modelos

Proteja seu modelo

  • Evite editar modelos usados na produção, a menos que você tenha testado a mudança completamente.

  • Bloqueie o modelo antes de ir para a produção.

    • O bloqueio de um modelo funciona como proteção contra edições não intencionais, mas nãoimpede totalmente a edição. Um membro do projeto com as permissões adequadas sempre pode desbloquear um modelo para edição.

    • Recomendamos bloquear modelos que estão sendo usados ativamente pelo código, principalmente o de produção.

Proteger o uso do Gemini API

  • Escreva uma validação de entrada forte para suas variáveis de entrada, o que pode ajudar com o seguinte:

    • Pode ajudar a proteger contra injeção de comando.
    • Ajuda a garantir que as solicitações sejam bem-sucedidas e que as respostas sejam as esperadas.
  • Aplique o modo somente modelo no seu projeto do Firebase para que todas as solicitações Gemini API via Firebase AI Logic usem um modelo de comando do servidor.

Recursos ainda não compatíveis com modelos de comandos do servidor

Muitos desses recursos vão ficar disponíveis à medida que os modelos de comandos do servidor evoluírem. Confira as notas da versão para atualizações.

Recursos do Firebase AI Logic ainda não são compatíveis com modelos

As seguintes funcionalidades padrão do Firebase AI Logic ainda não são compatíveis com os modelos de comandos do servidor:

  • Streaming bidirecional (Gemini Live API)
  • Inferência híbrida ou no dispositivo
  • Restringir a saída a uma lista de enums

Observe também que, se você usar o monitoramento de IA no console Firebase, o ID do modelo ainda não será preenchido em nenhum registro.

Elementos comuns do Dotprompt ainda não compatíveis com modelos

Os modelos de comando do servidor provavelmente vão oferecer suporte em breve aos seguintes elementos comuns do Dotprompt:

  • Usando a especificação de esquema JSON para esquemas de entrada e saída no seu frontmatter.

    • Essa especificação também não é compatível com solicitações de modelos que não são do servidor. No momento, oferecemos suporte apenas à especificação de esquema OpenAPI.
  • Declarar uma definição de campo curinga usando *.

  • Usar @key ou iterar geralmente nos campos de uma entrada de objeto (que é o caso em que @key é relevante).

  • Usando @root, que permite referenciar o contexto da variável raiz, independente do this atual.

Os modelos de comando do servidor provavelmente não serão compatíveis com os seguintes elementos comuns do Dotprompt:

  • Usando parciais, que são snippets de modelo reutilizáveis que podem ser incluídos em outros modelos.

Outras considerações

  • Por padrão, quando você usa a interface guiada no console Firebase, provisionamos o modelo em todas as regiões disponíveis para Firebase AI Logic. Se você usa o Vertex AI Gemini API e seu caso de uso exige restrições com base em local, especifique o local do modelo usando a API REST.

  • Se você quiser fornecer um modelo de solicitação do servidor como um arquivo (em vez de usar a interface guiada do console Firebase), use a API REST. Observe que os modelos de comandos do servidor não são compatíveis com o esquema definido no código do app e transmitido ao modelo.

  • Embora o modelo esteja no servidor, ele não pode interagir diretamente com os outros recursos do lado do servidor do projeto do Firebase (como um banco de dados), exceto URLs Cloud Storage for Firebase (que podem ser fornecidos como variáveis de entrada).