Modelos personalizados
Se você for um desenvolvedor de ML experiente e os modelos pré-criados do Kit de ML não atenderem às suas necessidades, poderá usar um modelo personalizado do TensorFlow Lite com o Kit de ML.
Hospede seus modelos do TensorFlow Lite usando o Firebase ou empacote-os com seu aplicativo. Em seguida, use o SDK do kit de ML para realizar inferências usando a melhor versão disponível do seu modelo personalizado. Se você hospedar seu modelo no Firebase, o ML Kit atualizará automaticamente seus usuários com a versão mais recente.
Principais capacidades
Hospedagem de modelo TensorFlow Lite | Hospede seus modelos usando o Firebase para reduzir o tamanho binário do seu aplicativo e garantir que ele sempre use a versão mais recente disponível do seu modelo |
Inferência de ML no dispositivo | Execute inferência em um aplicativo iOS ou Android usando o SDK do kit de ML para executar seu modelo personalizado do TensorFlow Lite. O modelo pode ser fornecido com o aplicativo, hospedado na nuvem ou ambos. |
Substituição automática de modelo | Especifique diversas fontes de modelo; use um modelo armazenado localmente quando o modelo hospedado na nuvem não estiver disponível |
Atualizações automáticas de modelo | Configure as condições sob as quais seu aplicativo baixa automaticamente novas versões do seu modelo: quando o dispositivo do usuário estiver ocioso, carregando ou tiver uma conexão Wi-Fi |
Caminho de implementação
Treine seu modelo do TensorFlow | Crie e treine um modelo personalizado usando o TensorFlow. Ou treine novamente um modelo existente que resolva um problema semelhante ao que você deseja alcançar. Consulte o Guia do desenvolvedor do TensorFlow Lite. | |
Converta o modelo para TensorFlow Lite | Converta seu modelo do formato padrão do TensorFlow para o TensorFlow Lite congelando o gráfico e usando o TensorFlow Optimizing Converter (TOCO). Consulte o Guia do desenvolvedor do TensorFlow Lite. | |
Hospede seu modelo do TensorFlow Lite com o Firebase | Opcional: quando você hospeda seu modelo do TensorFlow Lite com o Firebase e inclui o SDK do ML Kit no seu aplicativo, o ML Kit mantém os usuários atualizados com a versão mais recente do seu modelo. Você pode configurar o ML Kit para baixar automaticamente as atualizações do modelo quando o dispositivo do usuário estiver ocioso ou carregando, ou tiver uma conexão Wi-Fi. | |
Use o modelo do TensorFlow Lite para inferência | Use as APIs de modelo personalizado do Kit de ML em seu aplicativo iOS ou Android para realizar inferências com seu modelo hospedado no Firebase ou em pacote de aplicativo. |