Modelos personalizados

Se você for um desenvolvedor de ML experiente e os modelos pré-criados do Kit de ML não atenderem às suas necessidades, poderá usar um modelo personalizado do TensorFlow Lite com o Kit de ML.

Hospede seus modelos do TensorFlow Lite usando o Firebase ou empacote-os com seu aplicativo. Em seguida, use o SDK do kit de ML para realizar inferências usando a melhor versão disponível do seu modelo personalizado. Se você hospedar seu modelo no Firebase, o ML Kit atualizará automaticamente seus usuários com a versão mais recente.

Android _

Principais capacidades

Hospedagem de modelo TensorFlow Lite Hospede seus modelos usando o Firebase para reduzir o tamanho binário do seu aplicativo e garantir que ele sempre use a versão mais recente disponível do seu modelo
Inferência de ML no dispositivo Execute inferência em um aplicativo iOS ou Android usando o SDK do kit de ML para executar seu modelo personalizado do TensorFlow Lite. O modelo pode ser fornecido com o aplicativo, hospedado na nuvem ou ambos.
Substituição automática de modelo Especifique diversas fontes de modelo; use um modelo armazenado localmente quando o modelo hospedado na nuvem não estiver disponível
Atualizações automáticas de modelo Configure as condições sob as quais seu aplicativo baixa automaticamente novas versões do seu modelo: quando o dispositivo do usuário estiver ocioso, carregando ou tiver uma conexão Wi-Fi

Caminho de implementação

Treine seu modelo do TensorFlow Crie e treine um modelo personalizado usando o TensorFlow. Ou treine novamente um modelo existente que resolva um problema semelhante ao que você deseja alcançar. Consulte o Guia do desenvolvedor do TensorFlow Lite.
Converta o modelo para TensorFlow Lite Converta seu modelo do formato padrão do TensorFlow para o TensorFlow Lite congelando o gráfico e usando o TensorFlow Optimizing Converter (TOCO). Consulte o Guia do desenvolvedor do TensorFlow Lite.
Hospede seu modelo do TensorFlow Lite com o Firebase Opcional: quando você hospeda seu modelo do TensorFlow Lite com o Firebase e inclui o SDK do ML Kit no seu aplicativo, o ML Kit mantém os usuários atualizados com a versão mais recente do seu modelo. Você pode configurar o ML Kit para baixar automaticamente as atualizações do modelo quando o dispositivo do usuário estiver ocioso ou carregando, ou tiver uma conexão Wi-Fi.
Use o modelo do TensorFlow Lite para inferência Use as APIs de modelo personalizado do Kit de ML em seu aplicativo iOS ou Android para realizar inferências com seu modelo hospedado no Firebase ou em pacote de aplicativo.