Modelos personalizados
Se você é um desenvolvedor experiente de ML e os modelos pré-criados do kit não atendem às suas necessidades, é possível usar um modelo personalizado do TensorFlow Lite com o kit de ML.
Hospede seus modelos do TensorFlow Lite usando o Firebase ou empacote-os com seu aplicativo. Em seguida, use o SDK do kit de ML para realizar a inferência usando a melhor versão disponível do seu modelo personalizado. Se você hospedar seu modelo no Firebase, o kit de ML atualizará automaticamente seus usuários para a versão mais recente.
Principais recursos
Hospedagem do modelo do Tensorflow Lite | Hospede seus modelos usando o Firebase para reduzir o tamanho binário do seu app e para garantir que ele esteja sempre usando a versão mais recente disponível do seu modelo. |
Inferência de ML no dispositivo | Realize inferências em um app para iOS ou Android usando o SDK do kit de ML para executar seu modelo personalizado do TensorFlow Lite. O modelo pode ser fornecido com o app, hospedado na nuvem ou ambos. |
Contingência automática de modelos | Especifique várias fontes. Use um modelo armazenado localmente quando o hospedado na nuvem estiver indisponível. |
Atualizações automáticas de modelos | Configure as condições do app para download automático de novas versões do seu modelo: quando o dispositivo do usuário estiver inativo, sendo carregado ou conectado a uma rede Wi-Fi |
Caminho de implementação
Treine seu modelo TensorFlow | Crie e treine um modelo personalizado usando o TensorFlow. Ou treine novamente um modelo existente que solucione um problema semelhante ao que você quer alcançar. Veja o Guia do desenvolvedor do TensorFlow Lite. | |
Converta o modelo para o TensorFlow Lite | Converta seu modelo do formato TensorFlow padrão para o TensorFlow Lite. Para isso, congele o gráfico e use o TensorFlow Optimizing Converter (TOCO). Veja o Guia do desenvolvedor do TensorFlow Lite. | |
Hospede seu modelo do TensorFlow Lite no Firebase | Opcional: quando você hospeda seu modelo do TensorFlow Lite no Firebase e inclui o SDK do kit de ML no seu app, o kit mantém seus usuários atualizados com a versão mais recente do seu modelo. Você pode configurar o kit de ML para fazer o download automático das atualizações do modelo quando o dispositivo do usuário estiver inativo, carregando ou conectado a uma rede Wi-Fi. | |
Use o modelo TensorFlow Lite para inferência | Use as APIs do modelo personalizado do kit de ML no seu app para iOS ou Android para realizar inferências no modelo hospedado no Firebase ou no modelo incluído em um app. |