Ir para o console

Modelos personalizadosplat_iosplat_android

Se você é um desenvolvedor experiente de aprendizado de máquina e os modelos pré-criados do kit não atendem às suas necessidades, é possível usar um modelo personalizado do TensorFlow Lite com o kit de aprendizado de máquina.

Hospede seus modelos do TensorFlow Lite no Firebase ou os inclua no seu app. Em seguida, use o SDK do kit de aprendizado de máquina para realizar inferência com a melhor versão disponível do seu modelo personalizado. Se você hospedar seu modelo no Firebase, o kit de aprendizado de máquina atualizará automaticamente seus usuários para a versão mais recente.

iOS Android

Principais recursos

Hospedagem do modelo do Tensorflow Lite Hospede seus modelos usando o Firebase para reduzir o tamanho binário do seu app e para garantir que ele esteja sempre usando a versão mais recente disponível do seu modelo
Inferência de aprendizado de máquina no dispositivo Realize inferências em um app para iOS ou Android usando o SDK do kit de aprendizado de máquina para executar seu modelo personalizado do TensorFlow Lite. O modelo pode ser fornecido com o app, hospedado na nuvem ou ambos.
Fallback de modelo automático Especifique várias fontes. Use um modelo armazenado localmente quando o hospedado na nuvem estiver indisponível.
Atualizações automáticas de modelo Configure as condições do app para download automático de novas versões do seu modelo: quando o dispositivo do usuário estiver inativo, sendo carregado ou conectado a uma rede Wi-Fi

Caminho de implementação

Treine seu modelo TensorFlow Crie e treine um modelo personalizado usando o TensorFlow. Ou treine novamente um modelo existente que solucione um problema semelhante ao que você quer alcançar. Veja o Guia do desenvolvedor do TensorFlow Lite.
Converta o modelo para o TensorFlow Lite Converta seu modelo do formato TensorFlow padrão para o TensorFlow Lite. Para isso, congele o gráfico e use o TensorFlow Optimizing Converter (TOCO). Veja o Guia do desenvolvedor do TensorFlow Lite.
Hospede seu modelo do TensorFlow Lite no Firebase Opcional: quando você hospeda seu modelo do TensorFlow Lite no Firebase e inclui o SDK do kit de aprendizado de máquina no seu app, o kit mantém seus usuários atualizados com a versão mais recente do seu modelo. Você pode configurar o ML Kit para fazer o download automático das atualizações do modelo quando o dispositivo do usuário estiver inativo, carregando ou conectado a uma rede Wi-Fi.
Use o modelo TensorFlow Lite para inferência Use as APIs do modelo personalizado do kit de ML no seu app para iOS ou Android para realizar inferências no modelo hospedado no Firebase ou no modelo no pacote de apps.