Catch up on everything announced at Firebase Summit, and learn how Firebase can help you accelerate app development and run your app with confidence. Learn More
Mantenha tudo organizado com as coleções Salve e categorize o conteúdo com base nas suas preferências.

Modelos personalizados

Se você é um desenvolvedor de ML experiente e os modelos pré-criados do ML Kit não atendem às suas necessidades, você pode usar um modelo personalizado do TensorFlow Lite com o ML Kit.

Hospede seus modelos do TensorFlow Lite usando o Firebase ou empacote-os com seu aplicativo. Em seguida, use o ML Kit SDK para realizar inferências usando a melhor versão disponível do seu modelo personalizado. Se você hospedar seu modelo com o Firebase, o ML Kit atualizará automaticamente seus usuários com a versão mais recente.

iOS Android

Principais recursos

Hospedagem de modelos do TensorFlow Lite Hospede seus modelos usando o Firebase para reduzir o tamanho binário do seu aplicativo e garantir que seu aplicativo esteja sempre usando a versão mais recente disponível do seu modelo
Inferência de ML no dispositivo Faça a inferência em um aplicativo iOS ou Android usando o ML Kit SDK para executar seu modelo personalizado do TensorFlow Lite. O modelo pode ser empacotado com o aplicativo, hospedado na nuvem ou ambos.
Fallback automático do modelo Especifique várias origens de modelo; use um modelo armazenado localmente quando o modelo hospedado na nuvem não estiver disponível
Atualizações automáticas de modelos Configure as condições em que seu aplicativo baixa automaticamente novas versões do seu modelo: quando o dispositivo do usuário está ocioso, carregando ou tem uma conexão Wi-Fi

Caminho de implementação

Treine seu modelo do TensorFlow Crie e treine um modelo personalizado usando o TensorFlow. Ou treine novamente um modelo existente que resolva um problema semelhante ao que você deseja alcançar. Consulte o Guia do desenvolvedor do TensorFlow Lite.
Converter o modelo para TensorFlow Lite Converta seu modelo do formato padrão do TensorFlow para o TensorFlow Lite congelando o gráfico e usando o TensorFlow Optimizing Converter (TOCO). Consulte o Guia do desenvolvedor do TensorFlow Lite.
Hospede seu modelo do TensorFlow Lite com o Firebase Opcional: quando você hospeda seu modelo do TensorFlow Lite com o Firebase e inclui o SDK do kit de ML em seu aplicativo, o Kit de ML mantém seus usuários atualizados com a versão mais recente do seu modelo. Você pode configurar o ML Kit para baixar automaticamente as atualizações do modelo quando o dispositivo do usuário estiver ocioso ou carregando ou tiver uma conexão Wi-Fi.
Use o modelo do TensorFlow Lite para inferência Use as APIs de modelo personalizado do ML Kit em seu aplicativo iOS ou Android para realizar inferências com seu modelo hospedado pelo Firebase ou em pacote de aplicativos.