Catch up on everything announced at Firebase Summit, and learn how Firebase can help you accelerate app development and run your app with confidence. Learn More
Mantenha tudo organizado com as coleções Salve e categorize o conteúdo com base nas suas preferências.

Modelos personalizados

Se você usa modelos personalizados do TensorFlow Lite , o Firebase ML pode ajudar você a garantir que seus usuários sempre usem a melhor versão disponível do seu modelo personalizado. Quando você implanta seu modelo com o Firebase, o Firebase ML só faz o download do modelo quando necessário e atualiza automaticamente seus usuários com a versão mais recente.

iOS+ Android

Principais recursos

Implantação do modelo TensorFlow Lite Implante seus modelos usando o Firebase para reduzir o tamanho binário do seu aplicativo e garantir que ele esteja sempre usando a versão mais recente disponível do seu modelo
Inferência de ML no dispositivo Faça a inferência em um aplicativo Apple ou Android usando o interpretador TensorFlow Lite com seu modelo.
Atualizações automáticas de modelos Configure as condições em que seu aplicativo baixa automaticamente novas versões do seu modelo: quando o dispositivo do usuário está ocioso, carregando ou tem uma conexão Wi-Fi

Caminho de implementação

Treine seu modelo do TensorFlow Crie e treine um modelo personalizado usando o TensorFlow. Ou treine novamente um modelo existente que resolva um problema semelhante ao que você deseja alcançar.
Converter o modelo para TensorFlow Lite Converta seu modelo de HDF5 ou formato de gráfico congelado para TensorFlow Lite usando o conversor TensorFlow Lite .
Implante seu modelo do TensorFlow Lite no Firebase Opcional: quando você implanta seu modelo do TensorFlow Lite no Firebase e inclui o SDK do Firebase ML em seu aplicativo, o Firebase ML mantém seus usuários atualizados com a versão mais recente do seu modelo. Você pode configurá-lo para baixar automaticamente as atualizações do modelo quando o dispositivo do usuário estiver ocioso ou carregando ou tiver uma conexão Wi-Fi.
Use o modelo do TensorFlow Lite para inferência Use o interpretador do TensorFlow Lite em seu aplicativo Apple ou Android para realizar inferências com modelos implantados usando o Firebase.

Codelabs

Experimente alguns codelabs para aprender na prática como o Firebase pode ajudar você a usar os modelos do TensorFlow Lite com mais facilidade e eficiência.