Participe do Firebase Summit on-line e presencialmente em 18 de outubro de 2022. Veja como o Firebase pode ajudar. Usando essa plataforma, é possível acelerar o desenvolvimento de apps, lançar seu aplicativo com confiança e fazer o escalonamento facilmente. Inscreva-se agora
Mantenha tudo organizado com as coleções Salve e categorize o conteúdo com base nas suas preferências.

Modelos personalizados

Se você usa modelos personalizados do TensorFlow Lite , o Firebase ML pode ajudar você a garantir que seus usuários sempre usem a melhor versão disponível do seu modelo personalizado. Quando você implanta seu modelo com o Firebase, o Firebase ML só faz o download do modelo quando necessário e atualiza automaticamente seus usuários com a versão mais recente.

iOS+ Android

Principais recursos

Implantação do modelo TensorFlow Lite Implante seus modelos usando o Firebase para reduzir o tamanho binário do seu aplicativo e garantir que ele esteja sempre usando a versão mais recente disponível do seu modelo
Inferência de ML no dispositivo Faça a inferência em um aplicativo Apple ou Android usando o interpretador TensorFlow Lite com seu modelo.
Atualizações automáticas de modelos Configure as condições em que seu aplicativo baixa automaticamente novas versões do seu modelo: quando o dispositivo do usuário está ocioso, carregando ou tem uma conexão Wi-Fi

Caminho de implementação

Treine seu modelo do TensorFlow Crie e treine um modelo personalizado usando o TensorFlow. Ou treine novamente um modelo existente que resolva um problema semelhante ao que você deseja alcançar.
Converter o modelo para TensorFlow Lite Converta seu modelo de HDF5 ou formato de gráfico congelado para TensorFlow Lite usando o conversor TensorFlow Lite .
Implante seu modelo do TensorFlow Lite no Firebase Opcional: quando você implanta seu modelo do TensorFlow Lite no Firebase e inclui o SDK do Firebase ML em seu aplicativo, o Firebase ML mantém seus usuários atualizados com a versão mais recente do seu modelo. Você pode configurá-lo para baixar automaticamente as atualizações do modelo quando o dispositivo do usuário estiver ocioso ou carregando ou tiver uma conexão Wi-Fi.
Use o modelo do TensorFlow Lite para inferência Use o interpretador do TensorFlow Lite em seu aplicativo Apple ou Android para realizar inferências com modelos implantados usando o Firebase.

Codelabs

Experimente alguns codelabs para aprender na prática como o Firebase pode ajudar você a usar os modelos do TensorFlow Lite com mais facilidade e eficiência.