Google se compromete a impulsar la igualdad racial para las comunidades afrodescendientes. Obtén información al respecto.
Se usó la API de Cloud Translation para traducir esta página.
Switch to English

Modelos personalizados

Si usa modelos personalizados de TensorFlow Lite , Firebase ML puede ayudarlo a garantizar que sus usuarios siempre usen la mejor versión disponible de su modelo personalizado. Cuando implementas tu modelo con Firebase, Firebase ML solo descarga el modelo cuando es necesario y actualiza automáticamente a tus usuarios con la última versión.

iOS Android

Capacidades clave

Implementación del modelo TensorFlow Lite Implemente sus modelos con Firebase para reducir el tamaño binario de su aplicación y para asegurarse de que su aplicación siempre use la versión más reciente disponible de su modelo.
Inferencia de AA en el dispositivo Realice inferencias en una aplicación de iOS o Android utilizando el intérprete de TensorFlow Lite con su modelo.
Actualizaciones automáticas de modelos Configure las condiciones bajo las cuales su aplicación descarga automáticamente nuevas versiones de su modelo: cuando el dispositivo del usuario está inactivo, se está cargando o tiene una conexión Wi-Fi

Ruta de implementación

Entrena tu modelo de TensorFlow Crea y entrena un modelo personalizado con TensorFlow. O vuelva a entrenar un modelo existente que resuelva un problema similar al que desea lograr.
Convierta el modelo a TensorFlow Lite Convierta su modelo de HDF5 o formato de gráfico congelado a TensorFlow Lite con el convertidor de TensorFlow Lite .
Implementa tu modelo de TensorFlow Lite en Firebase Opcional: cuando implementas tu modelo de TensorFlow Lite en Firebase e incluyes el SDK de Firebase ML en tu aplicación, Firebase ML mantiene a tus usuarios actualizados con la última versión de tu modelo. Puede configurarlo para descargar automáticamente las actualizaciones del modelo cuando el dispositivo del usuario está inactivo o cargando, o tiene una conexión Wi-Fi.
Usa el modelo de TensorFlow Lite para la inferencia Usa el intérprete de TensorFlow Lite en tu aplicación de iOS o Android para realizar inferencias con modelos implementados con Firebase.

Codelabs

Pruebe algunos laboratorios de código para aprender de manera práctica cómo Firebase puede ayudarlo a usar los modelos de TensorFlow Lite de manera más fácil y efectiva.