Únete de manera presencial y en línea a Firebase Summit el 18 de octubre de 2022. Descubre cómo Firebase puede ayudarte a acelerar el desarrollo de apps, a lanzar la tuya con confianza y a escalar con facilidad. Regístrate ahora
Organiza tus páginas con colecciones Guarda y categoriza el contenido según tus preferencias.

Modelos personalizados

Si usa modelos personalizados de TensorFlow Lite , Firebase ML puede ayudarlo a asegurarse de que sus usuarios siempre usen la mejor versión disponible de su modelo personalizado. Cuando implementa su modelo con Firebase, Firebase ML solo descarga el modelo cuando es necesario y actualiza automáticamente a sus usuarios con la versión más reciente.

iOS+ Android

Capacidades clave

Implementación del modelo TensorFlow Lite Implemente sus modelos con Firebase para reducir el tamaño binario de su aplicación y asegurarse de que su aplicación siempre use la versión más reciente disponible de su modelo.
Inferencia de ML en el dispositivo Realice inferencias en una aplicación de Apple o Android usando el intérprete de TensorFlow Lite con su modelo.
Actualizaciones automáticas de modelos Configure las condiciones bajo las cuales su aplicación descarga automáticamente nuevas versiones de su modelo: cuando el dispositivo del usuario está inactivo, se está cargando o tiene una conexión Wi-Fi

Ruta de implementación

Entrena tu modelo de TensorFlow Cree y entrene un modelo personalizado con TensorFlow. O vuelva a entrenar un modelo existente que resuelva un problema similar al que desea lograr.
Convierte el modelo a TensorFlow Lite Convierta su modelo de HDF5 o formato gráfico congelado a TensorFlow Lite usando el convertidor TensorFlow Lite .
Implemente su modelo de TensorFlow Lite en Firebase Opcional: cuando implementa su modelo de TensorFlow Lite en Firebase e incluye el SDK de Firebase ML en su aplicación, Firebase ML mantiene a sus usuarios actualizados con la versión más reciente de su modelo. Puede configurarlo para que descargue automáticamente las actualizaciones del modelo cuando el dispositivo del usuario esté inactivo o cargándose, o tenga una conexión Wi-Fi.
Use el modelo TensorFlow Lite para la inferencia Usa el intérprete de TensorFlow Lite en tu aplicación de Apple o Android para realizar inferencias con modelos implementados con Firebase.

Laboratorios de código

Pruebe algunos codelabs para aprender de forma práctica cómo Firebase puede ayudarlo a usar los modelos de TensorFlow Lite de manera más fácil y efectiva.