Modelos personalizados

Si eres un desarrollador con experiencia en el AA, pero los modelos integrados del ML Kit no satisfacen tus necesidades, puedes usar un modelo personalizado de TensorFlow Lite con el ML Kit.

Aloja tus modelos de TensorFlow Lite con Firebase o empaquétalos con tu app. Luego, usa el SDK del ML Kit para realizar inferencias. Para ello, usa la mejor versión disponible de tu modelo personalizado. Si alojas tu modelo con Firebase, el ML Kit actualiza automáticamente a tus usuarios con la versión más reciente.

iOS Android

Funciones clave

Hosting del modelo de TensorFlow Lite Aloja tus modelos con Firebase para reducir el tamaño binario de tu app y para asegurarte de que esta siempre utilice la versión disponible más reciente de tu modelo.
Inferencia de AA en el dispositivo Realiza inferencias en una app para iOS o Android mediante el uso del SDK del ML Kit para ejecutar tu modelo de TensorFlow Lite personalizado. El modelo puede asociarse con la app, alojarse en Cloud, o ambas opciones.
Resguardo automático del modelo Especifica múltiples fuentes del modelo; usa un modelo almacenado localmente cuando no esté disponible el alojado en la nube.
Actualizaciones de modelo automáticas Configura las condiciones según las cuales tu app debe descargar automáticamente nuevas versiones de tu modelo: cuando el dispositivo del usuario esté inactivo o cargándose, o cuente con una conexión Wi-Fi.

Ruta de implementación

Entrena tu modelo de TensorFlow Crea y entrena un modelo personalizado con TensorFlow. O bien, vuelve a entrenar un modelo existente que solucione un problema similar a lo que quieres lograr. Consulta la Guía para desarrolladores de TensorFlow Lite.
Convierte el modelo en TensorFlow Lite Para convertir tu modelo de un formato estándar de TensorFlow a TensorFlow Lite, puedes inmovilizar el gráfico y usar el Convertidor de optimización de TensorFlow (TOCO). Consulta la Guía para desarrolladores de TensorFlow Lite.
Aloja tu modelo de TensorFlow Lite a través de Firebase Opcional: Cuando alojas tu modelo de TensorFlow Lite a través de Firebase y agregas el SDK del ML Kit, este último mantiene a tus usuarios actualizados con la versión más reciente de tu modelo. Puedes configurar el ML Kit para que descargue actualizaciones para el modelo de manera automática cuando el dispositivo del usuario esté inactivo o cargándose, o cuente con una conexión Wi-Fi.
Usa el modelo de TensorFlow Lite para realizar inferencias Usa las API del modelo personalizado del ML Kit en tu app para iOS o Android a fin de realizar inferencias con el modelo alojado en Firebase o asociado con la app.

ML Kit para Firebase brindó a los desarrolladores de apps soluciones de AA listas para usar. En las apps nuevas, se deben utilizar la biblioteca independiente de ML Kit para el AA integrado en el dispositivo y el AA de Firebase para el AA basado en la nube.

Última actualización: Feb 28, 2025

ML Kit para Firebase brindó a los desarrolladores de apps soluciones de AA listas para usar. En las apps nuevas, se deben utilizar la biblioteca independiente de ML Kit para el AA integrado en el dispositivo y el AA de Firebase para el AA basado en la nube.

Última actualización: Feb 28, 2025

El AA de Firebase te permite agregar funciones de aprendizaje automático potentes a tu app con APIs listas para usar y compatibilidad con la implementación de modelos personalizados.

Última actualización: Feb 28, 2025