Modelos personalizadosplat_iosplat_android

Si eres un desarrollador con experiencia en AA, pero los modelos integrados del Kit de AA no satisfacen tus necesidades, puedes usar un modelo personalizado de TensorFlow Lite con el Kit de AA.

Aloja tus modelos de TensorFlow Lite con Firebase o empaquétalos con tu app. A continuación, usa el SDK del Kit de AA para realizar inferencias. Para ello, usa la mejor versión disponible de tu modelo personalizado. Si alojas tu modelo con Firebase, el Kit de AA actualiza automáticamente a tus usuarios con la versión más reciente.

iOS Android

Funciones clave

Hosting del modelo TensorFlow Lite Aloja tus modelos con Firebase para reducir el tamaño binario de tu app y para asegurarte de que esta siempre utilice la versión disponible más reciente de tu modelo.
Inferencia de AA en el dispositivo Realiza inferencias en una app para iOS o Android mediante el uso del SDK del Kit de AA para ejecutar tu modelo de TensorFlow Lite personalizado. El modelo puede asociarse con la app, alojarse en Cloud, o ambas opciones.
Resguardo automático del modelo Especifica múltiples fuentes del modelo; usa un modelo almacenado localmente cuando no esté disponible el alojado en la nube.
Actualizaciones de modelo automáticas Configura las condiciones según las cuales tu app debe descargar automáticamente nuevas versiones de tu modelo: cuando el dispositivo del usuario esté inactivo o cargándose, o cuente con una conexión Wi-Fi.

Ruta de implementación

Entrena tu modelo de TensorFlow Crea y entrena un modelo personalizado con TensorFlow. O bien, vuelve a entrenar un modelo existente que solucione un problema similar a lo que quieres lograr. Consulta la Guía para desarrolladores de TensorFlow Lite.
Convierte el modelo a TensorFlow Lite Para convertir tu modelo de un formato estándar de TensorFlow a TensorFlow Lite, puedes inmovilizar el gráfico y usar el Convertidor de optimización de TensorFlow (TOCO). Consulta la Guía para desarrolladores de TensorFlow Lite.
Aloja tu modelo de TensorFlow Lite a través de Firebase Opcional: Cuando alojas tu modelo de TensorFlow Lite a través de Firebase y agregas el SDK del Kit de AA, este último mantiene a tus usuarios actualizados con la versión más reciente de tu modelo. Puedes configurar el Kit de AA para que descargue actualizaciones para el modelo de manera automática cuando el dispositivo del usuario esté inactivo o cargándose, o cuente con una conexión Wi-Fi.
Usa el modelo de TensorFlow Lite para realizar inferencias Usa las API del modelo personalizado del Kit de AA en tu app para iOS o Android a fin de realizar inferencias con el modelo alojado en Firebase o asociado con la app.

Enviar comentarios sobre…

¿Necesitas ayuda? Visita nuestra página de asistencia.