مدل های سفارشی
اگر از مدلهای سفارشی TensorFlow Lite استفاده میکنید، Firebase ML میتواند به شما کمک کند مطمئن شوید که کاربران همیشه از بهترین نسخه در دسترس مدل سفارشی شما استفاده میکنند. وقتی مدل خود را با Firebase استقرار میکنید، Firebase ML فقط در صورت نیاز مدل را دانلود میکند و بهطور خودکار کاربران شما را با آخرین نسخه بهروزرسانی میکند.
برای شروع آماده اید؟ پلتفرم خود را انتخاب کنید:
قابلیت های کلیدی
استقرار مدل TensorFlow Lite | مدلهای خود را با استفاده از Firebase مستقر کنید تا اندازه باینری برنامه خود را کاهش دهید و مطمئن شوید که برنامه شما همیشه از جدیدترین نسخه موجود مدل شما استفاده میکند. |
استنتاج ML روی دستگاه | با استفاده از مفسر TensorFlow Lite با مدل خود، استنتاج را در یک برنامه Apple یا Android انجام دهید. |
به روز رسانی خودکار مدل | شرایطی را پیکربندی کنید که تحت آن برنامه شما به طور خودکار نسخه های جدید مدل شما را دانلود کند: زمانی که دستگاه کاربر بیکار است، در حال شارژ است یا اتصال Wi-Fi دارد. |
مسیر پیاده سازی
مدل TensorFlow خود را آموزش دهید | با استفاده از TensorFlow یک مدل سفارشی بسازید و آموزش دهید. یا یک مدل موجود را دوباره آموزش دهید که مشکلی مشابه آنچه می خواهید به دست آورید را حل کند. | |
مدل را به TensorFlow Lite تبدیل کنید | با استفاده از مبدل TensorFlow Lite مدل خود را از فرمت HDF5 یا گراف ثابت به TensorFlow Lite تبدیل کنید. | |
مدل TensorFlow Lite خود را در Firebase مستقر کنید | اختیاری: هنگامی که مدل TensorFlow Lite خود را در Firebase مستقر می کنید و Firebase ML SDK را در برنامه خود قرار می دهید، Firebase ML کاربران شما را با آخرین نسخه مدل خود به روز نگه می دارد. میتوانید آن را طوری پیکربندی کنید که وقتی دستگاه کاربر بیحرکت است یا در حال شارژ است یا اتصال Wi-Fi دارد، بهروزرسانیهای مدل را بهطور خودکار دانلود کند. | |
برای استنتاج از مدل TensorFlow Lite استفاده کنید | از مفسر TensorFlow Lite در برنامه Apple یا Android خود برای استنتاج با مدلهای مستقر شده با استفاده از Firebase استفاده کنید. |
Codelabs
برخی از نرمافزارهای کد را امتحان کنید تا به طور عملی یاد بگیرید که Firebase چگونه میتواند به شما کمک کند از مدلهای TensorFlow Lite راحتتر و مؤثرتر استفاده کنید.