مدل های سفارشی

اگر یک توسعه دهنده باتجربه ML هستید و مدل های از پیش ساخته شده ML Kit نیازهای شما را برآورده نمی کند، می توانید از یک مدل سفارشی TensorFlow Lite با کیت ML استفاده کنید.

مدل های TensorFlow Lite خود را با استفاده از Firebase میزبانی کنید یا آنها را با برنامه خود بسته بندی کنید. سپس، از ML Kit SDK برای انجام استنتاج با استفاده از بهترین نسخه موجود از مدل سفارشی خود استفاده کنید. اگر مدل خود را با Firebase میزبانی می کنید، ML Kit به طور خودکار کاربران شما را با آخرین نسخه به روز می کند.

iOS اندروید

قابلیت های کلیدی

میزبانی مدل TensorFlow Lite مدل های خود را با استفاده از Firebase میزبانی کنید تا اندازه باینری برنامه خود را کاهش دهید و مطمئن شوید که برنامه شما همیشه از جدیدترین نسخه موجود مدل شما استفاده می کند.
استنتاج ML روی دستگاه با استفاده از ML Kit SDK برای اجرای مدل TensorFlow Lite سفارشی خود، استنتاج را در یک برنامه iOS یا Android انجام دهید. این مدل را می توان با برنامه، میزبانی شده در Cloud یا هر دو همراه کرد.
مدل برگشتی خودکار چندین منبع مدل را مشخص کنید. زمانی که مدل میزبانی شده در Cloud در دسترس نیست از یک مدل ذخیره شده محلی استفاده کنید
به روز رسانی خودکار مدل شرایطی را پیکربندی کنید که تحت آن برنامه شما به طور خودکار نسخه های جدید مدل شما را دانلود کند: زمانی که دستگاه کاربر بیکار است، در حال شارژ است یا اتصال Wi-Fi دارد.

مسیر پیاده سازی

مدل TensorFlow خود را آموزش دهید با استفاده از TensorFlow یک مدل سفارشی بسازید و آموزش دهید. یا یک مدل موجود را دوباره آموزش دهید که مشکلی مشابه آنچه می خواهید به دست آورید را حل کند. راهنمای توسعه دهنده TensorFlow Lite را ببینید.
مدل را به TensorFlow Lite تبدیل کنید مدل خود را از قالب استاندارد TensorFlow به TensorFlow Lite با ثابت کردن نمودار و سپس استفاده از تبدیل کننده بهینه سازی TensorFlow (TOCO) تبدیل کنید. راهنمای توسعه دهنده TensorFlow Lite را ببینید.
مدل TensorFlow Lite خود را با Firebase میزبانی کنید اختیاری: وقتی مدل TensorFlow Lite خود را با Firebase میزبانی می‌کنید و ML Kit SDK را در برنامه خود قرار می‌دهید، ML Kit کاربران شما را با آخرین نسخه مدل خود به‌روز نگه می‌دارد. می‌توانید ML Kit را طوری پیکربندی کنید که به‌روزرسانی‌های مدل را زمانی که دستگاه کاربر بی‌حرکت است یا شارژ می‌شود، یا اتصال Wi-Fi دارد، به‌طور خودکار دانلود کند.
برای استنتاج از مدل TensorFlow Lite استفاده کنید از APIهای مدل سفارشی ML Kit در برنامه iOS یا Android خود برای استنتاج با مدل میزبانی Firebase یا همراه با برنامه خود استفاده کنید.