با مجموعهها، منظم بمانید
ذخیره و طبقهبندی محتوا براساس اولویتهای شما.
مدل های سفارشی
plat_iosplat_android
اگر از مدلهای سفارشی TensorFlow Lite استفاده میکنید، Firebase ML میتواند به شما کمک کند مطمئن شوید که کاربران همیشه از بهترین نسخه در دسترس مدل سفارشی شما استفاده میکنند. وقتی مدل خود را با Firebase استقرار میکنید، Firebase ML فقط در صورت نیاز مدل را دانلود میکند و بهطور خودکار کاربران شما را با آخرین نسخه بهروزرسانی میکند.
مدلهای خود را با استفاده از Firebase مستقر کنید تا اندازه باینری برنامه خود را کاهش دهید و مطمئن شوید که برنامه شما همیشه از جدیدترین نسخه موجود مدل شما استفاده میکند.
استنتاج ML روی دستگاه
با استفاده از مفسر TensorFlow Lite با مدل خود، استنتاج را در یک برنامه Apple یا Android انجام دهید.
به روز رسانی خودکار مدل
شرایطی را پیکربندی کنید که تحت آن برنامه شما به طور خودکار نسخه های جدید مدل شما را دانلود کند: زمانی که دستگاه کاربر بیکار است، در حال شارژ است یا اتصال Wi-Fi دارد.
مسیر پیاده سازی
مدل TensorFlow خود را آموزش دهید
با استفاده از TensorFlow یک مدل سفارشی بسازید و آموزش دهید. یا یک مدل موجود را دوباره آموزش دهید که مشکلی مشابه آنچه می خواهید به دست آورید را حل کند.
مدل را به TensorFlow Lite تبدیل کنید
با استفاده از مبدل TensorFlow Lite مدل خود را از فرمت HDF5 یا گراف ثابت به TensorFlow Lite تبدیل کنید.
مدل TensorFlow Lite خود را در Firebase مستقر کنید
اختیاری: هنگامی که مدل TensorFlow Lite خود را در Firebase مستقر می کنید و Firebase ML SDK را در برنامه خود قرار می دهید، Firebase ML کاربران شما را با آخرین نسخه مدل خود به روز نگه می دارد. میتوانید آن را طوری پیکربندی کنید که وقتی دستگاه کاربر بیحرکت است یا در حال شارژ است یا اتصال Wi-Fi دارد، بهروزرسانیهای مدل را بهطور خودکار دانلود کند.
برای استنتاج از مدل TensorFlow Lite استفاده کنید
از مفسر TensorFlow Lite در برنامه Apple یا Android خود برای استنتاج با مدلهای مستقر شده با استفاده از Firebase استفاده کنید.
Codelabs
برخی از نرمافزارهای کد را امتحان کنید تا به طور عملی یاد بگیرید که Firebase چگونه میتواند به شما کمک کند از مدلهای TensorFlow Lite راحتتر و مؤثرتر استفاده کنید.
تاریخ آخرین بهروزرسانی 2025-09-06 بهوقت ساعت هماهنگ جهانی.
[[["درک آسان","easyToUnderstand","thumb-up"],["مشکلم را برطرف کرد","solvedMyProblem","thumb-up"],["غیره","otherUp","thumb-up"]],[["اطلاعاتی که نیاز دارم وجود ندارد","missingTheInformationINeed","thumb-down"],["بیشازحد پیچیده/ مراحل بسیار زیاد","tooComplicatedTooManySteps","thumb-down"],["قدیمی","outOfDate","thumb-down"],["مشکل ترجمه","translationIssue","thumb-down"],["مشکل کد / نمونهها","samplesCodeIssue","thumb-down"],["غیره","otherDown","thumb-down"]],["تاریخ آخرین بهروزرسانی 2025-09-06 بهوقت ساعت هماهنگ جهانی."],[],[],null,["Custom Models \nplat_ios plat_android \nIf you use custom\n[TensorFlow Lite](https://www.tensorflow.org/lite/) models,\nFirebase ML can help you ensure your users are always using the\nbest-available version of your custom model. When you deploy your model with\nFirebase, Firebase ML only downloads the model when it's needed and\nautomatically updates your users with the latest version.\n\n\u003cbr /\u003e\n\nReady to get started? Choose your platform:\n\n[iOS+](/docs/ml/ios/use-custom-models)\n[Android](/docs/ml/android/use-custom-models)\n\n\u003cbr /\u003e\n\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|----------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model deployment | Deploy your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an Apple or Android app using the TensorFlow Lite interpreter with your model. |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. |\n| | **Convert the model to TensorFlow Lite** | Convert your model from HDF5 or frozen graph format to TensorFlow Lite using the [TensorFlow Lite converter](https://www.tensorflow.org/lite/convert). |\n| | **Deploy your TensorFlow Lite model to Firebase** | Optional: When you deploy your TensorFlow Lite model to Firebase and include the Firebase ML SDK in your app, Firebase ML keeps your users up to date with the latest version of your model. You can configure it to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use the TensorFlow Lite interpreter in your Apple or Android app to perform inference with models deployed using Firebase. |\n\nCodelabs\n\nTry some [codelabs](/docs/ml/codelabs) to learn hands-on how Firebase can help you use\nTensorFlow Lite models more easily and effectively."]]