מודלים מותאמים אישית
אם אתם מפתחים מנוסים של למידת מכונה והמודלים המוכנים מראש של ML Kit עונה על הצרכים שלכם, אפשר להשתמש מודל TensorFlow Lite עם ערכת למידת מכונה.
אירוח מודלים של TensorFlow Lite באמצעות Firebase או הוספה שלהם לאפליקציה. לאחר מכן, השתמשו ב-ML Kit SDK כדי לבצע הסקת מסקנות בעזרת של המודל המותאם אישית. אם אתם מארחים את המודל ב-Firebase, ML Kit מעדכן את המשתמשים בגרסה העדכנית באופן אוטומטי.
יכולות מרכזיות
אירוח מודלים של TensorFlow Lite | אירוח המודלים שלכם באמצעות Firebase כדי להקטין את הגודל הבינארי של האפליקציה עליך לוודא שהאפליקציה שלך תמיד משתמשת בגרסה העדכנית ביותר של המודל שלך |
הסקת מסקנות מלמידת מכונה במכשיר | ביצוע הסקת מסקנות באפליקציה ל-iOS או ל-Android באמצעות ML Kit SDK להריץ את מודל TensorFlow Lite בהתאמה אישית. אפשר לצרף את המודל לאפליקציה, לארח אותו בענן או לשלב את שניהם. |
חלופה אוטומטית למודל | לציין כמה מקורות למודל. להשתמש במודל שמאוחסן באופן מקומי, מודל שמתארח בענן לא זמין |
עדכוני מודל אוטומטיים | הגדרת התנאים שבהם האפליקציה תוריד באופן אוטומטי גרסאות חדשות של המודל שלך: כשהמכשיר של המשתמש לא פעיל, בטעינה, או שיש לו חיבור Wi-Fi |
נתיב ההטמעה
אימון של מודל TensorFlow | לפתח ולאמן מודל מותאם אישית באמצעות TensorFlow. או לאמן מחדש למודל קיים שפותר בעיה שדומה למה שרוצים להשיג. לצפייה ב-TensorFlow Lite המדריך למפתחים | |
המרת המודל ל-TensorFlow Lite | המרת המודל מפורמט TensorFlow סטנדרטי ל-TensorFlow Lite: להקפיא את התרשים ואז להשתמש ב-TensorFlow Optimizing Converter (TOCO). לצפייה ב-TensorFlow Lite המדריך למפתחים | |
אירוח מודל TensorFlow Lite ב-Firebase | אופציונלי: כשמארחים את מודל TensorFlow Lite באמצעות Firebase כוללים את ML Kit SDK באפליקציה, ML Kit עוזר למשתמשים עם הגרסה העדכנית ביותר של המודל. אתם יכולים להגדיר ל-ML Kit להוריד עדכוני מודלים באופן אוטומטי כשהמכשיר של המשתמש לא פעיל או בטעינה, או כשיש לו חיבור Wi-Fi. | |
שימוש במודל TensorFlow Lite לצורך הסקת מסקנות | להשתמש בממשקי ה-API של המודלים בהתאמה אישית של ML Kit באפליקציה ל-iOS או ל-Android כדי לבצע מסקנות על סמך המודל הזה, שמתארח ב-Firebase או באפליקציה בחבילה. |