Firebase is back at Google I/O on May 10! Register now
संग्रह की मदद से व्यवस्थित रहें अपनी प्राथमिकताओं के आधार पर, कॉन्टेंट को सेव करें और कैटगरी में बांटें.

कस्टम मॉडल

यदि आप एक अनुभवी एमएल डेवलपर हैं और एमएल किट के पूर्व-निर्मित मॉडल आपकी आवश्यकताओं को पूरा नहीं करते हैं, तो आप एमएल किट के साथ कस्टम टेंसरफ्लो लाइट मॉडल का उपयोग कर सकते हैं।

अपने TensorFlow Lite मॉडल को Firebase का उपयोग करके होस्ट करें या उन्हें अपने ऐप के साथ पैकेज करें। फिर, अपने कस्टम मॉडल के सर्वोत्तम-उपलब्ध संस्करण का उपयोग करके अनुमान लगाने के लिए एमएल किट एसडीके का उपयोग करें। यदि आप अपने मॉडल को Firebase के साथ होस्ट करते हैं, तो ML Kit आपके उपयोगकर्ताओं को नवीनतम संस्करण के साथ स्वचालित रूप से अपडेट कर देता है।

आईओएस एंड्रॉइड

प्रमुख क्षमताएं

TensorFlow लाइट मॉडल होस्टिंग अपने ऐप के बाइनरी आकार को कम करने के लिए और यह सुनिश्चित करने के लिए कि आपका ऐप हमेशा आपके मॉडल के नवीनतम संस्करण का उपयोग कर रहा है, फायरबेस का उपयोग करके अपने मॉडल होस्ट करें।
ऑन-डिवाइस एमएल अनुमान अपने कस्टम टेंसरफ्लो लाइट मॉडल को चलाने के लिए एमएल किट एसडीके का उपयोग करके आईओएस या एंड्रॉइड ऐप में अनुमान लगाएं। मॉडल को ऐप के साथ बंडल किया जा सकता है, क्लाउड में होस्ट किया जा सकता है, या दोनों।
स्वचालित मॉडल फ़ॉलबैक कई मॉडल स्रोत निर्दिष्ट करें; क्लाउड-होस्टेड मॉडल अनुपलब्ध होने पर स्थानीय रूप से संग्रहीत मॉडल का उपयोग करें
स्वचालित मॉडल अपडेट उन स्थितियों को कॉन्फ़िगर करें जिनके तहत आपका ऐप स्वचालित रूप से आपके मॉडल के नए संस्करण डाउनलोड करता है: जब उपयोगकर्ता का उपकरण निष्क्रिय हो, चार्ज हो रहा हो, या उसके पास वाई-फाई कनेक्शन हो

कार्यान्वयन पथ

अपने TensorFlow मॉडल को प्रशिक्षित करें TensorFlow का उपयोग करके एक कस्टम मॉडल बनाएं और प्रशिक्षित करें। या, किसी मौजूदा मॉडल को फिर से प्रशिक्षित करें जो उस समस्या को हल करता है जो आप प्राप्त करना चाहते हैं। TensorFlow Lite डेवलपर गाइड देखें।
मॉडल को TensorFlow Lite में बदलें ग्राफ़ को फ्रीज़ करके और फिर TensorFlow ऑप्टिमाइज़िंग कन्वर्टर (TOCO) का उपयोग करके अपने मॉडल को मानक TensorFlow फ़ॉर्मेट से TensorFlow Lite में बदलें। TensorFlow Lite डेवलपर गाइड देखें।
अपने TensorFlow Lite मॉडल को Firebase के साथ होस्ट करें वैकल्पिक: जब आप अपने TensorFlow Lite मॉडल को Firebase के साथ होस्ट करते हैं और अपने ऐप में ML किट SDK शामिल करते हैं, ML किट आपके उपयोगकर्ताओं को आपके मॉडल के नवीनतम संस्करण के साथ अद्यतित रखता है। जब उपयोगकर्ता का उपकरण निष्क्रिय हो या चार्ज हो रहा हो, या वाई-फाई कनेक्शन हो, तो आप मॉडल अपडेट को स्वचालित रूप से डाउनलोड करने के लिए एमएल किट को कॉन्फ़िगर कर सकते हैं।
अनुमान के लिए TensorFlow Lite मॉडल का उपयोग करें अपने फायरबेस-होस्टेड या ऐप-बंडल मॉडल के साथ अनुमान लगाने के लिए अपने आईओएस या एंड्रॉइड ऐप में एमएल किट के कस्टम मॉडल एपीआई का उपयोग करें।