कस्टम मॉडल

अगर आप एक अनुभवी एमएल डेवलपर हैं और एमएल किट के पहले से बने मॉडल आपकी ज़रूरतों को पूरा नहीं करते, तो आपके पास एमएल किट के साथ कस्टम TensorFlow Lite मॉडल का इस्तेमाल करने का विकल्प है.

Firebase का इस्तेमाल करके अपने TensorFlow Lite मॉडल को होस्ट करें या उन्हें अपने ऐप्लिकेशन के साथ पैकेज करें. इसके बाद, अपने कस्टम मॉडल के सबसे उपलब्ध वर्शन का इस्तेमाल करके अनुमान लगाने के लिए, ML Kit SDK टूल का इस्तेमाल करें. अगर मॉडल को Firebase का इस्तेमाल करके होस्ट किया जाता है, तो ML Kit आपके उपयोगकर्ताओं को अपने-आप नए वर्शन से अपडेट कर देता है.

iOS Android

मुख्य सुविधाएं

TensorFlow Lite मॉडल को होस्ट करना अपने ऐप्लिकेशन का बाइनरी साइज़ कम करने के लिए, Firebase का इस्तेमाल करके अपने मॉडल होस्ट करें. साथ ही, यह पक्का करें कि आपका ऐप्लिकेशन हमेशा आपके मॉडल के सबसे नए वर्शन का इस्तेमाल करता हो
उपयोगकर्ता के डिवाइस पर मशीन लर्निंग का अनुमान अपनी पसंद के मुताबिक TensorFlow Lite मॉडल को चलाने के लिए, ML Kit SDK टूल का इस्तेमाल करके iOS या Android ऐप्लिकेशन में अनुमान लगाएं. मॉडल को ऐप्लिकेशन के साथ बंडल किया जा सकता है, क्लाउड में होस्ट किया जा सकता है या दोनों काम किए जा सकते हैं.
ऑटोमैटिक मॉडल फ़ॉलबैक एक से ज़्यादा मॉडल सोर्स तय करें; क्लाउड पर होस्ट किया गया मॉडल उपलब्ध न होने पर, डिवाइस में सेव किया गया मॉडल इस्तेमाल करें
मॉडल अपने-आप अपडेट होने की सुविधा उन स्थितियों को कॉन्फ़िगर करें जिनके तहत आपका ऐप्लिकेशन मॉडल के नए वर्शन अपने-आप डाउनलोड करे: जब उपयोगकर्ता का डिवाइस कुछ समय से इस्तेमाल में न हो, चार्ज हो रहा हो या उसके पास वाई-फ़ाई कनेक्शन हो

लागू करने का पाथ

TensorFlow के मॉडल को ट्रेनिंग देना TensorFlow का इस्तेमाल करके एक कस्टम मॉडल बनाएं और उसे ट्रेनिंग दें. इसके अलावा, किसी मौजूदा मॉडल को फिर से ट्रेनिंग दें, जो आपकी ज़रूरत के हिसाब से कोई समस्या हल करता हो. TensorFlow Lite डेवलपर गाइड देखें.
मॉडल को TensorFlow Lite में बदलना ग्राफ़ को फ़्रीज़ करके, अपने मॉडल को स्टैंडर्ड TensorFlow फ़ॉर्मैट से TensorFlow Lite में बदलें. इसके बाद, TensorFlow का ऑप्टिमाइज़ करने वाला कन्वर्टर (टीओसीओ) इस्तेमाल करें. TensorFlow Lite डेवलपर गाइड देखें.
Firebase की मदद से TensorFlow Lite मॉडल को होस्ट करना ज़रूरी नहीं: जब Firebase की मदद से TensorFlow Lite मॉडल को होस्ट किया जाता है और अपने ऐप्लिकेशन में ML किट SDK टूल को शामिल किया जाता है, तब ML Kit आपके उपयोगकर्ताओं को मॉडल के सबसे नए वर्शन के साथ अप-टू-डेट रखता है. ML Kit को इस तरह कॉन्फ़िगर किया जा सकता है कि उपयोगकर्ता के डिवाइस के कुछ समय से इस्तेमाल में न होने, चार्ज होने या वाई-फ़ाई से कनेक्ट होने पर, मॉडल के अपडेट अपने-आप डाउनलोड हो जाएं.
अनुमान लगाने के लिए TensorFlow Lite मॉडल का इस्तेमाल करना अपने iOS या Android ऐप्लिकेशन में ML Kit के कस्टम मॉडल एपीआई का इस्तेमाल करें, ताकि Firebase से होस्ट किए गए या ऐप्लिकेशन-बंडल किए गए मॉडल की मदद से अनुमान लगाया जा सके.