कस्टम मॉडल डिप्लॉय और मैनेज करना

Firebase कंसोल या Firebase Admin Python और Node.js SDK टूल का इस्तेमाल करके, कस्टम मॉडल और AutoML से ट्रेन किए गए मॉडल को डिप्लॉय और मैनेज किया जा सकता है. अगर आपको सिर्फ़ कोई मॉडल डिप्लॉय करना है और कभी-कभी उसे अपडेट करना है, तो आम तौर पर Firebase कंसोल का इस्तेमाल करना सबसे आसान होता है. Admin SDK, बिल्ड पाइपलाइन के साथ इंटिग्रेट करने, Colab या Jupyter नोटबुक के साथ काम करने, और अन्य वर्कफ़्लो के लिए मददगार हो सकता है.

Firebase कंसोल में मॉडल डिप्लॉय और मैनेज करना

TensorFlow Lite मॉडल

Firebase कंसोल का इस्तेमाल करके, TensorFlow Lite मॉडल को डिप्लॉय करने के लिए:

  1. Firebase कंसोल में, Firebase ML कस्टम मॉडल पेज खोलें.
  2. कस्टम मॉडल जोड़ें (या कोई दूसरा मॉडल जोड़ें) पर क्लिक करें.
  3. कोई ऐसा नाम डालें जिसका इस्तेमाल आपके Firebase प्रोजेक्ट में मॉडल की पहचान करने के लिए किया जाएगा. इसके बाद, TensorFlow Lite मॉडल फ़ाइल अपलोड करें. आम तौर पर, इस फ़ाइल का आखिरी हिस्सा .tflite या .lite होता है.

मॉडल डिप्लॉय करने के बाद, उसे कस्टम पेज पर देखा जा सकता है. यहां से, मॉडल को नई फ़ाइल से अपडेट करने, मॉडल को डाउनलोड करने, और अपने प्रोजेक्ट से मॉडल को मिटाने जैसे टास्क पूरे किए जा सकते हैं.

Firebase Admin SDK टूल की मदद से मॉडल को डिप्लॉय और मैनेज करना

इस सेक्शन में बताया गया है कि Admin SDK टूल की मदद से, मॉडल को डिप्लॉय करने और मैनेज करने से जुड़े सामान्य टास्क कैसे पूरे किए जा सकते हैं. ज़्यादा मदद पाने के लिए, Python या Node.js के लिए एसडीके टूल का रेफ़रंस देखें.

इस्तेमाल में मौजूद SDK के उदाहरणों के लिए, Python के लिए तुरंत शुरू करने का सैंपल और Node.js के लिए तुरंत शुरू करने का सैंपल देखें.

शुरू करने से पहले

  1. अगर आपके पास पहले से कोई Firebase प्रोजेक्ट नहीं है, तो Firebase Console में नया प्रोजेक्ट बनाएं. इसके बाद, अपना प्रोजेक्ट खोलें और ये काम करें:

    1. सेटिंग पेज पर, सेवा खाता बनाएं और सेवा खाते की कुंजी फ़ाइल डाउनलोड करें. इस फ़ाइल को सुरक्षित रखें, क्योंकि इससे आपके प्रोजेक्ट का एडमिन ऐक्सेस मिलता है.

    2. स्टोरेज पेज पर, Cloud Storage को चालू करें. अपनी बकेट का नाम नोट करें.

      मॉडल फ़ाइलों को अपने Firebase प्रोजेक्ट में जोड़ते समय, उन्हें कुछ समय के लिए सेव करने के लिए, आपके पास Cloud Storage बकेट होनी चाहिए. अगर आपके पास Blaze प्लान है, तो इस काम के लिए डिफ़ॉल्ट बकेट के अलावा कोई दूसरी बकेट बनाई और इस्तेमाल की जा सकती है.

    3. अगर आपने अब तक Firebase ML को चालू नहीं किया है, तो Firebase ML पेज पर, शुरू करें पर क्लिक करें.

  2. Google API कंसोल में, अपना Firebase प्रोजेक्ट खोलें और Firebase ML API को चालू करें.

  3. एडमिन SDK टूल इंस्टॉल और शुरू करें.

    SDK टूल को शुरू करते समय, अपने सेवा खाते के क्रेडेंशियल और उस Cloud Storage बकेट की जानकारी दें जिसका इस्तेमाल आपको अपने मॉडल को सेव करने के लिए करना है:

    Python

    import firebase_admin
    from firebase_admin import ml
    from firebase_admin import credentials
    
    firebase_admin.initialize_app(
      credentials.Certificate('/path/to/your/service_account_key.json'),
      options={
          'storageBucket': 'your-storage-bucket',
      })
    

    Node.js

    const admin = require('firebase-admin');
    const serviceAccount = require('/path/to/your/service_account_key.json');
    admin.initializeApp({
      credential: admin.credential.cert(serviceAccount),
      storageBucket: 'your-storage-bucket',
    });
    const ml = admin.machineLearning();
    

मॉडल डिप्लॉय करना

TensorFlow Lite फ़ाइलें

मॉडल फ़ाइल से TensorFlow Lite मॉडल को डिप्लॉय करने के लिए, उसे अपने प्रोजेक्ट में अपलोड करें और फिर पब्लिश करें:

Python

# First, import and initialize the SDK as shown above.

# Load a tflite file and upload it to Cloud Storage
source = ml.TFLiteGCSModelSource.from_tflite_model_file('example.tflite')

# Create the model object
tflite_format = ml.TFLiteFormat(model_source=source)
model = ml.Model(
    display_name="example_model",  # This is the name you use from your app to load the model.
    tags=["examples"],             # Optional tags for easier management.
    model_format=tflite_format)

# Add the model to your Firebase project and publish it
new_model = ml.create_model(model)
ml.publish_model(new_model.model_id)

Node.js

// First, import and initialize the SDK as shown above.

(async () => {
  // Upload the tflite file to Cloud Storage
  const storageBucket = admin.storage().bucket('your-storage-bucket');
  const files = await storageBucket.upload('./example.tflite');

  // Create the model object and add the model to your Firebase project.
  const bucket = files[0].metadata.bucket;
  const name = files[0].metadata.name;
  const gcsUri = `gs:/⁠/${bucket}/${name}`;
  const model = await ml.createModel({
    displayName: 'example_model',  // This is the name you use from your app to load the model.
    tags: ['examples'],  // Optional tags for easier management.
    tfliteModel: { gcsTfliteUri: gcsUri },
  });

  // Publish the model.
  await ml.publishModel(model.modelId);

  process.exit();
})().catch(console.error);

TensorFlow और Keras मॉडल

Python SDK टूल की मदद से, किसी मॉडल को TensorFlow के सेव किए गए मॉडल फ़ॉर्मैट से TensorFlow Lite में बदला जा सकता है. साथ ही, उसे एक ही चरण में अपनी Cloud Storage बकेट में अपलोड किया जा सकता है. इसके बाद, इसे उसी तरह डिप्लॉय करें जिस तरह TensorFlow Lite फ़ाइल को डिप्लॉय किया जाता है.

Python

# First, import and initialize the SDK as shown above.

# Convert the model to TensorFlow Lite and upload it to Cloud Storage
source = ml.TFLiteGCSModelSource.from_saved_model('./model_directory')

# Create the model object
tflite_format = ml.TFLiteFormat(model_source=source)
model = ml.Model(
    display_name="example_model",  # This is the name you use from your app to load the model.
    tags=["examples"],             # Optional tags for easier management.
    model_format=tflite_format)

# Add the model to your Firebase project and publish it
new_model = ml.create_model(model)
ml.publish_model(new_model.model_id)

अगर आपके पास कोई Keras मॉडल है, तो उसे TensorFlow Lite में बदला जा सकता है और एक ही चरण में अपलोड किया जा सकता है. HDF5 फ़ाइल में सेव किए गए Keras मॉडल का इस्तेमाल किया जा सकता है:

Python

import tensorflow as tf

# Load a Keras model, convert it to TensorFlow Lite, and upload it to Cloud Storage
model = tf.keras.models.load_model('your_model.h5')
source = ml.TFLiteGCSModelSource.from_keras_model(model)

# Create the model object, add the model to your project, and publish it. (See
# above.)
# ...

इसके अलावा, सीधे अपनी ट्रेनिंग स्क्रिप्ट से Keras मॉडल को बदलकर अपलोड किया जा सकता है:

Python

import tensorflow as tf

# Create a simple Keras model.
x = [-1, 0, 1, 2, 3, 4]
y = [-3, -1, 1, 3, 5, 7]

model = tf.keras.models.Sequential(
    [tf.keras.layers.Dense(units=1, input_shape=[1])])
model.compile(optimizer='sgd', loss='mean_squared_error')
model.fit(x, y, epochs=3)

# Convert the model to TensorFlow Lite and upload it to Cloud Storage
source = ml.TFLiteGCSModelSource.from_keras_model(model)

# Create the model object, add the model to your project, and publish it. (See
# above.)
# ...

AutoML TensorFlow Lite मॉडल

अगर आपने AutoML Cloud API या Google Cloud कंसोल यूज़र इंटरफ़ेस (यूआई) की मदद से किसी Edge मॉडल को ट्रेन किया है, तो Admin SDK टूल का इस्तेमाल करके उस मॉडल को Firebase में डिप्लॉय किया जा सकता है.

आपको मॉडल का रिसॉर्स आइडेंटिफ़ायर बताना होगा. यह एक स्ट्रिंग होती है, जो नीचे दिए गए उदाहरण की तरह दिखती है:

projects/PROJECT_NUMBER/locations/STORAGE_LOCATION/models/MODEL_ID
PROJECT_NUMBER उस Cloud Storage बकेट का प्रोजेक्ट नंबर जिसमें मॉडल मौजूद है. यह आपका Firebase प्रोजेक्ट या कोई दूसरा Google Cloud प्रोजेक्ट हो सकता है. यह वैल्यू, Firebase कंसोल के सेटिंग पेज या Google Cloud कंसोल के डैशबोर्ड पर देखी जा सकती है.
STORAGE_LOCATION उस Cloud Storage बकेट का रिसॉर्स लोकेशन जिसमें मॉडल मौजूद है. यह वैल्यू हमेशा us-central1 होती है.
MODEL_ID मॉडल का आईडी, जो आपको AutoML Cloud API से मिला है.

Python

# First, import and initialize the SDK as shown above.

# Get a reference to the AutoML model
source = ml.TFLiteAutoMlSource('projects/{}/locations/{}/models/{}'.format(
    # See above for information on these values.
    project_number,
    storage_location,
    model_id
))

# Create the model object
tflite_format = ml.TFLiteFormat(model_source=source)
model = ml.Model(
    display_name="example_model",  # This is the name you will use from your app to load the model.
    tags=["examples"],             # Optional tags for easier management.
    model_format=tflite_format)

# Add the model to your Firebase project and publish it
new_model = ml.create_model(model)
new_model.wait_for_unlocked()
ml.publish_model(new_model.model_id)

Node.js

// First, import and initialize the SDK as shown above.

(async () => {
  // Get a reference to the AutoML model. See above for information on these
  // values.
  const automlModel = `projects/${projectNumber}/locations/${storageLocation}/models/${modelId}`;

  // Create the model object and add the model to your Firebase project.
  const model = await ml.createModel({
    displayName: 'example_model',  // This is the name you use from your app to load the model.
    tags: ['examples'],  // Optional tags for easier management.
    tfliteModel: { automlModel: automlModel },
  });

  // Wait for the model to be ready.
  await model.waitForUnlocked();

  // Publish the model.
  await ml.publishModel(model.modelId);

  process.exit();
})().catch(console.error);

अपने प्रोजेक्ट के मॉडल की सूची बनाना

अपने प्रोजेक्ट के मॉडल की सूची बनाई जा सकती है. इसके लिए, नतीजों को फ़िल्टर करने का विकल्प भी चुना जा सकता है:

Python

# First, import and initialize the SDK as shown above.

face_detectors = ml.list_models(list_filter="tags: face_detector").iterate_all()
print("Face detection models:")
for model in face_detectors:
  print('{} (ID: {})'.format(model.display_name, model.model_id))

Node.js

// First, import and initialize the SDK as shown above.

(async () => {
  let listOptions = {filter: 'tags: face_detector'}
  let models;
  let pageToken = null;
  do {
    if (pageToken) listOptions.pageToken = pageToken;
    ({models, pageToken} = await ml.listModels(listOptions));
    for (const model of models) {
      console.log(`${model.displayName} (ID: ${model.modelId})`);
    }
  } while (pageToken != null);

  process.exit();
})().catch(console.error);

इन फ़ील्ड के हिसाब से फ़िल्टर किया जा सकता है:

फ़ील्ड उदाहरण
display_name display_name = example_model
display_name != example_model

experimental_ प्रीफ़िक्स वाले सभी डिसप्ले नेम:

display_name : experimental_*

ध्यान दें कि सिर्फ़ प्रीफ़िक्स मैचिंग की सुविधा काम करती है.

tags tags: face_detector
tags: face_detector AND tags: experimental
state.published state.published = true
state.published = false

AND, OR, और NOT ऑपरेटर और ब्रैकेट ((, )) के साथ फ़िल्टर को जोड़ें.

मॉडल अपडेट करना

अपने प्रोजेक्ट में मॉडल जोड़ने के बाद, उसका डिसप्ले नेम, टैग, और tflite मॉडल फ़ाइल अपडेट की जा सकती है:

Python

# First, import and initialize the SDK as shown above.

model = ...   # Model object from create_model(), get_model(), or list_models()

# Update the model with a new tflite model. (You could also update with a
# `TFLiteAutoMlSource`)
source = ml.TFLiteGCSModelSource.from_tflite_model_file('example_v2.tflite')
model.model_format = ml.TFLiteFormat(model_source=source)

# Update the model's display name.
model.display_name = "example_model"

# Update the model's tags.
model.tags = ["examples", "new_models"]

# Add a new tag.
model.tags += "experimental"

# After you change the fields you want to update, save the model changes to
# Firebase and publish it.
updated_model = ml.update_model(model)
ml.publish_model(updated_model.model_id)

Node.js

// First, import and initialize the SDK as shown above.

(async () => {
  const model = ... // Model object from createModel(), getModel(), or listModels()

  // Upload a new tflite file to Cloud Storage.
  const files = await storageBucket.upload('./example_v2.tflite');
  const bucket = files[0].metadata.bucket;
  const name = files[0].metadata.name;

  // Update the model. Any fields you omit will be unchanged.
  await ml.updateModel(model.modelId, {
    displayName: 'example_model',  // Update the model's display name.
    tags: model.tags.concat(['new']),  // Add a tag.
    tfliteModel: {gcsTfliteUri: `gs:/⁠/${bucket}/${name}`},
  });

  process.exit();
})().catch(console.error);

मॉडल को अनपब्लिश करना या मिटाना

किसी मॉडल को अनपब्लिश करने या मिटाने के लिए, मॉडल आईडी को अनपब्लिश करने या मिटाने के तरीकों में पास करें. किसी मॉडल को अनपब्लिश करने पर, वह आपके प्रोजेक्ट में बना रहता है. हालांकि, आपके ऐप्लिकेशन के लिए उसे डाउनलोड नहीं किया जा सकता. किसी मॉडल को मिटाने पर, उसे आपके प्रोजेक्ट से पूरी तरह हटा दिया जाता है. (स्टैंडर्ड वर्कफ़्लो में, मॉडल को अनपब्लिश करने की ज़रूरत नहीं होती. हालांकि, इसका इस्तेमाल किसी ऐसे नए मॉडल को तुरंत अनपब्लिश करने के लिए किया जा सकता है जिसे आपने गलती से पब्लिश किया है और जिसका अब तक कहीं इस्तेमाल नहीं किया गया है. इसके अलावा, ऐसे मामलों में भी इसका इस्तेमाल किया जा सकता है जहां उपयोगकर्ताओं के लिए, मॉडल न मिलने की गड़बड़ियों के बजाय "खराब" मॉडल डाउनलोड करना ज़्यादा खराब हो.)

अगर आपके पास अब भी मॉडल ऑब्जेक्ट का रेफ़रंस नहीं है, तो आपको फ़िल्टर की मदद से अपने प्रोजेक्ट के मॉडल की लिस्टिंग बनाकर, मॉडल आईडी पाना होगा. उदाहरण के लिए, "face_detector" टैग वाले सभी मॉडल मिटाने के लिए:

Python

# First, import and initialize the SDK as shown above.

face_detectors = ml.list_models(list_filter="tags: 'face_detector'").iterate_all()
for model in face_detectors:
  ml.delete_model(model.model_id)

Node.js

// First, import and initialize the SDK as shown above.

(async () => {
  let listOptions = {filter: 'tags: face_detector'}
  let models;
  let pageToken = null;
  do {
    if (pageToken) listOptions.pageToken = pageToken;
    ({models, pageToken} = await ml.listModels(listOptions));
    for (const model of models) {
      await ml.deleteModel(model.modelId);
    }
  } while (pageToken != null);

  process.exit();
})().catch(console.error);