Apple प्लैटफ़ॉर्म पर Firebase पुष्टि और फ़ंक्शन का इस्तेमाल करके, इमेज को Cloud Vision की मदद से सुरक्षित तरीके से लेबल करें

अपने ऐप्लिकेशन से Google Cloud API को कॉल करने के लिए, आपको एक इंटरमीडिएट REST API बनाना होगा. यह API, अनुमति देने की प्रोसेस को मैनेज करता है. साथ ही, एपीआई पासकोड जैसी गोपनीय वैल्यू को सुरक्षित रखता है. इसके बाद, आपको अपने मोबाइल ऐप्लिकेशन में कोड लिखना होगा, ताकि इस इंटरमीडिएट सेवा को पुष्टि की जा सके और इससे कम्यूनिकेट किया जा सके.

इस REST API को बनाने का एक तरीका यह है कि Firebase Authentication और Functions का इस्तेमाल किया जाए. इससे आपको Google Cloud API के लिए, मैनेज किया गया सर्वरलेस गेटवे मिलता है. यह गेटवे, पुष्टि की प्रोसेस को मैनेज करता है. साथ ही, इसे पहले से बने एसडीके की मदद से, आपके मोबाइल ऐप्लिकेशन से कॉल किया जा सकता है.

इस गाइड में, इस तकनीक का इस्तेमाल करके, अपने ऐप्लिकेशन से Cloud Vision API को कॉल करने का तरीका बताया गया है. इस तरीके से, सभी पुष्टि किए गए उपयोगकर्ता, आपके Cloud प्रोजेक्ट के ज़रिए, Cloud Vision की बिल की जाने वाली सेवाओं को ऐक्सेस कर पाएंगे. इसलिए, आगे बढ़ने से पहले यह तय करें कि आपके इस्तेमाल के मामले के लिए, अनुमति देने का यह तरीका सही है या नहीं.

शुरू करने से पहले

अपना प्रोजेक्ट कॉन्फ़िगर करना

अगर आपने अपने ऐप्लिकेशन में Firebase को पहले से नहीं जोड़ा है, तो इसे जोड़ने के लिए, शुरू करने के लिए गाइड में दिए गए निर्देशों का पालन करें.

Firebase की डिपेंडेंसी इंस्टॉल और मैनेज करने के लिए, Swift Package Manager का इस्तेमाल करें.

  1. Xcode में, अपने ऐप्लिकेशन का प्रोजेक्ट खोलें. इसके बाद, फ़ाइल > पैकेज जोड़ें पर जाएं.
  2. पूछे जाने पर, Firebase Apple प्लैटफ़ॉर्म एसडीके का रिपॉज़िटरी जोड़ें:
  3.   https://github.com/firebase/firebase-ios-sdk.git
  4. Firebase ML लाइब्रेरी चुनें.
  5. अपने टारगेट की बिल्ड सेटिंग के Other Linker Flags सेक्शन में, -ObjC फ़्लैग जोड़ें.
  6. इसके बाद, Xcode अपने-आप आपकी डिपेंडेंसी से जुड़ी समस्या को हल करना शुरू कर देगा और उन्हें बैकग्राउंड में डाउनलोड करेगा.

इसके बाद, ऐप्लिकेशन में कुछ सेटअप करें:

  1. अपने ऐप्लिकेशन में, Firebase इंपोर्ट करें:

    Swift

    import FirebaseMLModelDownloader

    Objective-C

    @import FirebaseMLModelDownloader;

कुछ और कॉन्फ़िगरेशन के चरण पूरे करने के बाद, हम आगे बढ़ सकते हैं:

  1. अगर आपने अपने प्रोजेक्ट के लिए, क्लाउड पर आधारित एपीआई को पहले से चालू नहीं किया है, तो अब करें:

    1. Firebase कंसोल में, Firebase ML API वाला पेज खोलें.
    2. अगर आपने अपने प्रोजेक्ट को, इस्तेमाल के हिसाब से पैसे चुकाने वाले Blaze प्लान में अपग्रेड नहीं किया है, तो ऐसा करने के लिए, अपग्रेड करें पर क्लिक करें. (आपको अपग्रेड करने के लिए सिर्फ़ तब कहा जाएगा, जब आपका प्रोजेक्ट Blaze प्लान पर नहीं होगा.)

      सिर्फ़ Blaze प्लान वाले प्रोजेक्ट, क्लाउड पर आधारित एपीआई का इस्तेमाल कर सकते हैं.

    3. अगर क्लाउड पर आधारित एपीआई पहले से चालू नहीं हैं, तो क्लाउड पर आधारित एपीआई चालू करें पर क्लिक करें.
  2. अपने मौजूदा Firebase API पासकोड को कॉन्फ़िगर करें, ताकि Cloud Vision API को ऐक्सेस न किया जा सके:
    1. Cloud Console का क्रेडेंशियल पेज खोलें.
    2. सूची में मौजूद हर एपीआई पासकोड के लिए, बदलाव करने वाला व्यू खोलें. इसके बाद, Key Restrictions सेक्शन में, सूची में मौजूद सभी एपीआई जोड़ें. हालांकि, इसमें Cloud Vision API को शामिल न करें.

कॉल किए जा सकने वाले फ़ंक्शन को डिप्लॉय करना

इसके बाद, Cloud Function को डिप्लॉय करें. इसका इस्तेमाल, अपने ऐप्लिकेशन और Cloud Vision API के बीच ब्रिज बनाने के लिए किया जाएगा. functions-samples रिपॉज़िटरी में, एक उदाहरण दिया गया है . इसका इस्तेमाल किया जा सकता है.

डिफ़ॉल्ट रूप से, इस फ़ंक्शन के ज़रिए Cloud Vision API को ऐक्सेस करने पर, सिर्फ़ आपके ऐप्लिकेशन के पुष्टि किए गए उपयोगकर्ता ही Cloud Vision API को ऐक्सेस कर पाएंगे. अलग-अलग ज़रूरतों के हिसाब से, फ़ंक्शन में बदलाव किया जा सकता है.

फ़ंक्शन को डिप्लॉय करने के लिए:

  1. functions-samples repo को क्लोन करें या डाउनलोड करें. इसके बाद, Node-1st-gen/vision-annotate-image डायरेक्ट्री पर जाएं:
    git clone https://github.com/firebase/functions-samples
    cd Node-1st-gen/vision-annotate-image
    
  2. डिपेंडेंसी इंस्टॉल करें:
    cd functions
    npm install
    cd ..
  3. अगर आपके पास Firebase CLI नहीं है, तो इसे इंस्टॉल करें.
  4. vision-annotate-image डायरेक्ट्री में, Firebase प्रोजेक्ट शुरू करें. पूछे जाने पर, सूची में अपना प्रोजेक्ट चुनें.
    firebase init
  5. फ़ंक्शन को डिप्लॉय करें:
    firebase deploy --only functions:annotateImage

अपने ऐप्लिकेशन में Firebase Auth जोड़ना

ऊपर डिप्लॉय किया गया कॉल किया जा सकने वाला फ़ंक्शन, आपके ऐप्लिकेशन के उन उपयोगकर्ताओं के किसी भी अनुरोध को अस्वीकार कर देगा जिनकी पुष्टि नहीं की गई है. अगर आपने ऐसा नहीं किया है, तो आपको अपने ऐप्लिकेशन में Firebase Auth जोड़ना होगा.

अपने ऐप्लिकेशन में ज़रूरी डिपेंडेंसी जोड़ना

Cloud Functions for Firebase लाइब्रेरी इंस्टॉल करने के लिए, Swift Package Manager का इस्तेमाल करें.

अब इमेज को लेबल किया जा सकता है.

1. इनपुट इमेज तैयार करना

Cloud Vision को कॉल करने के लिए, इमेज को base64-encoded स्ट्रिंग के तौर पर फ़ॉर्मैट किया जाना चाहिए. UIImage को प्रोसेस करने के लिए:

Swift

guard let imageData = uiImage.jpegData(compressionQuality: 1.0) else { return }
let base64encodedImage = imageData.base64EncodedString()

Objective-C

NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f);
NSString *base64encodedImage =
  [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];

2. इमेज को लेबल करने के लिए, कॉल किए जा सकने वाले फ़ंक्शन को लागू करना

किसी इमेज में मौजूद ऑब्जेक्ट को लेबल करने के लिए, कॉल किए जा सकने वाले फ़ंक्शन को लागू करें. इसके लिए, a JSON Cloud Vision का अनुरोध पास करें.

  1. सबसे पहले, Cloud Functions का इंस्टेंस शुरू करें:

    Swift

    lazy var functions = Functions.functions()
    

    Objective-C

    @property(strong, nonatomic) FIRFunctions *functions;
    
  2. टाइप को LABEL_DETECTION पर सेट करके, अनुरोध करें:

    Swift

    let requestData = [
      "image": ["content": base64encodedImage],
      "features": ["maxResults": 5, "type": "LABEL_DETECTION"]
    ]
    

    Objective-C

    NSDictionary *requestData = @{
      @"image": @{@"content": base64encodedImage},
      @"features": @{@"maxResults": @5, @"type": @"LABEL_DETECTION"}
    };
    
  3. आखिर में, फ़ंक्शन को लागू करें:

    Swift

    do {
      let result = try await functions.httpsCallable("annotateImage").call(requestData)
      print(result)
    } catch {
      if let error = error as NSError? {
        if error.domain == FunctionsErrorDomain {
          let code = FunctionsErrorCode(rawValue: error.code)
          let message = error.localizedDescription
          let details = error.userInfo[FunctionsErrorDetailsKey]
        }
        // ...
      }
    }
    

    Objective-C

    [[_functions HTTPSCallableWithName:@"annotateImage"]
                              callWithObject:requestData
                                  completion:^(FIRHTTPSCallableResult * _Nullable result, NSError * _Nullable error) {
            if (error) {
              if ([error.domain isEqualToString:@"com.firebase.functions"]) {
                FIRFunctionsErrorCode code = error.code;
                NSString *message = error.localizedDescription;
                NSObject *details = error.userInfo[@"details"];
              }
              // ...
            }
            // Function completed succesfully
            // Get information about labeled objects
    
          }];
    

3. लेबल किए गए ऑब्जेक्ट के बारे में जानकारी पाना

अगर इमेज लेबल करने की प्रोसेस पूरी हो जाती है, तो टास्क के नतीजे में, BatchAnnotateImagesResponse का JSON रिस्पॉन्स मिलेगा. labelAnnotations कैटगरी में मौजूद हर ऑब्जेक्ट, इमेज में लेबल की गई किसी चीज़ के बारे में बताता है. हर लेबल के लिए, आप लेबल का टेक्स्ट ब्यौरा, उसका Knowledge Graph एंटिटी आईडी (अगर उपलब्ध हो), और मैच का कॉन्फ़िडेंस स्कोर पा सकते हैं. उदाहरण के लिए:

Swift

if let labelArray = (result?.data as? [String: Any])?["labelAnnotations"] as? [[String:Any]] {
  for labelObj in labelArray {
    let text = labelObj["description"]
    let entityId = labelObj["mid"]
    let confidence = labelObj["score"]
  }
}

Objective-C

NSArray *labelArray = result.data[@"labelAnnotations"];
for (NSDictionary *labelObj in labelArray) {
  NSString *text = labelObj[@"description"];
  NSString *entityId = labelObj[@"mid"];
  NSNumber *confidence = labelObj[@"score"];
}