כדי להתקשר ל-Google Cloud API מהאפליקציה שלך, עליך ליצור REST API ביניים שמטפל בהרשאה ומגן על ערכים סודיים כגון מפתחות API. לאחר מכן עליך לכתוב קוד באפליקציה לנייד שלך כדי לאמת ולתקשר עם שירות הביניים הזה.
אחת הדרכים ליצור REST API זה היא באמצעות Firebase Authentication and Functions, המעניק לך שער מנוהל ללא שרת אל ממשקי Google Cloud API שמטפל באימות וניתן להתקשר אליו מהאפליקציה לנייד שלך עם ערכות SDK מובנות מראש.
מדריך זה מדגים כיצד להשתמש בטכניקה זו כדי לקרוא ל-Cloud Vision API מהאפליקציה שלך. שיטה זו תאפשר לכל המשתמשים המאומתים לגשת לשירותי החיוב של Cloud Vision דרך פרויקט הענן שלך, אז שקול אם מנגנון אימות זה מספיק למקרה השימוש שלך לפני שתמשיך.
לפני שאתה מתחיל
הגדר את הפרויקט שלך
אם עדיין לא הוספת את Firebase לאפליקציה שלך, עשה זאת על ידי ביצוע השלבים במדריך לתחילת העבודה .השתמש ב- Swift Package Manager כדי להתקין ולנהל תלות ב-Firebase.
- ב-Xcode, כשפרויקט האפליקציה שלך פתוח, נווט אל קובץ > הוסף חבילות .
- כשתתבקש, הוסף את מאגר Firebase Apple platforms SDK:
- בחר את ספריית Firebase ML.
- הוסף את הדגל
-ObjC
לקטע Other Linker Flags של הגדרות הבנייה של היעד שלך. - בסיום, Xcode יתחיל באופן אוטומטי לפתור ולהוריד את התלות שלך ברקע.
https://github.com/firebase/firebase-ios-sdk.git
לאחר מכן, בצע כמה הגדרות בתוך האפליקציה:
- באפליקציה שלך, ייבא את Firebase:
מָהִיר
import FirebaseMLModelDownloader
Objective-C
@import FirebaseMLModelDownloader;
עוד כמה שלבי תצורה, ואנחנו מוכנים לצאת לדרך:
אם עדיין לא הפעלת ממשקי API מבוססי ענן עבור הפרויקט שלך, עשה זאת כעת:
- פתח את הדף Firebase ML APIs של מסוף Firebase.
אם עדיין לא שדרגת את הפרויקט שלך לתוכנית התמחור של Blaze, לחץ על שדרג כדי לעשות זאת. (תתבקש לשדרג רק אם הפרויקט שלך אינו בתוכנית Blaze.)
רק פרויקטים ברמת Blaze יכולים להשתמש בממשקי API מבוססי ענן.
- אם ממשקי API מבוססי ענן עדיין לא מופעלים, לחץ על הפעל ממשקי API מבוססי ענן .
- הגדר את מפתחות ה-API הקיימים של Firebase כדי לא לאפשר גישה ל-Cloud Vision API:
- פתח את דף האישורים של מסוף הענן.
- עבור כל מפתח API ברשימה, פתח את תצוגת העריכה ובקטע מגבלות מפתח, הוסף לרשימה את כל ממשקי ה-API הזמינים מלבד Cloud Vision API.
פרוס את הפונקציה הניתנת להתקשרות
לאחר מכן, פרוס את פונקציית הענן שבה תשתמש כדי לגשר בין האפליקציה שלך לבין Cloud Vision API. מאגר functions-samples
מכיל דוגמה שתוכל להשתמש בה.
כברירת מחדל, גישה ל-Cloud Vision API באמצעות פונקציה זו תאפשר רק למשתמשים מאומתים של האפליקציה שלך גישה ל-Cloud Vision API. אתה יכול לשנות את הפונקציה לדרישות שונות.
כדי לפרוס את הפונקציה:
- שכפל או הורד את ה- functions-samples repo ושנה לספריית
Node-1st-gen/vision-annotate-image
:git clone https://github.com/firebase/functions-samples
cd Node-1st-gen/vision-annotate-image
- תלות בהתקנה:
cd functions
npm install
cd ..
- אם אין לך את Firebase CLI, התקן אותו .
- אתחול פרויקט Firebase בספריית
vision-annotate-image
. כאשר תתבקש, בחר את הפרויקט שלך ברשימה.firebase init
- פרוס את הפונקציה:
firebase deploy --only functions:annotateImage
הוסף Firebase Auth לאפליקציה שלך
הפונקציה הניתנת להתקשרות שנפרסה למעלה תדחה כל בקשה ממשתמשים לא מאומתים של האפליקציה שלך. אם עדיין לא עשית זאת, תצטרך להוסיף Firebase Auth לאפליקציה שלך.
הוסף תלות נחוצה לאפליקציה שלך
השתמש ב- Swift Package Manager כדי להתקין את ספריית Cloud Functions for Firebase.
עכשיו אתה מוכן לסמן תמונות.
1. הכן את תמונת הקלט
כדי לקרוא ל-Cloud Vision, התמונה חייבת להיות בפורמט כמחרוזת מקודדת base64. כדי לעבדUIImage
: מָהִיר
guard let imageData = uiImage.jpegData(compressionQuality: 1.0) else { return } let base64encodedImage = imageData.base64EncodedString()
Objective-C
NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f); NSString *base64encodedImage = [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];
2. הפעל את הפונקציה הניתנת להתקשרות כדי לתייג את התמונה
כדי לתייג אובייקטים בתמונה, הפעל את הפונקציה הניתנת להתקשרות העוברת בקשת JSON Cloud Vision .ראשית, אתחול מופע של פונקציות ענן:
מָהִיר
lazy var functions = Functions.functions()
Objective-C
@property(strong, nonatomic) FIRFunctions *functions;
צור בקשה עם סוג מוגדר ל-
LABEL_DETECTION
:מָהִיר
let requestData = [ "image": ["content": base64encodedImage], "features": ["maxResults": 5, "type": "LABEL_DETECTION"] ]
Objective-C
NSDictionary *requestData = @{ @"image": @{@"content": base64encodedImage}, @"features": @{@"maxResults": @5, @"type": @"LABEL_DETECTION"} };
לבסוף, הפעל את הפונקציה:
מָהִיר
do { let result = try await functions.httpsCallable("annotateImage").call(requestData) print(result) } catch { if let error = error as NSError? { if error.domain == FunctionsErrorDomain { let code = FunctionsErrorCode(rawValue: error.code) let message = error.localizedDescription let details = error.userInfo[FunctionsErrorDetailsKey] } // ... } }
Objective-C
[[_functions HTTPSCallableWithName:@"annotateImage"] callWithObject:requestData completion:^(FIRHTTPSCallableResult * _Nullable result, NSError * _Nullable error) { if (error) { if ([error.domain isEqualToString:@"com.firebase.functions"]) { FIRFunctionsErrorCode code = error.code; NSString *message = error.localizedDescription; NSObject *details = error.userInfo[@"details"]; } // ... } // Function completed succesfully // Get information about labeled objects }];
3. קבל מידע על אובייקטים מסומנים
אם פעולת תיוג התמונה תצליח, תגובת JSON של BatchAnnotateImagesResponse תוחזר בתוצאת המשימה. כל אובייקט במערךlabelAnnotations
מייצג משהו שסומן בתמונה. עבור כל תווית, תוכל לקבל את תיאור הטקסט של התווית, מזהה הישות של גרף הידע שלה (אם זמין), ואת ציון הביטחון של ההתאמה. לדוגמה: מָהִיר
if let labelArray = (result?.data as? [String: Any])?["labelAnnotations"] as? [[String:Any]] {
for labelObj in labelArray {
let text = labelObj["description"]
let entityId = labelObj["mid"]
let confidence = labelObj["score"]
}
}
Objective-C
NSArray *labelArray = result.data[@"labelAnnotations"];
for (NSDictionary *labelObj in labelArray) {
NSString *text = labelObj[@"description"];
NSString *entityId = labelObj[@"mid"];
NSNumber *confidence = labelObj[@"score"];
}