Nhận dạng cột mốc một cách an toàn với Cloud Vision bằng cách sử dụng Chức năng và xác thực Firebase trên nền tảng Apple

Để gọi API Google Cloud từ ứng dụng của bạn, bạn cần tạo API REST trung gian để xử lý ủy quyền và bảo vệ các giá trị bí mật như khóa API. Sau đó, bạn cần viết mã trong ứng dụng di động của mình để xác thực và liên lạc với dịch vụ trung gian này.

Một cách để tạo API REST này là sử dụng Chức năng và xác thực Firebase, cung cấp cho bạn một cổng không có máy chủ, được quản lý tới các API Google Cloud xử lý xác thực và có thể được gọi từ ứng dụng di động của bạn bằng SDK dựng sẵn.

Hướng dẫn này trình bày cách sử dụng kỹ thuật này để gọi API Cloud Vision từ ứng dụng của bạn. Phương pháp này sẽ cho phép tất cả người dùng được xác thực truy cập vào các dịch vụ tính phí của Cloud Vision thông qua dự án Đám mây của bạn, vì vậy hãy cân nhắc xem cơ chế xác thực này có đủ cho trường hợp sử dụng của bạn hay không trước khi tiếp tục.

Trước khi bắt đầu

Định cấu hình dự án của bạn

Nếu bạn chưa thêm Firebase vào ứng dụng của mình, hãy làm như vậy bằng cách làm theo các bước trong hướng dẫn bắt đầu .

Sử dụng Trình quản lý gói Swift để cài đặt và quản lý các phần phụ thuộc của Firebase.

  1. Trong Xcode, khi dự án ứng dụng của bạn đang mở, hãy điều hướng đến File > Add Packages .
  2. Khi được nhắc, hãy thêm kho lưu trữ SDK nền tảng Firebase của Apple:
  3.   https://github.com/firebase/firebase-ios-sdk.git
  4. Chọn thư viện Firebase ML.
  5. Thêm cờ -ObjC vào phần Cờ liên kết khác trong cài đặt bản dựng của mục tiêu của bạn.
  6. Khi hoàn tất, Xcode sẽ tự động bắt đầu phân giải và tải xuống các phần phụ thuộc của bạn ở chế độ nền.

Tiếp theo, thực hiện một số thiết lập trong ứng dụng:

  1. Trong ứng dụng của bạn, hãy nhập Firebase:

    Nhanh

    import FirebaseMLModelDownloader

    Mục tiêu-C

    @import FirebaseMLModelDownloader;

Một vài bước cấu hình nữa và chúng ta đã sẵn sàng:

  1. Nếu bạn chưa kích hoạt API dựa trên đám mây cho dự án của mình, hãy thực hiện ngay bây giờ:

    1. Mở trang API Firebase ML của bảng điều khiển Firebase.
    2. Nếu bạn chưa nâng cấp dự án của mình lên gói giá Blaze, hãy nhấp vào Nâng cấp để thực hiện. (Bạn sẽ chỉ được nhắc nâng cấp nếu dự án của bạn không nằm trong gói Blaze.)

      Chỉ các dự án cấp Blaze mới có thể sử dụng API dựa trên Đám mây.

    3. Nếu API dựa trên đám mây chưa được bật, hãy nhấp vào Bật API dựa trên đám mây .
  2. Định cấu hình khóa API Firebase hiện có của bạn để không cho phép truy cập vào API Cloud Vision:
    1. Mở trang Thông tin xác thực của bảng điều khiển Đám mây.
    2. Đối với mỗi khóa API trong danh sách, hãy mở chế độ xem chỉnh sửa và trong phần Hạn chế khóa, hãy thêm tất cả các API có sẵn ngoại trừ API Cloud Vision vào danh sách.

Triển khai chức năng có thể gọi được

Tiếp theo, hãy triển khai Chức năng đám mây mà bạn sẽ sử dụng để kết nối ứng dụng của mình với API Cloud Vision. Kho lưu trữ functions-samples chứa ví dụ bạn có thể sử dụng.

Theo mặc định, việc truy cập API Cloud Vision thông qua chức năng này sẽ chỉ cho phép những người dùng đã được xác thực trong ứng dụng của bạn truy cập vào API Cloud Vision. Bạn có thể sửa đổi chức năng cho các yêu cầu khác nhau.

Để triển khai chức năng:

  1. Sao chép hoặc tải xuống repo hàm-mẫu và thay đổi sang thư mục Node-1st-gen/vision-annotate-image :
    git clone https://github.com/firebase/functions-samples
    cd Node-1st-gen/vision-annotate-image
    
  2. Cài đặt phụ thuộc:
    cd functions
    npm install
    cd ..
    
  3. Nếu bạn không có Firebase CLI, hãy cài đặt nó .
  4. Khởi tạo dự án Firebase trong thư mục vision-annotate-image . Khi được nhắc, hãy chọn dự án của bạn trong danh sách.
    firebase init
  5. Triển khai chức năng:
    firebase deploy --only functions:annotateImage

Thêm Firebase Auth vào ứng dụng của bạn

Hàm có thể gọi được triển khai ở trên sẽ từ chối mọi yêu cầu từ người dùng ứng dụng của bạn chưa được xác thực. Nếu chưa làm như vậy, bạn sẽ cần thêm Firebase Auth vào ứng dụng của mình.

Thêm các phần phụ thuộc cần thiết vào ứng dụng của bạn

Sử dụng Trình quản lý gói Swift để cài đặt thư viện Cloud Functions cho Firebase.

1. Chuẩn bị hình ảnh đầu vào

Để gọi Cloud Vision, hình ảnh phải được định dạng dưới dạng chuỗi được mã hóa base64. Để xử lý UIImage :

Nhanh

guard let imageData = uiImage.jpegData(compressionQuality: 1.0) else { return }
let base64encodedImage = imageData.base64EncodedString()

Mục tiêu-C

NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f);
NSString *base64encodedImage =
  [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];

2. Gọi hàm có thể gọi để nhận biết các mốc

Để nhận dạng các mốc trong hình ảnh, hãy gọi hàm có thể gọi để chuyển yêu cầu JSON Cloud Vision .

  1. Đầu tiên, khởi tạo một phiên bản của Cloud Functions:

    Nhanh

    lazy var functions = Functions.functions()
    

    Mục tiêu-C

    @property(strong, nonatomic) FIRFunctions *functions;
    
  2. Tạo một yêu cầu với Loại được đặt thành LANDMARK_DETECTION :

    Nhanh

    let requestData = [
      "image": ["content": base64encodedImage],
      "features": ["maxResults": 5, "type": "LANDMARK_DETECTION"]
    ]
    

    Mục tiêu-C

    NSDictionary *requestData = @{
      @"image": @{@"content": base64encodedImage},
      @"features": @{@"maxResults": @5, @"type": @"LANDMARK_DETECTION"}
    };
    
  3. Cuối cùng, gọi hàm:

    Nhanh

    do {
      let result = try await functions.httpsCallable("annotateImage").call(requestData)
      print(result)
    } catch {
      if let error = error as NSError? {
        if error.domain == FunctionsErrorDomain {
          let code = FunctionsErrorCode(rawValue: error.code)
          let message = error.localizedDescription
          let details = error.userInfo[FunctionsErrorDetailsKey]
        }
        // ...
      }
    }
    

    Mục tiêu-C

    [[_functions HTTPSCallableWithName:@"annotateImage"]
                              callWithObject:requestData
                                  completion:^(FIRHTTPSCallableResult * _Nullable result, NSError * _Nullable error) {
            if (error) {
              if ([error.domain isEqualToString:@"com.firebase.functions"]) {
                FIRFunctionsErrorCode code = error.code;
                NSString *message = error.localizedDescription;
                NSObject *details = error.userInfo[@"details"];
              }
              // ...
            }
            // Function completed succesfully
            // Get information about labeled objects
    
          }];
    

3. Nhận thông tin về các địa danh được công nhận

Nếu hoạt động nhận dạng mốc thành công, phản hồi JSON của BatchAnnotateImagesResponse sẽ được trả về trong kết quả của tác vụ. Mỗi đối tượng trong mảng landmarkAnnotations đại diện cho một mốc đã được nhận dạng trong hình ảnh. Đối với mỗi mốc, bạn có thể lấy tọa độ giới hạn của nó trong hình ảnh đầu vào, tên của mốc, vĩ độ và kinh độ, ID thực thể Sơ đồ tri thức (nếu có) và điểm tin cậy của trận đấu. Ví dụ:

Nhanh

if let labelArray = (result?.data as? [String: Any])?["landmarkAnnotations"] as? [[String:Any]] {
  for labelObj in labelArray {
    let landmarkName = labelObj["description"]
    let entityId = labelObj["mid"]
    let score = labelObj["score"]
    let bounds = labelObj["boundingPoly"]
    // Multiple locations are possible, e.g., the location of the depicted
    // landmark and the location the picture was taken.
    guard let locations = labelObj["locations"] as? [[String: [String: Any]]] else { continue }
    for location in locations {
      let latitude = location["latLng"]?["latitude"]
      let longitude = location["latLng"]?["longitude"]
    }
  }
}

Mục tiêu-C

NSArray *labelArray = result.data[@"landmarkAnnotations"];
for (NSDictionary *labelObj in labelArray) {
  NSString *landmarkName = labelObj[@"description"];
  NSString *entityId = labelObj[@"mid"];
  NSNumber *score = labelObj[@"score"];
  NSArray *bounds = labelObj[@"boundingPoly"];
  // Multiple locations are possible, e.g., the location of the depicted
  // landmark and the location the picture was taken.
  NSArray *locations = labelObj[@"locations"];
  for (NSDictionary *location in locations) {
    NSNumber *latitude = location[@"latLng"][@"latitude"];
    NSNumber *longitude = location[@"latLng"][@"longitude"];
  }
}