Puoi utilizzare Firebase ML per riconoscere punti di riferimento noti in un'immagine.
Prima di iniziare
- Se non hai già aggiunto Firebase alla tua app, fallo seguendo i passaggi nella guida introduttiva .
- In Xcode, con il progetto dell'app aperto, vai a File > Add Packages .
- Quando richiesto, aggiungi il repository SDK delle piattaforme Apple Firebase:
- Scegli la libreria Firebase ML.
- Aggiungi il flag
-ObjC
alla sezione Altri flag del linker delle impostazioni di build del tuo target. - Al termine, Xcode inizierà automaticamente a risolvere e scaricare le tue dipendenze in background.
- Nella tua app, importa Firebase:
Veloce
import FirebaseMLModelDownloader
Obiettivo-C
@import FirebaseMLModelDownloader;
Se non hai già abilitato le API basate su cloud per il tuo progetto, fallo ora:
- Apri la pagina API Firebase ML della console Firebase.
Se non hai già aggiornato il tuo progetto al piano tariffario Blaze, fai clic su Aggiorna per farlo. (Ti verrà richiesto di eseguire l'aggiornamento solo se il tuo progetto non è compreso nel piano Blaze.)
Solo i progetti a livello di Blaze possono utilizzare API basate su cloud.
- Se le API basate su cloud non sono già abilitate, fai clic su Abilita API basate su cloud .
Utilizza Swift Package Manager per installare e gestire le dipendenze di Firebase.
https://github.com/firebase/firebase-ios-sdk.git
Successivamente, esegui alcune configurazioni in-app:
Configura il rilevatore di punti di riferimento
Per impostazione predefinita, il rilevatore Nuvole utilizza la versione stabile del modello e restituisce fino a 10 risultati. Se desideri modificare una di queste impostazioni, specificale con un oggetto VisionCloudDetectorOptions
come nell'esempio seguente:
Veloce
let options = VisionCloudDetectorOptions() options.modelType = .latest options.maxResults = 20
Obiettivo-C
FIRVisionCloudDetectorOptions *options = [[FIRVisionCloudDetectorOptions alloc] init]; options.modelType = FIRVisionCloudModelTypeLatest; options.maxResults = 20;
Nel passaggio successivo, passa l'oggetto VisionCloudDetectorOptions
quando crei l'oggetto Rilevatore cloud.
Esegui il rilevatore di punti di riferimento
Per riconoscere i punti di riferimento in un'immagine, passa l'immagine comeUIImage
o CMSampleBufferRef
al metodo detect(in:)
di VisionCloudLandmarkDetector
:- Ottieni un'istanza di
VisionCloudLandmarkDetector
:Veloce
lazy var vision = Vision.vision() let cloudDetector = vision.cloudLandmarkDetector(options: options) // Or, to use the default settings: // let cloudDetector = vision.cloudLandmarkDetector()
Obiettivo-C
FIRVision *vision = [FIRVision vision]; FIRVisionCloudLandmarkDetector *landmarkDetector = [vision cloudLandmarkDetector]; // Or, to change the default settings: // FIRVisionCloudLandmarkDetector *landmarkDetector = // [vision cloudLandmarkDetectorWithOptions:options];
- Per chiamare Cloud Vision, l'immagine deve essere formattata come una stringa con codifica base64. Per elaborare
UIImage
:Veloce
guard let imageData = uiImage.jpegData(compressionQuality: 1.0) else { return } let base64encodedImage = imageData.base64EncodedString()
Obiettivo-C
NSData *imageData = UIImageJPEGRepresentation(uiImage, 1.0f); NSString *base64encodedImage = [imageData base64EncodedStringWithOptions:NSDataBase64Encoding76CharacterLineLength];
- Quindi, passa l'immagine al metodo
detect(in:)
:Veloce
cloudDetector.detect(in: visionImage) { landmarks, error in guard error == nil, let landmarks = landmarks, !landmarks.isEmpty else { // ... return } // Recognized landmarks // ... }
Obiettivo-C
[landmarkDetector detectInImage:image completion:^(NSArray<FIRVisionCloudLandmark *> *landmarks, NSError *error) { if (error != nil) { return; } else if (landmarks != nil) { // Got landmarks } }];
Ottieni informazioni sui punti di riferimento riconosciuti
Se il riconoscimento del punto di riferimento ha esito positivo, una serie di oggettiVisionCloudLandmark
verrà passata al gestore di completamento. Da ciascun oggetto è possibile ottenere informazioni su un punto di riferimento riconosciuto nell'immagine.Per esempio:
Veloce
for landmark in landmarks { let landmarkDesc = landmark.landmark let boundingPoly = landmark.frame let entityId = landmark.entityId // A landmark can have multiple locations: for example, the location the image // was taken, and the location of the landmark depicted. for location in landmark.locations { let latitude = location.latitude let longitude = location.longitude } let confidence = landmark.confidence }
Obiettivo-C
for (FIRVisionCloudLandmark *landmark in landmarks) { NSString *landmarkDesc = landmark.landmark; CGRect frame = landmark.frame; NSString *entityId = landmark.entityId; // A landmark can have multiple locations: for example, the location the image // was taken, and the location of the landmark depicted. for (FIRVisionLatitudeLongitude *location in landmark.locations) { double latitude = [location.latitude doubleValue]; double longitude = [location.longitude doubleValue]; } float confidence = [landmark.confidence floatValue]; }
Prossimi passi
- Prima di distribuire in produzione un'app che utilizza un'API cloud, dovresti adottare alcune misure aggiuntive per prevenire e mitigare gli effetti dell'accesso API non autorizzato .