После обучения собственной модели с помощью AutoML Vision Edge вы сможете использовать ее в своем приложении для маркировки изображений.
Существует два способа интеграции моделей, обученных в AutoML Vision Edge: вы можете объединить модель, поместив ее в папку ресурсов вашего приложения, или динамически загрузить ее из Firebase.
| Варианты комплектации моделей | |
|---|---|
| Встроено в ваше приложение |
|
| Хостинг на Firebase |
|
Прежде чем начать
Добавьте зависимости для библиотек ML Kit Android в файл Gradle уровня приложения вашего модуля, который обычно называется
app/build.gradle:Для объединения модели с вашим приложением:
dependencies { // ... // Image labeling feature with bundled automl model implementation 'com.google.mlkit:image-labeling-custom:16.3.1' }Для динамической загрузки модели из Firebase добавьте зависимость
linkFirebase:dependencies { // ... // Image labeling feature with automl model downloaded // from firebase implementation 'com.google.mlkit:image-labeling-custom:16.3.1' implementation 'com.google.mlkit:linkfirebase:16.1.0' }Если вы хотите загрузить модель , обязательно добавьте Firebase в свой проект Android , если вы ещё этого не сделали. При сборке модели это не требуется.
1. Загрузите модель
Настройте локальный источник модели
Чтобы связать модель с вашим приложением:
Извлеките модель и её метаданные из ZIP-архива, скачанного из консоли Firebase . Рекомендуем использовать файлы в том виде, в котором вы их скачали, без изменений (включая названия файлов).
Включите вашу модель и ее файлы метаданных в пакет вашего приложения:
- Если в вашем проекте нет папки с ресурсами, создайте ее, щелкнув правой кнопкой мыши папку
app/и выбрав Создать > Папка > Папка ресурсов . - Создайте подпапку в папке «Assets» для хранения файлов модели.
- Скопируйте файлы
model.tflite,dict.txtиmanifest.jsonв подпапку (все три файла должны находиться в одной папке).
- Если в вашем проекте нет папки с ресурсами, создайте ее, щелкнув правой кнопкой мыши папку
Добавьте следующее в файл
build.gradleвашего приложения, чтобы Gradle не сжимал файл модели при сборке приложения:android { // ... aaptOptions { noCompress "tflite" } }Файл модели будет включен в пакет приложения и доступен ML Kit как необработанный ресурс.
Создайте объект
LocalModel, указав путь к файлу манифеста модели:Ява
AutoMLImageLabelerLocalModel localModel = new AutoMLImageLabelerLocalModel.Builder() .setAssetFilePath("manifest.json") // or .setAbsoluteFilePath(absolute file path to manifest file) .build();Котлин
val localModel = LocalModel.Builder() .setAssetManifestFilePath("manifest.json") // or .setAbsoluteManifestFilePath(absolute file path to manifest file) .build()
Настройте источник модели, размещенный в Firebase
Чтобы использовать удаленно размещенную модель, создайте объект CustomRemoteModel , указав имя, которое вы присвоили модели при ее публикации:
Ява
// Specify the name you assigned in the Firebase console.
FirebaseModelSource firebaseModelSource =
new FirebaseModelSource.Builder("your_model_name").build();
CustomRemoteModel remoteModel =
new CustomRemoteModel.Builder(firebaseModelSource).build();
Котлин
// Specify the name you assigned in the Firebase console.
val firebaseModelSource = FirebaseModelSource.Builder("your_model_name")
.build()
val remoteModel = CustomRemoteModel.Builder(firebaseModelSource).build()
Затем запустите задачу загрузки модели, указав условия, при которых она будет разрешена. Если модели нет на устройстве или доступна более новая версия, задача асинхронно загрузит её из Firebase:
Ява
DownloadConditions downloadConditions = new DownloadConditions.Builder()
.requireWifi()
.build();
RemoteModelManager.getInstance().download(remoteModel, downloadConditions)
.addOnSuccessListener(new OnSuccessListener<Void>() {
@Override
public void onSuccess(@NonNull Task<Void> task) {
// Success.
}
});
Котлин
val downloadConditions = DownloadConditions.Builder()
.requireWifi()
.build()
RemoteModelManager.getInstance().download(remoteModel, downloadConditions)
.addOnSuccessListener {
// Success.
}
Многие приложения запускают задачу загрузки в своем коде инициализации, но вы можете сделать это в любой момент до того, как вам понадобится использовать модель.
Создайте маркировщик изображений на основе вашей модели
После настройки источников модели создайте объект ImageLabeler из одного из них.
Если у вас есть только локально упакованная модель, просто создайте маркировщик из объекта CustomImageLabelerOptions и настройте требуемый пороговый показатель уверенности (см. раздел Оценка модели ):
Ява
CustomImageLabelerOptions customImageLabelerOptions = new CustomImageLabelerOptions.Builder(localModel)
.setConfidenceThreshold(0.0f) // Evaluate your model in the Cloud console
// to determine an appropriate value.
.build();
ImageLabeler labeler = ImageLabeling.getClient(customImageLabelerOptions);
Котлин
val customImageLabelerOptions = CustomImageLabelerOptions.Builder(localModel)
.setConfidenceThreshold(0.0f) // Evaluate your model in the Cloud console
// to determine an appropriate value.
.build()
val labeler = ImageLabeling.getClient(customImageLabelerOptions)
Если у вас есть удалённо размещённая модель, перед её запуском необходимо убедиться, что она загружена. Вы можете проверить статус задачи загрузки модели с помощью метода isModelDownloaded() менеджера моделей.
Хотя вам нужно подтвердить это только перед запуском маркировщика, если у вас есть как удаленно размещенная модель, так и локально упакованная модель, может иметь смысл выполнить эту проверку при создании экземпляра маркировщика изображений: создать маркировщик из удаленной модели, если она была загружена, и из локальной модели в противном случае.
Ява
RemoteModelManager.getInstance().isModelDownloaded(remoteModel)
.addOnSuccessListener(new OnSuccessListener<Boolean>() {
@Override
public void onSuccess(Boolean isDownloaded) {
CustomImageLabelerOptions.Builder optionsBuilder;
if (isDownloaded) {
optionsBuilder = new CustomImageLabelerOptions.Builder(remoteModel);
} else {
optionsBuilder = new CustomImageLabelerOptions.Builder(localModel);
}
CustomImageLabelerOptions options = optionsBuilder
.setConfidenceThreshold(0.0f) // Evaluate your model in the Cloud console
// to determine an appropriate threshold.
.build();
ImageLabeler labeler = ImageLabeling.getClient(options);
}
});
Котлин
RemoteModelManager.getInstance().isModelDownloaded(remoteModel)
.addOnSuccessListener { isDownloaded ->
val optionsBuilder =
if (isDownloaded) {
CustomImageLabelerOptions.Builder(remoteModel)
} else {
CustomImageLabelerOptions.Builder(localModel)
}
// Evaluate your model in the Cloud console to determine an appropriate threshold.
val options = optionsBuilder.setConfidenceThreshold(0.0f).build()
val labeler = ImageLabeling.getClient(options)
}
Если у вас есть только удалённо размещённая модель, следует отключить связанные с ней функции (например, сделать её серой или скрыть часть пользовательского интерфейса) до подтверждения загрузки модели. Это можно сделать, добавив прослушиватель к методу download() менеджера моделей:
Ява
RemoteModelManager.getInstance().download(remoteModel, conditions)
.addOnSuccessListener(new OnSuccessListener<Void>() {
@Override
public void onSuccess(Void v) {
// Download complete. Depending on your app, you could enable
// the ML feature, or switch from the local model to the remote
// model, etc.
}
});
Котлин
RemoteModelManager.getInstance().download(remoteModel, conditions)
.addOnSuccessListener {
// Download complete. Depending on your app, you could enable the ML
// feature, or switch from the local model to the remote model, etc.
}
2. Подготовьте входное изображение.
Затем для каждого изображения, которое вы хотите подписать, создайте объект InputImage . Быстрее всего маркировщик изображений работает при использовании Bitmap или, если вы используете API camera2, YUV_420_888 media.Image , которые рекомендуется использовать по возможности.
Вы можете создать InputImage из разных источников, каждый из которых описан ниже.
Использование media.Image
Чтобы создать объект InputImage из объекта media.Image , например, при захвате изображения с камеры устройства, передайте объект media.Image и поворот изображения в InputImage.fromMediaImage() .
Если вы используете библиотеку CameraX , классы OnImageCapturedListener и ImageAnalysis.Analyzer рассчитывают значение поворота автоматически.
Kotlin
private class YourImageAnalyzer : ImageAnalysis.Analyzer { override fun analyze(imageProxy: ImageProxy?) { val mediaImage = imageProxy?.image if (mediaImage != null) { val image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees) // Pass image to an ML Kit Vision API // ... } } }
Java
private class YourAnalyzer implements ImageAnalysis.Analyzer { @Override public void analyze(ImageProxy imageProxy) { if (imageProxy == null || imageProxy.getImage() == null) { return; } Image mediaImage = imageProxy.getImage(); InputImage image = InputImage.fromMediaImage(mediaImage, imageProxy.imageInfo.rotationDegrees); // Pass image to an ML Kit Vision API // ... } }
Если вы не используете библиотеку камеры, которая вычисляет угол поворота изображения, вы можете рассчитать его на основе угла поворота устройства и ориентации датчика камеры в устройстве:
Kotlin
private val ORIENTATIONS = SparseIntArray() init { ORIENTATIONS.append(Surface.ROTATION_0, 90) ORIENTATIONS.append(Surface.ROTATION_90, 0) ORIENTATIONS.append(Surface.ROTATION_180, 270) ORIENTATIONS.append(Surface.ROTATION_270, 180) } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) @Throws(CameraAccessException::class) private fun getRotationCompensation(cameraId: String, activity: Activity, context: Context): Int { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. val deviceRotation = activity.windowManager.defaultDisplay.rotation var rotationCompensation = ORIENTATIONS.get(deviceRotation) // On most devices, the sensor orientation is 90 degrees, but for some // devices it is 270 degrees. For devices with a sensor orientation of // 270, rotate the image an additional 180 ((270 + 270) % 360) degrees. val cameraManager = context.getSystemService(CAMERA_SERVICE) as CameraManager val sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION)!! rotationCompensation = (rotationCompensation + sensorOrientation + 270) % 360 // Return the corresponding FirebaseVisionImageMetadata rotation value. val result: Int when (rotationCompensation) { 0 -> result = FirebaseVisionImageMetadata.ROTATION_0 90 -> result = FirebaseVisionImageMetadata.ROTATION_90 180 -> result = FirebaseVisionImageMetadata.ROTATION_180 270 -> result = FirebaseVisionImageMetadata.ROTATION_270 else -> { result = FirebaseVisionImageMetadata.ROTATION_0 Log.e(TAG, "Bad rotation value: $rotationCompensation") } } return result }
Java
private static final SparseIntArray ORIENTATIONS = new SparseIntArray(); static { ORIENTATIONS.append(Surface.ROTATION_0, 90); ORIENTATIONS.append(Surface.ROTATION_90, 0); ORIENTATIONS.append(Surface.ROTATION_180, 270); ORIENTATIONS.append(Surface.ROTATION_270, 180); } /** * Get the angle by which an image must be rotated given the device's current * orientation. */ @RequiresApi(api = Build.VERSION_CODES.LOLLIPOP) private int getRotationCompensation(String cameraId, Activity activity, Context context) throws CameraAccessException { // Get the device's current rotation relative to its "native" orientation. // Then, from the ORIENTATIONS table, look up the angle the image must be // rotated to compensate for the device's rotation. int deviceRotation = activity.getWindowManager().getDefaultDisplay().getRotation(); int rotationCompensation = ORIENTATIONS.get(deviceRotation); // On most devices, the sensor orientation is 90 degrees, but for some // devices it is 270 degrees. For devices with a sensor orientation of // 270, rotate the image an additional 180 ((270 + 270) % 360) degrees. CameraManager cameraManager = (CameraManager) context.getSystemService(CAMERA_SERVICE); int sensorOrientation = cameraManager .getCameraCharacteristics(cameraId) .get(CameraCharacteristics.SENSOR_ORIENTATION); rotationCompensation = (rotationCompensation + sensorOrientation + 270) % 360; // Return the corresponding FirebaseVisionImageMetadata rotation value. int result; switch (rotationCompensation) { case 0: result = FirebaseVisionImageMetadata.ROTATION_0; break; case 90: result = FirebaseVisionImageMetadata.ROTATION_90; break; case 180: result = FirebaseVisionImageMetadata.ROTATION_180; break; case 270: result = FirebaseVisionImageMetadata.ROTATION_270; break; default: result = FirebaseVisionImageMetadata.ROTATION_0; Log.e(TAG, "Bad rotation value: " + rotationCompensation); } return result; }
Затем передайте объект media.Image и значение угла поворота в InputImage.fromMediaImage() :
Kotlin
val image = InputImage.fromMediaImage(mediaImage, rotation)
Java
InputImage image = InputImage.fromMediaImage(mediaImage, rotation);
Использование URI файла
Чтобы создать объект InputImage из URI файла, передайте контекст приложения и URI файла методу InputImage.fromFilePath() . Это полезно при использовании намерения ACTION_GET_CONTENT , чтобы предложить пользователю выбрать изображение из приложения-галереи.
Kotlin
val image: InputImage try { image = InputImage.fromFilePath(context, uri) } catch (e: IOException) { e.printStackTrace() }
Java
InputImage image; try { image = InputImage.fromFilePath(context, uri); } catch (IOException e) { e.printStackTrace(); }
Использование ByteBuffer или ByteArray
Чтобы создать объект InputImage из ByteBuffer или ByteArray , сначала вычислите угол поворота изображения, как описано ранее для ввода media.Image . Затем создайте объект InputImage с буфером или массивом, а также с указанием высоты, ширины, формата кодировки цвета и угла поворота изображения:
Kotlin
val image = InputImage.fromByteBuffer( byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 )
Java
InputImage image = InputImage.fromByteBuffer(byteBuffer, /* image width */ 480, /* image height */ 360, rotationDegrees, InputImage.IMAGE_FORMAT_NV21 // or IMAGE_FORMAT_YV12 );
Использование Bitmap
Чтобы создать объект InputImage из объекта Bitmap , сделайте следующее объявление:
Kotlin
val image = InputImage.fromBitmap(bitmap, 0)
Java
InputImage image = InputImage.fromBitmap(bitmap, rotationDegree);
Изображение представлено объектом Bitmap вместе с градусами поворота.
3. Запустите маркировщик изображений.
Чтобы маркировать объекты на изображении, передайте объект image методу process() объекта ImageLabeler .
Ява
labeler.process(image)
.addOnSuccessListener(new OnSuccessListener<List<ImageLabel>>() {
@Override
public void onSuccess(List<ImageLabel> labels) {
// Task completed successfully
// ...
}
})
.addOnFailureListener(new OnFailureListener() {
@Override
public void onFailure(@NonNull Exception e) {
// Task failed with an exception
// ...
}
});
Котлин
labeler.process(image)
.addOnSuccessListener { labels ->
// Task completed successfully
// ...
}
.addOnFailureListener { e ->
// Task failed with an exception
// ...
}
4. Получите информацию о маркированных объектах.
Если операция маркировки изображения прошла успешно, прослушивателю событий передаётся список объектов ImageLabel . Каждый объект ImageLabel представляет собой то, что было помечено на изображении. Вы можете получить текстовое описание каждой метки, степень достоверности совпадения и индекс совпадения. Например:
Ява
for (ImageLabel label : labels) {
String text = label.getText();
float confidence = label.getConfidence();
int index = label.getIndex();
}
Котлин
for (label in labels) {
val text = label.text
val confidence = label.confidence
val index = label.index
}
Советы по улучшению производительности в реальном времени
Если вы хотите маркировать изображения в приложении реального времени, следуйте этим рекомендациям для достижения наилучшей частоты кадров:
- Устраните вызовы маркировщика изображений. Если во время работы маркировщика изображений появляется новый видеокадр, удалите его. См. пример класса
VisionProcessorBaseв примере приложения для быстрого старта. - Если вы используете выходные данные маркировщика изображений для наложения графики на входное изображение, сначала получите результат, а затем визуализируйте изображение и наложение за один шаг. Таким образом, визуализация на поверхности дисплея выполняется только один раз для каждого входного кадра. См. примеры классов
CameraSourcePreviewиGraphicOverlayв примере приложения для быстрого старта. Если вы используете API Camera2, снимайте изображения в формате
ImageFormat.YUV_420_888.Если вы используете старый API камеры, снимайте изображения в формате
ImageFormat.NV21.