Nếu ứng dụng của bạn sử dụng TensorFlow Mô hình thu gọn, bạn có thể sử dụng Firebase ML để triển khai mô hình. Theo triển khai các mô hình bằng Firebase, bạn có thể giảm kích thước tải xuống ban đầu của ứng dụng của bạn và cập nhật mô hình học máy của ứng dụng mà không cần phát hành phiên bản mới của ứng dụng của bạn. Ngoài ra, với Remote Config và A/B Testing, bạn có thể linh hoạt sẽ phân phát các mô hình khác nhau đến các nhóm người dùng khác nhau.
Mô hình TensorFlow Lite
Các mô hình TensorFlow Lite là các mô hình học máy được tối ưu hoá để chạy trên thiết bị di động thiết bị. Cách tạo mô hình TensorFlow Lite:
- Sử dụng mô hình dựng sẵn, chẳng hạn như một trong chính thức Mô hình TensorFlow Lite.
- Chuyển đổi mô hình TensorFlow, mô hình Keras hoặc hàm cụ thể cho TensorFlow Phiên bản rút gọn
Trước khi bắt đầu
- Nếu bạn chưa làm như vậy, thêm Firebase vào dự án Android của bạn.
-
Trong tệp Gradle mô-đun (cấp ứng dụng)
(thường là
<project>/<app-module>/build.gradle.kts
hoặc<project>/<app-module>/build.gradle
), thêm phần phụ thuộc cho thư viện trình tải mô hình Firebase ML cho Android. Bạn nên sử dụng Firebase Android BoM để kiểm soát việc tạo phiên bản thư viện.Ngoài ra, là một phần trong quá trình thiết lập trình tải mô hình Firebase ML xuống, bạn cần thêm TensorFlow Lite SDK vào ứng dụng của bạn.
dependencies { // Import the BoM for the Firebase platform implementation(platform("com.google.firebase:firebase-bom:33.5.1")) // Add the dependency for the Firebase ML model downloader library // When using the BoM, you don't specify versions in Firebase library dependencies implementation("com.google.firebase:firebase-ml-modeldownloader")
// Also add the dependency for the TensorFlow Lite library and specify its version implementation("org.tensorflow:tensorflow-lite:2.3.0") }Khi sử dụng Firebase Android BoM, ứng dụng của bạn sẽ luôn sử dụng các phiên bản tương thích của thư viện Android trên Firebase.
(Phương án thay thế) Thêm các phần phụ thuộc của thư viện Firebase mà không sử dụng BoM
Nếu chọn không sử dụng Firebase BoM, bạn phải chỉ định từng phiên bản thư viện Firebase trong dòng phụ thuộc.
Lưu ý rằng nếu bạn sử dụng nhiều thư viện Firebase trong ứng dụng của mình, bạn nên sử dụng BoM để quản lý các phiên bản thư viện. Việc này đảm bảo rằng tất cả các phiên bản đều tương thích.
dependencies { // Add the dependency for the Firebase ML model downloader library // When NOT using the BoM, you must specify versions in Firebase library dependencies implementation("com.google.firebase:firebase-ml-modeldownloader:25.0.1")
// Also add the dependency for the TensorFlow Lite library and specify its version implementation("org.tensorflow:tensorflow-lite:2.3.0") } - Trong tệp kê khai của ứng dụng, hãy khai báo rằng cần phải có quyền INTERNET:
<uses-permission android:name="android.permission.INTERNET" />
1. Triển khai mô hình
Triển khai các mô hình TensorFlow tuỳ chỉnh bằng bảng điều khiển Firebase hoặc SDK Node.js và Python Admin của Firebase. Xem Triển khai và quản lý các mô hình tuỳ chỉnh.
Sau khi thêm mô hình tùy chỉnh vào dự án Firebase, bạn có thể tham khảo
trong các ứng dụng của mình bằng tên mà bạn đã chỉ định. Bất cứ lúc nào, bạn đều có thể triển khai
một mô hình TensorFlow Lite mới và tải mô hình mới xuống thiết bị của người dùng thiết bị của
đang gọi getModel()
(xem bên dưới).
2. Tải mô hình xuống thiết bị và khởi chạy trình thông dịch TensorFlow Lite
Để dùng mô hình TensorFlow Lite trong ứng dụng, trước tiên, hãy dùng SDK Firebase ML để tải phiên bản mới nhất của mô hình xuống thiết bị. Sau đó, hãy tạo thực thể cho Phiên dịch cho TensorFlow Lite bằng mô hình.Để bắt đầu tải mô hình xuống, hãy gọi phương thức getModel()
của trình tải mô hình xuống,
chỉ định tên mà bạn đã chỉ định cho mô hình khi tải lên, cho dù bạn
muốn luôn tải xuống mô hình mới nhất và các điều kiện mà bạn
muốn cho phép tải xuống.
Bạn có thể chọn một trong ba hành vi tải xuống sau:
Loại tệp tải xuống | Mô tả |
---|---|
LOCAL_MODEL | Lấy mẫu cục bộ từ thiết bị.
Nếu không có sẵn mô hình cục bộ, điều này
hoạt động như LATEST_MODEL . Sử dụng bản thảo này
loại tệp tải xuống nếu bạn không quan tâm đến
đang kiểm tra các bản cập nhật mô hình. Ví dụ:
bạn đang sử dụng Cấu hình từ xa để truy xuất
tên mô hình và bạn luôn tải lên mô hình
dưới tên mới (được đề xuất). |
LOCAL_MODEL_UPDATE_IN_BACKGROUND | Lấy mô hình cục bộ từ thiết bị và
bắt đầu cập nhật mô hình trong nền.
Nếu không có sẵn mô hình cục bộ, điều này
hoạt động như LATEST_MODEL . |
MÔ HÌNH MỚI NHẤT | Tải mẫu mới nhất. Nếu mô hình cục bộ là phiên bản mới nhất, trả về mã mô hình. Nếu không, hãy tải phiên bản mới nhất mô hình. Hành vi này sẽ chặn cho đến khi phiên bản mới nhất đã được tải xuống (không phải khuyến nghị). Chỉ sử dụng hành vi này trong trong trường hợp bạn rõ ràng cần . |
Bạn nên tắt chức năng liên quan đến mô hình (ví dụ: chuyển màu xám hoặc ẩn một phần giao diện người dùng cho đến khi bạn xác nhận mô hình đã được tải xuống.
Kotlin+KTX
val conditions = CustomModelDownloadConditions.Builder()
.requireWifi() // Also possible: .requireCharging() and .requireDeviceIdle()
.build()
FirebaseModelDownloader.getInstance()
.getModel("your_model", DownloadType.LOCAL_MODEL_UPDATE_IN_BACKGROUND,
conditions)
.addOnSuccessListener { model: CustomModel? ->
// Download complete. Depending on your app, you could enable the ML
// feature, or switch from the local model to the remote model, etc.
// The CustomModel object contains the local path of the model file,
// which you can use to instantiate a TensorFlow Lite interpreter.
val modelFile = model?.file
if (modelFile != null) {
interpreter = Interpreter(modelFile)
}
}
Java
CustomModelDownloadConditions conditions = new CustomModelDownloadConditions.Builder()
.requireWifi() // Also possible: .requireCharging() and .requireDeviceIdle()
.build();
FirebaseModelDownloader.getInstance()
.getModel("your_model", DownloadType.LOCAL_MODEL_UPDATE_IN_BACKGROUND, conditions)
.addOnSuccessListener(new OnSuccessListener<CustomModel>() {
@Override
public void onSuccess(CustomModel model) {
// Download complete. Depending on your app, you could enable the ML
// feature, or switch from the local model to the remote model, etc.
// The CustomModel object contains the local path of the model file,
// which you can use to instantiate a TensorFlow Lite interpreter.
File modelFile = model.getFile();
if (modelFile != null) {
interpreter = new Interpreter(modelFile);
}
}
});
Nhiều ứng dụng bắt đầu tác vụ tải xuống trong mã khởi chạy của ứng dụng, nhưng bạn có thể làm được vì vậy, tại bất kỳ thời điểm nào trước khi cần sử dụng mô hình này.
3. Tiến hành suy luận về dữ liệu đầu vào
Nhận các hình dạng đầu vào và đầu ra của mô hình
Trình phiên dịch mô hình TensorFlow Lite lấy dữ liệu đầu vào và tạo ra kết quả đầu ra
một hoặc nhiều mảng đa chiều. Các mảng này chứa
byte
, int
, long
hoặc float
giá trị. Trước khi có thể truyền dữ liệu vào mô hình hoặc sử dụng kết quả của mô hình đó, bạn phải biết
số lượng và kích thước ("hình dạng") của các mảng mà mô hình của bạn sử dụng.
Nếu bạn tự xây dựng mô hình hoặc nếu định dạng đầu vào và đầu ra của mô hình là được ghi lại, bạn có thể đã có thông tin này. Nếu không biết hình dạng và kiểu dữ liệu của đầu vào và đầu ra của mô hình, bạn có thể sử dụng Trình thông dịch TensorFlow Lite để kiểm tra mô hình của bạn. Ví dụ:
Python
import tensorflow as tf interpreter = tf.lite.Interpreter(model_path="your_model.tflite") interpreter.allocate_tensors() # Print input shape and type inputs = interpreter.get_input_details() print('{} input(s):'.format(len(inputs))) for i in range(0, len(inputs)): print('{} {}'.format(inputs[i]['shape'], inputs[i]['dtype'])) # Print output shape and type outputs = interpreter.get_output_details() print('\n{} output(s):'.format(len(outputs))) for i in range(0, len(outputs)): print('{} {}'.format(outputs[i]['shape'], outputs[i]['dtype']))
Kết quả ví dụ:
1 input(s): [ 1 224 224 3] <class 'numpy.float32'> 1 output(s): [1 1000] <class 'numpy.float32'>
Chạy trình phiên dịch
Sau khi xác định định dạng cho đầu vào và đầu ra của mô hình, hãy lấy và thực hiện các biến đổi đối với dữ liệu cần thiết để có được đầu vào có hình dạng phù hợp cho mô hình của bạn.Ví dụ: nếu bạn có mô hình phân loại hình ảnh với hình dạng đầu vào là
[1 224 224 3]
giá trị dấu phẩy động, bạn có thể tạo dữ liệu đầu vào ByteBuffer
qua đối tượng Bitmap
như trong ví dụ sau:
Kotlin+KTX
val bitmap = Bitmap.createScaledBitmap(yourInputImage, 224, 224, true)
val input = ByteBuffer.allocateDirect(224*224*3*4).order(ByteOrder.nativeOrder())
for (y in 0 until 224) {
for (x in 0 until 224) {
val px = bitmap.getPixel(x, y)
// Get channel values from the pixel value.
val r = Color.red(px)
val g = Color.green(px)
val b = Color.blue(px)
// Normalize channel values to [-1.0, 1.0]. This requirement depends on the model.
// For example, some models might require values to be normalized to the range
// [0.0, 1.0] instead.
val rf = (r - 127) / 255f
val gf = (g - 127) / 255f
val bf = (b - 127) / 255f
input.putFloat(rf)
input.putFloat(gf)
input.putFloat(bf)
}
}
Java
Bitmap bitmap = Bitmap.createScaledBitmap(yourInputImage, 224, 224, true);
ByteBuffer input = ByteBuffer.allocateDirect(224 * 224 * 3 * 4).order(ByteOrder.nativeOrder());
for (int y = 0; y < 224; y++) {
for (int x = 0; x < 224; x++) {
int px = bitmap.getPixel(x, y);
// Get channel values from the pixel value.
int r = Color.red(px);
int g = Color.green(px);
int b = Color.blue(px);
// Normalize channel values to [-1.0, 1.0]. This requirement depends
// on the model. For example, some models might require values to be
// normalized to the range [0.0, 1.0] instead.
float rf = (r - 127) / 255.0f;
float gf = (g - 127) / 255.0f;
float bf = (b - 127) / 255.0f;
input.putFloat(rf);
input.putFloat(gf);
input.putFloat(bf);
}
}
Sau đó, hãy phân bổ một ByteBuffer
đủ lớn để chứa dữ liệu đầu ra của mô hình và
truyền vùng đệm đầu vào và vùng đệm đầu ra đến trình thông dịch TensorFlow Lite
run()
. Ví dụ: đối với hình dạng đầu ra của dấu phẩy động [1 1000]
giá trị:
Kotlin+KTX
val bufferSize = 1000 * java.lang.Float.SIZE / java.lang.Byte.SIZE
val modelOutput = ByteBuffer.allocateDirect(bufferSize).order(ByteOrder.nativeOrder())
interpreter?.run(input, modelOutput)
Java
int bufferSize = 1000 * java.lang.Float.SIZE / java.lang.Byte.SIZE;
ByteBuffer modelOutput = ByteBuffer.allocateDirect(bufferSize).order(ByteOrder.nativeOrder());
interpreter.run(input, modelOutput);
Cách bạn sử dụng dữ liệu đầu ra phụ thuộc vào mô hình bạn đang sử dụng.
Ví dụ: nếu đang thực hiện phân loại, trong bước tiếp theo, bạn có thể ánh xạ chỉ mục của kết quả với nhãn chúng đại diện:
Kotlin+KTX
modelOutput.rewind()
val probabilities = modelOutput.asFloatBuffer()
try {
val reader = BufferedReader(
InputStreamReader(assets.open("custom_labels.txt")))
for (i in probabilities.capacity()) {
val label: String = reader.readLine()
val probability = probabilities.get(i)
println("$label: $probability")
}
} catch (e: IOException) {
// File not found?
}
Java
modelOutput.rewind();
FloatBuffer probabilities = modelOutput.asFloatBuffer();
try {
BufferedReader reader = new BufferedReader(
new InputStreamReader(getAssets().open("custom_labels.txt")));
for (int i = 0; i < probabilities.capacity(); i++) {
String label = reader.readLine();
float probability = probabilities.get(i);
Log.i(TAG, String.format("%s: %1.4f", label, probability));
}
} catch (IOException e) {
// File not found?
}
Phụ lục: Bảo mật mô hình
Bất kể bạn áp dụng mô hình TensorFlow Lite bằng cách nào Firebase ML, Firebase ML lưu trữ chúng ở định dạng protobuf được chuyển đổi tuần tự tiêu chuẩn trong lưu trữ cục bộ.
Về mặt lý thuyết, điều này có nghĩa là bất kỳ ai cũng có thể sao chép mô hình của bạn. Tuy nhiên, trong thực tế, hầu hết các mô hình đều dành riêng cho ứng dụng và bị làm rối mã nguồn rủi ro tương tự như các biện pháp tối ưu hoá của đối thủ cạnh tranh bị loại bỏ và việc sử dụng lại mã. Tuy nhiên, bạn nên lưu ý rủi ro này trước khi sử dụng một mô hình tuỳ chỉnh trong ứng dụng của bạn.
Trên API Android cấp 21 (Lollipop) trở lên, mô hình sẽ được tải xuống thư mục là bị loại trừ khỏi tính năng sao lưu tự động.
Trên API Android cấp 20 trở xuống, mô hình sẽ được tải xuống một thư mục
có tên là com.google.firebase.ml.custom.models
ở chế độ riêng tư của ứng dụng
bộ nhớ trong. Nếu bạn đã bật tính năng sao lưu tệp bằng BackupAgent
,
bạn có thể chọn loại trừ thư mục này.