Se seu aplicativo usa modelos personalizados do TensorFlow Lite , você pode usar o Firebase ML para implantar seus modelos. Ao implantar modelos com o Firebase, você pode reduzir o tamanho inicial do download do seu aplicativo e atualizar os modelos de ML do seu aplicativo sem lançar uma nova versão do seu aplicativo. E, com a Configuração remota e o teste A/B, você pode servir dinamicamente diferentes modelos para diferentes conjuntos de usuários.
Pré-requisitos
- A biblioteca
MLModelDownloader
está disponível apenas para Swift. - O TensorFlow Lite é executado apenas em dispositivos que usam iOS 9 e versões mais recentes.
Modelos do TensorFlow Lite
Os modelos TensorFlow Lite são modelos de ML otimizados para execução em dispositivos móveis. Para obter um modelo do TensorFlow Lite:
- Use um modelo pré-construído, como um dos modelos oficiais do TensorFlow Lite .
- Converta um modelo do TensorFlow, um modelo Keras ou uma função concreta no TensorFlow Lite.
Antes de você começar
Para usar o TensorFlowLite com Firebase, você deve usar CocoaPods, pois o TensorFlowLite atualmente não oferece suporte à instalação com o Swift Package Manager. Consulte o guia de instalação do CocoaPods para obter instruções sobre como instalar MLModelDownloader
.
Depois de instalado, importe Firebase e TensorFlowLite para usá-los.
Rápido
import FirebaseMLModelDownloader
import TensorFlowLite
1. Implante seu modelo
Implante seus modelos personalizados do TensorFlow usando o console do Firebase ou os SDKs Firebase Admin Python e Node.js. Consulte Implantar e gerenciar modelos customizados .
Depois de adicionar um modelo personalizado ao seu projeto do Firebase, você poderá referenciar o modelo nos seus aplicativos usando o nome especificado. A qualquer momento, você pode implantar um novo modelo do TensorFlow Lite e fazer download do novo modelo nos dispositivos dos usuários chamando getModel()
(veja abaixo).
2. Baixe o modelo para o dispositivo e inicialize um interpretador TensorFlow Lite
Para usar o modelo do TensorFlow Lite no seu aplicativo, primeiro use o SDK do Firebase ML para fazer download da versão mais recente do modelo para o dispositivo. Para iniciar o download do modelo, chame o método getModel()
do downloader do modelo, especificando o nome que você atribuiu ao modelo quando o carregou, se deseja sempre baixar o modelo mais recente e as condições sob as quais deseja permitir o download.
Você pode escolher entre três comportamentos de download:
Tipo de download | Descrição |
---|---|
localModel | Obtenha o modelo local do dispositivo. Se não houver nenhum modelo local disponível, ele se comportará como latestModel . Use este tipo de download se não estiver interessado em verificar atualizações de modelo. Por exemplo, você usa o Configuração remota para recuperar nomes de modelos e sempre faz upload de modelos com novos nomes (recomendado). |
localModelUpdateInBackground | Obtenha o modelo local do dispositivo e comece a atualizar o modelo em segundo plano. Se não houver nenhum modelo local disponível, ele se comportará como latestModel . |
latestModel | Obtenha o modelo mais recente. Se o modelo local for a versão mais recente, retorna o modelo local. Caso contrário, baixe o modelo mais recente. Este comportamento será bloqueado até que a versão mais recente seja baixada (não recomendado). Use esse comportamento apenas nos casos em que você precisa explicitamente da versão mais recente. |
Você deve desativar a funcionalidade relacionada ao modelo (por exemplo, esmaecer ou ocultar parte da sua UI) até confirmar que o download do modelo foi feito.
Rápido
let conditions = ModelDownloadConditions(allowsCellularAccess: false)
ModelDownloader.modelDownloader()
.getModel(name: "your_model",
downloadType: .localModelUpdateInBackground,
conditions: conditions) { result in
switch (result) {
case .success(let customModel):
do {
// Download complete. Depending on your app, you could enable the ML
// feature, or switch from the local model to the remote model, etc.
// The CustomModel object contains the local path of the model file,
// which you can use to instantiate a TensorFlow Lite interpreter.
let interpreter = try Interpreter(modelPath: customModel.path)
} catch {
// Error. Bad model file?
}
case .failure(let error):
// Download was unsuccessful. Don't enable ML features.
print(error)
}
}
Muitos aplicativos iniciam a tarefa de download em seu código de inicialização, mas você pode fazer isso a qualquer momento antes de usar o modelo.
3. Realize inferência nos dados de entrada
Obtenha as formas de entrada e saída do seu modelo
O interpretador de modelo do TensorFlow Lite recebe como entrada e produz como saída uma ou mais matrizes multidimensionais. Essas matrizes contêm valores byte
, int
, long
ou float
. Antes de poder passar dados para um modelo ou usar seu resultado, você deve saber o número e as dimensões ("formato") dos arrays que seu modelo usa.
Se você mesmo construiu o modelo ou se o formato de entrada e saída do modelo estiver documentado, talvez você já tenha essas informações. Se você não conhece a forma e o tipo de dados de entrada e saída do seu modelo, poderá usar o interpretador do TensorFlow Lite para inspecionar seu modelo. Por exemplo:
Pitão
import tensorflow as tf interpreter = tf.lite.Interpreter(model_path="your_model.tflite") interpreter.allocate_tensors() # Print input shape and type inputs = interpreter.get_input_details() print('{} input(s):'.format(len(inputs))) for i in range(0, len(inputs)): print('{} {}'.format(inputs[i]['shape'], inputs[i]['dtype'])) # Print output shape and type outputs = interpreter.get_output_details() print('\n{} output(s):'.format(len(outputs))) for i in range(0, len(outputs)): print('{} {}'.format(outputs[i]['shape'], outputs[i]['dtype']))
Exemplo de saída:
1 input(s): [ 1 224 224 3] <class 'numpy.float32'> 1 output(s): [1 1000] <class 'numpy.float32'>
Execute o intérprete
Depois de determinar o formato da entrada e da saída do seu modelo, obtenha os dados de entrada e execute quaisquer transformações nos dados que sejam necessárias para obter uma entrada com o formato correto para o seu modelo. Por exemplo, se o seu modelo processa imagens e tem dimensões de entrada de [1, 224, 224, 3]
valores de ponto flutuante, talvez seja necessário dimensionar os valores de cor da imagem para um intervalo de ponto flutuante, como no exemplo a seguir :
Rápido
let image: CGImage = // Your input image
guard let context = CGContext(
data: nil,
width: image.width, height: image.height,
bitsPerComponent: 8, bytesPerRow: image.width * 4,
space: CGColorSpaceCreateDeviceRGB(),
bitmapInfo: CGImageAlphaInfo.noneSkipFirst.rawValue
) else {
return false
}
context.draw(image, in: CGRect(x: 0, y: 0, width: image.width, height: image.height))
guard let imageData = context.data else { return false }
var inputData = Data()
for row in 0 ..< 224 {
for col in 0 ..< 224 {
let offset = 4 * (row * context.width + col)
// (Ignore offset 0, the unused alpha channel)
let red = imageData.load(fromByteOffset: offset+1, as: UInt8.self)
let green = imageData.load(fromByteOffset: offset+2, as: UInt8.self)
let blue = imageData.load(fromByteOffset: offset+3, as: UInt8.self)
// Normalize channel values to [0.0, 1.0]. This requirement varies
// by model. For example, some models might require values to be
// normalized to the range [-1.0, 1.0] instead, and others might
// require fixed-point values or the original bytes.
var normalizedRed = Float32(red) / 255.0
var normalizedGreen = Float32(green) / 255.0
var normalizedBlue = Float32(blue) / 255.0
// Append normalized values to Data object in RGB order.
let elementSize = MemoryLayout.size(ofValue: normalizedRed)
var bytes = [UInt8](repeating: 0, count: elementSize)
memcpy(&bytes, &normalizedRed, elementSize)
inputData.append(&bytes, count: elementSize)
memcpy(&bytes, &normalizedGreen, elementSize)
inputData.append(&bytes, count: elementSize)
memcpy(&ammp;bytes, &normalizedBlue, elementSize)
inputData.append(&bytes, count: elementSize)
}
}
Em seguida, copie sua entrada NSData
para o interpretador e execute-o:
Rápido
try interpreter.allocateTensors()
try interpreter.copy(inputData, toInputAt: 0)
try interpreter.invoke()
Você pode obter a saída do modelo chamando o método output(at:)
do interpretador. Como você usa a saída depende do modelo que você está usando.
Por exemplo, se você estiver realizando uma classificação, como próxima etapa, você pode mapear os índices do resultado para os rótulos que eles representam:
Rápido
let output = try interpreter.output(at: 0)
let probabilities =
UnsafeMutableBufferPointer<Float32>.allocate(capacity: 1000)
output.data.copyBytes(to: probabilities)
guard let labelPath = Bundle.main.path(forResource: "retrained_labels", ofType: "txt") else { return }
let fileContents = try? String(contentsOfFile: labelPath)
guard let labels = fileContents?.components(separatedBy: "\n") else { return }
for i in labels.indices {
print("\(labels[i]): \(probabilities[i])")
}
Apêndice: Segurança do modelo
Independentemente de como você disponibiliza seus modelos do TensorFlow Lite para o Firebase ML, o Firebase ML os armazena no formato protobuf serializado padrão no armazenamento local.
Em teoria, isso significa que qualquer pessoa pode copiar o seu modelo. No entanto, na prática, a maioria dos modelos são tão específicos da aplicação e ofuscados por otimizações que o risco é semelhante ao dos concorrentes desmontarem e reutilizarem seu código. No entanto, você deve estar ciente desse risco antes de usar um modelo personalizado em seu aplicativo.