对象检测模型与图片标签模型类似,但不是为整个图片分配标签,而是为图片的某些区域分配标签。您可以使用对象检测模型来识别和定位图片中的对象,或在一系列图片中跟踪某个对象的移动轨迹。
如需训练对象检测模型,您需要为 AutoML Vision Edge 提供一组图片以及相应的对象标签和对象边界。AutoML Vision Edge 使用此数据集在云端训练新模型,您可以使用该模型进行设备端对象检测。
准备工作
如果您还没有 Firebase 项目,请在 Firebase 控制台中创建一个。
熟悉包容性机器学习指南 - AutoML 中介绍的准则。
如果您只想试用 AutoML Vision Edge,并且没有自己的训练数据,请下载示例数据集,例如以下某个数据集:
1. 整理训练数据
首先,您需要汇总已加标签的图片的训练数据集。请谨记以下准则:
图片必须采用以下格式:JPEG、PNG、GIF、BMP 或 ICO。
每张图片大小不得超过 30 MB。请注意,AutoML Vision Edge 会在预处理过程中降低大多数图片的分辨率,因此,提供极高分辨率的图片通常并没有准确性优势。
每个标签至少包含 10 个(最好是 100 个或更多)示例。
针对每个标签,包含多种角度、分辨率和背景。
训练数据应尽可能接近要对其执行预测的数据。例如,如果您的使用场景涉及模糊的低分辨率图片(如来自监控摄像头的图片),则训练数据应由模糊的低分辨率图片组成。
AutoML Vision Edge 生成的模型针对真实物体的照片进行了优化。因此可能不适用于 X 光、手绘图、扫描文档和回执等。
此外,模型通常不能预测人类无法分配的标签。因此,如果一个人无法在观察图片 1-2 秒后分配标签,那么模型可能也无法通过训练达到此目的。
准备好训练图片后,接着准备将其导入 Google Cloud 中。您可以采用以下两种方法:
方法 1:使用 Cloud Storage 并提供 CSV 索引
将您的训练图片上传到 Google Cloud Storage,并准备一个 CSV 文件,其中列出每张图片的网址,以及(可选)每张图片的正确对象标签和边界区域。使用大型数据集时,此方法很有用。
例如,将您的图片上传到 Cloud Storage,然后准备如下所示的 CSV 文件:
gs://your-training-data-bucket/001.jpg,accordion,0.2,0.4,,,0.3,0.5,, gs://your-training-data-bucket/001.jpg,tuba,0.2,0.5,,,0.4,0.8,, gs://your-training-data-bucket/002.jpg,accordion,0.2,0.2,,,0.9,0.8,,
对象边界框指定为图片中的相对坐标。请参阅设置训练数据 CSV 的格式。
图片必须存储在符合以下条件的存储桶中:位于 us-central1
区域,并且属于 Firebase 项目对应的 Google Cloud 项目。
方法 2:使用未加标签的图片
上传训练图片后,在 Google Cloud 控制台中为这些图片加标签并绘制对象边界。建议仅对小型数据集使用此方法。请参阅下一步。
2. 训练模型
接下来,使用图片训练模型:
在 Google Cloud 控制台中打开 Vision 数据集页面。请在出现提示时选择您的项目。
点击新建数据集,为数据集命名,选择要训练的模型类型,然后点击创建数据集。
在数据集的导入标签页中上传训练图片,可以是训练图片的 zip 归档文件,也可以是包含这些图片已上传到的目标 Cloud Storage 位置的 CSV 文件。请参阅整理训练数据。
导入任务完成后,使用图片标签页验证训练数据。
如果您没有上传 CSV 文件,请针对每张图片在要识别的对象周围绘制边界框,并为每个对象添加标签。
在训练标签页上,点击开始训练。
为模型命名并选择 Edge 模型类型。
配置以下训练设置,以控制生成模型的性能:
针对以下各项优化模型… 要使用的模型配置。如果低延迟或小的数据包很重要,您可以训练更快、更小的模型;或者,如果准确性更为重要,则可以训练较慢、更大的模型。 节点时预算 训练模型花费的最长时间(以计算小时数计量)。通常,训练时间越长,模型越准确。
请注意,如果系统判断模型已经完成优化,额外的训练不会再提高准确性,训练可能在指定时间之前完成。您只需为实际所用的小时数付费。
典型的训练时间 非常小的若干组图片 1 小时 500 张图片 2 小时 1000 张图片 3 小时 5000 张图片 6 小时 10000 张图片 7 小时 50000 张图片 11 小时 10 万张图片 13 小时 100 万张图片 18 小时
3. 评估模型
训练完成后,您可以点击评估标签页以查看模型的性能指标。
此页面的一个重要用途是确定最适合您的模型的置信度阈值。置信度阈值是指为图片分配标签时模型必须具有的最低置信度。通过移动置信度阈值滑块,您可以了解不同阈值对模型的性能有何影响。可使用两个指标来衡量模型性能:精确率和召回率。
在图片分类的相关概念中,精确率是指在所选阈值下,正确添加标签的图片数量与模型添加标签的图片总数之比。当模型具有高精确率时,模型错误分配标签的频率会较低(假正例较少)。
召回率是指正确添加标签的图片数量与包含模型应该能够添加标签的内容的图片数量之比。当模型具有高召回率时,它无法分配任何标签的频率会较低(假负例较少)。
您是针对精确率还是召回率进行优化,将取决于您的使用场景。如需了解详情,请参阅 AutoML Vision 新手指南和包容性机器学习指南 - AutoML。
当您发现可产生您能接受的指标的置信度阈值时,请记下该阈值;您将使用该置信度阈值在应用中配置模型(您可以随时使用此工具获取合适的阈值)。
4. 发布或下载您的模型
如果您对模型的性能感到满意,并希望在应用中使用,可以有以下三种方案并可任意组合搭配:部署模型以进行在线预测、将模型发布到 Firebase,或下载模型并将其与您的应用捆绑在一起。
部署模型
在数据集的测试和使用标签页中,您可以部署模型以进行在线预测,这种方式会在云端运行您的模型。Cloud AutoML 文档介绍了此方法。此网站上的文档讨论了其余两种方法。
发布模型
通过将模型发布到 Firebase,您可以在不发布新应用版本的情况下更新模型,并且可以使用 Remote Config 和 A/B Testing 为不同的用户组动态提供不同的模型。
如果您选择仅通过使用 Firebase 托管模型的方式来提供模型,而不是与应用一起捆绑,则可以缩小应用的初始下载文件大小。但请注意,如果模型未与您的应用捆绑,那么在应用首次下载模型之前,任何与模型相关的功能都将无法使用。
如需发布模型,您可以采用下述两种方式:
- 通过 Google Cloud 控制台中数据集的测试和使用页面下载 TF Lite 模型,然后在 Firebase 控制台的自定义模型页面中上传该模型。这通常是发布单个模型的最简单方法。
- 使用 Admin SDK 将模型直接从 Google Cloud 项目发布到 Firebase。您可以使用此方法批量发布多个模型或帮助创建自动发布流水线。
如需使用 Admin SDK 模型管理 API 发布模型,请执行以下操作:
发布模型。
您将需要指定模型的资源标识符,该标识符是类似于以下示例的字符串:
projects/PROJECT_NUMBER/locations/us-central1/models/MODEL_ID
PROJECT_NUMBER
包含模型的 Cloud Storage 存储桶的项目号。这可能是您的 Firebase 项目或另一个 Google Cloud 项目。您可以在 Firebase 控制台或 Google Cloud 控制台信息中心的“设置”页面内找到此值。 MODEL_ID
您通过 AutoML Cloud API 获取的模型 ID。 Python
# First, import and initialize the SDK. # Get a reference to the AutoML model source = ml.TFLiteAutoMlSource('projects/{}/locations/us-central1/models/{}'.format( # See above for information on these values. project_number, model_id )) # Create the model object tflite_format = ml.TFLiteFormat(model_source=source) model = ml.Model( display_name="example_model", # This is the name you will use from your app to load the model. tags=["examples"], # Optional tags for easier management. model_format=tflite_format) # Add the model to your Firebase project and publish it new_model = ml.create_model(model) new_model.wait_for_unlocked() ml.publish_model(new_model.model_id)
Node.js
// First, import and initialize the SDK. (async () => { // Get a reference to the AutoML model. See above for information on these // values. const automlModel = `projects/${projectNumber}/locations/us-central1/models/${modelId}`; // Create the model object and add the model to your Firebase project. const model = await ml.createModel({ displayName: 'example_model', // This is the name you use from your app to load the model. tags: ['examples'], // Optional tags for easier management. tfliteModel: { automlModel: automlModel }, }); // Wait for the model to be ready. await model.waitForUnlocked(); // Publish the model. await ml.publishModel(model.modelId); process.exit(); })().catch(console.error);
下载模型并将其与应用捆绑在一起
通过将您的模型与应用捆绑,您可以确保即使 Firebase 托管的模型不可用,应用的机器学习功能仍可正常运行。
如果您发布模型并将其与应用捆绑,则应用将使用可用的最新版本。
如需下载模型,请点击数据集的测试和使用页面上的 TF Lite。
后续步骤
您现已发布或下载模型,接下来将了解如何在 iOS+ 和 Android 应用中使用该模型。