砥砺奋进谱新篇,且看旧貌换新颜。欢迎访问新的 IBM Developer 中文网站! 了解详情

通过 Watson Visual Recognition 部署一个 Core ML 模型

摘要

借助 Core ML,开发人员可以将经过训练的机器学习模型集成到应用中。Watson Visual Recognition 现在支持 Core ML 模型。此 Code Pattern 向您展示了如何使用 Watson Visual Recognition 创建 Core ML 模型,然后将此模型部署到 iOS 应用中。

概览

想象您是一家航空公司的技术人员,要从眼前的数千个部件中识别出某一个部件。您甚至可能无法联网。该怎么做呢?从哪里着手?如果有个应用来做这些就好了。好吧,现在您就可以构建一个!

大部分视觉识别产品都依赖于通过 HTTP 对服务器进行 API 调用。通过 Core ML,您可以利用自己的应用部署一个经过训练的模型。通过使用 Watson Visual Recognition,无需任何代码即可对模型进行训练;只需使用 Watson Studio 工具上传图像,然后将经过训练的 Core ML 模型部署到 iOS 应用,便大功告成。

在此 Code Pattern 中,您将训练一个自定义模型。只需单击几次,即可对该模型进行测试,并将其导出,以便在 iOS 应用中使用。此模式包含一个示例数据集,可帮助您构建一个应用来检测不同类型的电缆(即,HDMI 和 USB),但您也可以使用自己的数据。

学完本 Code Pattern 后,您将掌握如何:

  • 通过 Watson Studio 创建数据集
  • 根据数据集来训练 Watson Visual Recognition 分类器
  • 将分类器作为 Core ML 模型部署到 iOS 应用
  • 使用 Watson Swift SDK 来下载、管理和执行经过训练的模型

此 Code Pattern 将帮助您熟悉 Core ML 和 Watson Visual Recognition。准备好在生产环境中进行部署了吗?试用 IBM Cloud Developer Console for Apple 通过 Core ML 快速创建生产就绪型应用。

流程

flow

  1. 导入和标记图像。
  2. 为 Core ML 训练、测试和部署 Watson Visual Recognition 模型。
  3. 在设备上运行应用,使用 Core ML 模型对图像进行分类。
  4. 获取来自用户/设备的反馈,以便在 Watson 上进行迭代训练。

操作说明

准备好使用这个 Code Pattern 了吗?有关如何开始运行和使用该应用的完整细节请参阅 README

本文翻译自:Deploy a Core ML model with Watson Visual Recognition(2018-03-13)