通过 Watson Visual Recognition 部署一个 Core ML 模型  

利用 Watson Visual Recognition 和 Core ML 脱机对图像进行分类

Description

借助 Core ML,开发人员可以将经过训练的机器学习模型集成到应用中。Watson Visual Recognition 现在支持 Core ML 模型。此 Code Pattern 向您展示了如何使用 Watson Visual Recognition 创建 Core ML 模型,然后将此模型部署到 iOS 应用中。

概览

想象您是一家航空公司的技术人员,要从眼前的数千个部件中识别出某一个部件。您甚至可能无法联网。该怎么做呢?从哪里着手?如果有个应用来做这些就好了。好吧,现在您就可以构建一个!

大部分视觉识别产品都依赖于通过 HTTP 对服务器进行 API 调用。通过 Core ML,您可以利用自己的应用部署一个经过训练的模型。通过使用 Watson Visual Recognition,无需任何代码即可对模型进行训练;只需使用 Watson Studio 工具上传图像,然后将经过训练的 Core ML 模型部署到 iOS 应用,便大功告成。

在此 Code Pattern 中,您将训练一个自定义模型。只需单击几次,即可对该模型进行测试,并将其导出,以便在 iOS 应用中使用。此模式包含一个示例数据集,可帮助您构建一个应用来检测不同类型的电缆(即,HDMI 和 USB),但您也可以使用自己的数据。

学完本 Code Pattern 后,您将掌握如何:

  • 通过 Watson Studio 创建数据集
  • 根据数据集来训练 Watson Visual Recognition 分类器
  • 将分类器作为 Core ML 模型部署到 iOS 应用
  • 使用 Watson Swift SDK 来下载、管理和执行经过训练的模型

此 Code Pattern 将帮助您熟悉 Core ML 和 Watson Visual Recognition。准备好在生产环境中进行部署了吗?试用 IBM Cloud Developer Console for Apple 通过 Core ML 快速创建生产就绪型应用。

  1. 导入和标记图像。
  2. 为 Core ML 训练、测试和部署 Watson Visual Recognition 模型。
  3. 在设备上运行应用,使用 Core ML 模型对图像进行分类。
  4. 获取来自用户/设备的反馈,以便在 Watson 上进行迭代训练。

相关博客

未找到与您的短代码搜索条件匹配的帖子。

相关链接

Swift@IBM

为服务器构建强大、快速、安全的 Swift 应用程序

人工智能

能像人一样理解、推理、学习和交互的认知技术。

通过对数据分类进行预测

预测和分类是机器学习的两个有许多应用的重要方面。在“数据科学简介”系列的第二篇教程中,将了解通过数据分类最充分地利用数据集的两种方法:概率神经网络和基于密度的聚类。