65.9K
CodeProject 正在变化。 阅读更多。
Home

在 Intel® 硬件上部署深度学习模型的无代码方法

starIconstarIconstarIconstarIconstarIcon

5.00/5 (2投票s)

2022 年 3 月 15 日

CPOL

7分钟阅读

viewsIcon

4388

在本文中,我们将向您介绍 Intel® 深度学习推理工具及其基本工作原理。

关于 OpenVINO™ 深度学习工作台的三部分系列

关于本系列

  • 了解如何仅使用 Web 浏览器即可转换、微调和打包一个已为 Intel® 硬件优化的、可用于推理的 TensorFlow 模型。所有步骤都将在云端完成,使用 OpenVINO™ 深度学习工作台和 Intel® DevCloud for the Edge。
  • 第一部分(您正在阅读!): 我们将向您介绍 Intel® 深度学习推理工具及其基本工作原理。
  • 第二部分: 我们将通过 OpenVINO 深度学习工作台,逐步介绍导入、转换和基准测试 TensorFlow 模型的过程。
  • 第三部分: 我们将向您展示如何更改精度级别以提高性能,并仅使用浏览器通过 OpenVINO 深度学习工作台导出可直接运行的推理包。

第一部分:Intel® 深度学习推理部署工具

了解 OpenVINO™ 深度学习工作台和 Intel® DevCloud for the Edge 的基础知识

修剪深度学习模型、组合网络层、为多个硬件目标开发——从训练好的深度学习模型到可部署的推理模型似乎需要大量工作,如果手动编写代码确实如此。

借助 Intel® 工具,您可以完全在线完成从训练模型到优化、打包的推理模型,而无需编写任何代码。在本文中,我们将向您介绍用于深度学习部署的 Intel® 工具包,包括 Intel® OpenVINO™ 发行版工具包和深度学习工作台。之后,我们将引导您注册一个免费的 Intel DevCloud for the Edge 帐户,以便您开始优化自己的推理模型。

什么是深度学习模型?如何在 Intel 硬件上进行部署?

深度学习有两个主要阶段:训练和推理。在训练过程中,计算机通过分析成千上万的输入(图像、句子、声音)并猜测其含义来构建人工神经网络模型。一个反馈循环会告诉机器猜测是正确还是错误。这个过程重复数千次,创建一个多层算法网络。一旦网络达到目标精度,就可以将其冻结并导出为训练好的模型。

在深度学习推理过程中,设备会将传入数据与训练好的模型进行比较,并推断出数据的含义。例如,智能摄像头将视频帧与用于对象检测的深度学习模型进行比较。然后,它会推断出一个形状是猫,另一个是狗,第三个是汽车,等等。在推理过程中,设备不会学习;它会识别和解释接收到的数据。

有许多流行的框架——例如 TensorFlow PyTorch、MXNet、PaddlePaddle——以及大量的深度学习拓扑结构和训练好的模型。每个框架和模型都有其自己的语法、层和算法。要在 Intel® CPU、集成 GPU 或 Intel® Movidius™ VPU 上运行深度学习模型,我们需要

  1. 优化模型,使其运行速度尽可能快
     
  2. 将其转换为中间文件(IR 文件),以便在任何 Intel 硬件组合上运行
     
  3. 对其进行微调,使其在性能和精度之间达到适当的平衡
     
  4. 将其打包成完整的推理模型,为部署做好准备

如何做到这一切?您需要数据科学学位吗?不用。您只需要 OpenVINO 深度学习工作台。 

优化 | 转换为 IR 文件 | 微调 | 打包和部署

使用浏览器部署深度学习模型:OpenVINO 深度学习工作台

深度学习工作台通过基于 Web 的界面为您提供了 OpenVINO™ 工具套件的访问权限,包括模型下载器模型优化器训练后优化工具精度检查器基准测试工具

借助深度学习工作台,您可以从训练好的模型到经过测试和微调的应用程序包,进行点选式操作。

深度学习工作台面向谁?

除了您自己,您是指,对吗?我们为两种基本类型的开发人员构建了深度学习工作台和 DevCloud:初学者,特别是 AI 部署方面的初学者,以及需要尽可能快速、无痛地将 AI 推向生产环境的工作专业人士。

深度学习工作台简化了模型导入、微调和部署。

如果您是初学者

注册 DevCloud 并通过教程和参考实现进行学习。然后,使用深度学习工作台创建您的第一个优化推理模型。您可以尝试不同的优化,并观察您的模型在各种不同 Intel 硬件和加速器上的运行情况。

如果您是专业人士

使用 DevCloud 和深度学习工作台转换预训练模型,然后进行系统性的基准测试、测试和微调。您可以构建可在任何现代 Intel® 芯片上运行的生产级深度学习推理应用程序。您无需购买硬件或成为数据科学家即可完成。

在最新的 Intel 硬件上进行测试和微调——无需购买任何硬件!

您可以在本地计算机上运行深度学习工作台,但这仅意味着您只能在自己的设备上进行测试和部署。我们为您提供了一个更好的——免费的——测试平台:Intel DevCloud for the Edge。

DevCloud 是一个在线沙盒,您可以在其中在一个地方的各种 Intel 硬件上,在 JupyterLab 环境中运行深度学习工作台。

您可以在 Intel DevCloud for the Edge 上免费执行的五项主要操作

  1. 了解 Intel 硬件上的深度学习推理。
     
  2. 探索深度学习推理中间件和参考应用程序。
     
  3. 创建您自己的 JupyterLab 笔记本,并使用 Intel® OpenVINO™ 发行版工具包在线构建应用程序。
     
  4. 在最新的 Intel 硬件上测试您的应用程序,包括来自Intel 生态系统合作伙伴的机器。
     
  5. 运行 OpenVINO 深度学习工作台,无需编写代码即可将训练好的模型转化为优化后的、可部署的推理模型。

免费获得 Intel® 硬件和 Intel® DevCloud for the Edge 上的深度学习工作台的访问权限。

开始吧——如何启动 OpenVINO 深度学习工作台

如果您还没有帐户,请注册 DevCloud for the Edge,方法是接受 Intel 的条款和条件以及隐私政策。请继续。它是免费的,只需几分钟即可完成。\

拥有帐户后,请登录

注意:为获得最佳体验,请使用 Google Chrome 访问 Intel DevCloud for the Edge。

转到“优化”选项卡,然后选择“深度学习工作台”。

登录后,从“优化”选项卡启动深度学习工作台。

JupyterLab 中将打开一个新的笔记本,其中包含一个要运行的单元格。别担心!这是您将看到的唯一代码。将光标放在单元格中,然后点击菜单栏中的“运行”按钮。单元格下方将出现一个“开始”按钮。点击“启动应用程序”,您就可以开始了。

在 JupyterLab 中启动启动器后,运行第一个单元格,然后点击“启动应用程序”。

接下来是第二部分: 使用 OpenVINO™ 深度学习工作台,在 Intel 硬件上导入、转换和基准测试 TensorFlow* 模型...

第三部分: 重新校准精度并打包您的 TensorFlow 模型以使用 OpenVINO™ 深度学习工作台进行部署

在下一篇文章中,我们将向您展示如何创建新项目,并用六个简单步骤导入和基准测试 TensorFlow 模型。 

了解更多

声明和免责声明

性能因使用情况、配置和其他因素而异。有关更多信息,请访问 www.Intel.com/PerformanceIndex​​。

性能结果基于截至所示日期的测试配置,可能不反映所有公开可用的更新。 有关配置详细信息,请参阅备份。 任何产品或组件都无法保证绝对安全。 

您的成本和结果可能有所不同。 

英特尔技术可能需要启用硬件、软件或服务激活。

Intel 不控制或审核第三方数据。 您应咨询其他来源以评估准确性。

© Intel Corporation.  Intel、Intel 徽标和其他 Intel 标志是 Intel Corporation 或其子公司的商标。 其他名称和品牌可能被声称为他人的财产。 ​

© . All rights reserved.