‹ 返回视频系列: 面向新手的人工智能从业者指南

视频系列:面向新手的人工智能从业者指南 | 第 3 部分:使用人工智能容器

  • 概览
  • 资源
  • 文字稿

了解如何使用 Docker* 图像和英特尔® Optimization for TensorFlow* 在英特尔® 至强® 可扩展处理器上部署 TensorFlow 框架。

欢迎回到面向新手的人工智能从业者指南。我是 Beenish Zia。在本期节目中,您将快速了解如何使用英特尔® Optimization for TensorFlow* 与 Docker* 图像在英特尔® 至强® 可扩展平台上部署 TensorFlow* 框架。

在上期节目中,您了解了如何在裸机上部署 - 从零开始安装所有软件。这是一个学习相关步骤的好方法,为您提供了关联组件,以便您针对特定用例调整基本环境设置。但是,许多开发人员宁愿在软件包中提供基本优化,这样他们可以加速工作负载训练和测试。对于此类开发人员,优化的 TensorFlow 容器是最佳选择。

各种开源社区中存在着许多容器。本指南使用英特尔 Optimization for TensorFlow 与 Docker 图像进行单节点部署。

在英特尔至强可扩展平台上部署容器的第一步与裸机的部署步骤非常相似。配置硬件后,将安装操作系统。在本示例中,我们使用 CentOS*。本指南提供了详细的操作系统安装步骤,以供参考。

安装操作系统后,您需要配置 YUM,安装 EPEL [企业版 Linux* 附加软件包],后者为 Linux 分发版提供 100%、高质量附加软件包。最后,如果 GCC* 不是操作系统安装的一部分,安装 GCC。

安装操作系统和基本附加软件包后,接下来开始下载与安装 Anaconda*。Anaconda 是一款开源 Python* 分发版,它简化了在 Linux 和其他操作系统上使用 Python 和机器学习包的流程。

Anaconda 安装完成后,您需要打开一个新的终端。在 Anaconda 提示中,安装 Anaconda 中最新的英特尔 Optimization for TensorFlow。

下一步是安装 Docker,如果您已经安装了 Docker,可以跳过此步骤。您需要 Docker 的原因是我们将使用英特尔 Optimization for TensorFlow 与 Docker 图像。

正确安装 Docker 后,您只需使用 Docker pull 命令提取之前讨论的 Docker 图像。提取 Docker 容器图像后,您可以将其运行为 Jupyter* Notebook 或交互终端。

运行 Docker 图像时,您可以下载用于深度学习培训和测试的最新性能指标评测。需要注意的是,容器图像是轻量级的,这意味着在运行 TensorFlow 性能指标评测前,您需要在运行的 Docker 图像(如 YUM、WGET、vi 等)中安装基本 Linux 软件包。

在编写指南期间,针对英特尔® 技术优化的 Docker 容器均不支持多个节点,因此,未包含经过测试的说明。尽管如此,推荐阅读已发表的文档,如《使用 MLT 在 Kubernetes 上执行 Horovod 分布式训练》。此外,如果你想在多个节点上通过容器部署 TensorFlow,请参阅链接中提供的白皮书和 Nauta。第一篇文档提供了使用多节点环境创建 singularity 容器以及部署这些 singularity 容器的步骤。

不要忘记在英特尔® 开发人员专区上查看完整的书面指南,以了解使用容器在英特尔至强可扩展平台上部署 TensorFlow 的更多详情。感谢大家收看,请继续提升自己。