Artículo técnico

Оптимизировали, оптимизировали, да не выоптимизировали!

Оптимизация? Конечно, каждый сталкивался с данной задачей при разработке своих, сколь-нибудь значительных, требующих определённых вычислений, приложений. При этом способов оптимизировать код существует огромное множество, и, как следствие, различных путей сделать это в автоматическом режиме с помощью опций компилятора. Вот здесь и возникает проблема – как выбрать то, что нужно нам и не запутаться?

面向英特尔 Python* 分发包的 Docker 映像

我们发布了面向英特尔 Python 的 Docker 映像。如欲获取映像,请访问Docker Hub,访问 GitHub 获取 Dockerfile。我们为 Python 2 和 Python 3 提供映像,映像分为核心配置和完整配置。核心配置包含 NumPy/Scipy 和关联组件,完整配置包含我们所有分发包。 如果您想自定义 Docker 映像,可以从我们发布的 Dockerfile 入手,也可以使用 Docker FROM 命令,将映像用作基础。

入门知识:

Docker 是一项热门的 Linux 容器技术,通过一个简单的命令行接口,支持服务和应用的部署与可重复性。 更多信息详见 Docker 官方网站,https://www.docker.com/

获取面向分发包的 Docker 映像:

  • Inteligencia artificial
  • Intel® Distribution for Python*
  • 借助 Anaconda* 安装英特尔® Python* 分发包和英特尔® 性能库

    我们与 Continuum Analytics* 公司通力合作,致力于使用 Conda* 软件包管理器和 Anaconda 云* 简化英特尔® Python* 分发包和社区论坛支持的英特尔® 性能库(如英特尔® 数学核心函数库(英特尔® MKL))。最低版本要求为 conda 4.1.11,所以,请首先更新您的 conda。

    conda update conda

    通知 conda 选择英特尔软件包(如果可用的话),而非默认软件包。

    conda config --add channels intel

    安装英特尔® Python* 分发包

    建议您在安装时创建一个新环境。执行以下命令,安装核心 python3 环境:

  • Inteligencia artificial
  • Python*
  • Intel® Distribution for Python*
  • Biblioteca central de matemáticas Intel®
  • installation
  • Conda
  • Anaconda
  • 隆重推出英特尔® Python* 分发包

    我非常高兴地宣布英特尔推出了首款支持 Anaconda* 的英特尔® Python 分发包*。英特尔为何要创建 python 分发包?我们希望为 python 用户提供他们习以为常的高效,同时确保性能不受影响。我们的客户告诉我们,很难找到一款充分利用最新款处理器的 Python。单路至强融核系统每周期可以执行 4600 次单精度浮点运算,但是某些常用的 python 软件堆栈每周期浮点运算次数仅为 4 次,这是因为它们无法利用多个内核或最新 SIMD 指令。

    Tuning SIMD vectorization when targeting Intel® Xeon® Processor Scalable Family

    Introduction

    The Intel® Xeon® Processor Scalable Family is based on the server microarchitecture codenamed Skylake.

    For best possible performance on the Intel Xeon Processor Scalable Family, applications should be compiled with processor-specific option [Q]xCORE-AVX512 using the Intel® C++ and Fortran compilers. Note that applications built with this option will not run on non-Intel or older instruction-sets based processors.

  • Linux*
  • Microsoft Windows* 10
  • C/C++
  • Fortran
  • Herramientas de desarrollo
  • Computación en paralelo
  • Vectorización
  • Using Intel® Advisor and VTune™ Amplifier with MPI

    Introduction

    This article describes how to use Intel® Advisor and VTune™ Amplifier in a Linux* distributed environment. While specifically designed to collect performance data at the node and core level, both tools can be used with MPI. The document covers basic utilization with an MPI launcher from the command line, as well as more advanced customizations.

  • Linux*
  • Intel® Parallel Studio XE
  • Intel® Advisor
  • Amplificador Intel® VTune™
  • Computación con clústeres
  • Computación en paralelo
  • Integration Wrappers for Intel® Integrated Performance Primitives (Intel® IPP)

    To provide easy-to-use APIs and reduce the effort required to add Intel® Integrated Performance Primitives (Intel® IPP) functions to your application, Intel® IPP library introduces new Integration Wrappers APIs. These APIs aggregate multiple Intel® IPP functions and provide easy interfaces to support external threading of Intel® IPP functions. 

    Integration Wrappers consist of C and C++ interfaces:

  • Apple macOS*
  • Linux*
  • Microsoft Windows* 10
  • Microsoft Windows* 8.x
  • C/C++
  • Intel® Integrated Performance Primitives
  • Cache Allocation Technology: A Telco’s NFV Noisy Neighbor Experiments

    Predictable, deterministic QoS is a key challenge for NFV adoption, particularly for 5G. Get insights gained from BP's noisy neighbor experiments using cache allocation technology and real-world VNFs.
  • Redes
  • Virtualización de funciones de red (NFV, por sus siglas en inglés)
  • Red definida por software (SDN, por sus siglas en inglés)
  • Suscribirse a Artículo técnico