Article

借助针对英特尔® 架构优化的 Caffe* 来训练和部署深度学习网络

Caffe* is a deep learning framework developed by the Berkeley Vision and Learning Center (BVLC). Caffe optimized for Intel architecture is currently integrated with the latest release of Intel® Math Kernel Library (Intel® MKL) 2017 optimized for Advanced Vector Extensions (AVX)-2 and AVX-512 instructions which are supported in Intel® Xeon® and Intel® Xeon Phi™ processors (among others). This...
作者: Andres R. (Intel) 最后更新时间: 2017/03/06 - 19:32
Article

基于英特尔® 至强 E5 系列处理器的单节点 Caffe 评分和训练

As Deep Neural Network (DNN) applications grow in importance in various areas including internet search engines and medical imaging, Intel teams are working on software solutions to accelerate these workloads that will become available in future versions of Intel® Math Kernel Library (Intel® MKL) and Intel® Data Analytics Acceleration Library (Intel® DAAL). This technical preview demonstrates...
作者: Gennady F. (Intel) 最后更新时间: 2016/12/05 - 16:48
Article

在不编写 AVX 的情况下使用英特尔® AVX

Intel® AVX is a new 256-bit instruction set extension to Intel® Streaming SIMD Extensions and is designed for applications that are floating point intensive. This paper discusses options to integrate Intel® AVX into an application via use of intrinsics.
作者: richard-hubbard (Intel) 最后更新时间: 2016/07/15 - 10:33
Article

在不编写 AVX 代码的情况下使用 AVX

1. 简介和工具
作者: 管理 最后更新时间: 2016/10/11 - 20:23
Article

使用英特尔® 软件开发仿真器的优势

简介

全新的英特尔处理器引入了增强型扩展指令集,以此提升应用的性能或增强其安全性。  英特尔 AVX1 和 AVX21 等扩展指令集主要用于提升性能,而英特尔 SHA2 指令则用于 SHA 加速,从而增强应用的安全性。

作者: Nguyen, Khang T 最后更新时间: 2016/04/11 - 11:48
Article

基于英特尔® 至强™ 处理器 E5-2600 v3 的东软计算机断层扫描

下载 PDF

作者: Nguyen, Khang T 最后更新时间: 2016/04/12 - 22:58
Article

利用256位英特尔®高级矢量扩展指令集(英特尔®AVX)实现3D矢量标准化

本文描述了如何利用256位英特尔® 高级矢量扩展指令集(英特尔® AVX)实现3D矢量数组的标准化。此外,我们还介绍了在AOS和SOA之间进行动态转换,让数据用于8-wide单指令多数据(SIMD)处理的乱序方法。从8x3到3x8的转置可通过5个乱序操作来实现,而从3x8到8x3的转置则需要6个乱序操作。结果表明,使用更宽的SIMD执行标准化计算具备显著的优势,采用128位和256位版本可分别将计算速度提高2.3和2.9倍。支持SOA处理的双向转置开销非常低(11 个额外指令),适合用于此类小型计算
作者: Stan Melax (Intel) 最后更新时间: 2014/11/13 - 20:53
有关编译器优化的更完整信息,请参阅优化通知