Filtres

2292 résultats correspondants
Blog post

Parallel Universe Magazine #12: Advanced Vectorization

This blog contains additional content for the article "Advanced Vectorization" from Parallel Universe #12:

Écrit par Georg Zitzlsberger (Intel) Dernière mise à jour le 30/07/2015 - 05:03
Article

Webinar: Get Ready for Intel® Math Kernel Library on Intel® Xeon Phi™ Coprocessors

Intel recently unveiled the new Intel® Xeon Phi™ product – a coprocessor based on the Intel® Many Integrated Core architecture.

Écrit par Zhang Z. (Intel) Dernière mise à jour le 30/07/2015 - 05:04
Article

Mapping of Intel® MPI Library versions to bundle suites

Introduction: Mapping the Intel® MPI Library numbers to specific suites and update versions

Écrit par Gergana S. (Intel) Dernière mise à jour le 30/07/2015 - 05:04
Article

借助基于 MPICH 的应用使用英特尔® MPI 库 5.0

优势

不同的 MPI 实现具备不同的优势。 因此在特定集群环境中,采用其他 MPI 实现的 HPC 应用可能能够提供更高的性能。

 英特尔® MPI 库 具备以下优势:

Écrit par Dmitry Sivkov (Intel) Dernière mise à jour le 30/07/2015 - 05:04
Article

Using Intel® MPI Library 5.0 with MPICH based applications

Why it is needed?
Écrit par Dmitry Sivkov (Intel) Dernière mise à jour le 30/07/2015 - 05:04
Article

Hybrid applications: Intel MPI Library and OpenMP*

Tips and tricks on how to get the optimal performance settings for your mixed Intel MPI/OpenMP applications.
Écrit par Gergana S. (Intel) Dernière mise à jour le 30/07/2015 - 05:04
Article

Using the Intel® MPI Library in a server/client setup

A guide for using the MPI_Comm_accept and MPI_Comm_connect functions to form a server/client program suite with the Intel® MPI Library.
Écrit par James T. (Intel) Dernière mise à jour le 30/07/2015 - 05:04
Article

Intel® Threading Building Blocks: Scalable Programming for Multi-Core

Intel’s new parallel programming model is a new set of Libraries developed by Intel Software and Solutions Group in order to help developers write scalable code without worrying about managing threads.
Écrit par Arch D. Robison (Intel) Dernière mise à jour le 30/07/2015 - 05:06
Article

Granularity and Parallel Performance

One key to attaining good parallel performance is choosing the right granularity for the application. Granularity is the amount of real work in the parallel task. If granularity is too fine, then performance can suffer from communication overhead.
Écrit par admin Dernière mise à jour le 30/07/2015 - 05:06
Pour de plus amples informations sur les optimisations de compilation, consultez notre Avertissement concernant les optimisations.