Marcos de aprendizaje profundo populares


Los marcos de aprendizaje profundo ofrecen a los científicos de datos, desarrolladores e investigadores un lenguaje de programación general para diseñar, entrenar y validar redes neuronales profundas.

 

TensorFlow*  |  PyTorch*  |  Apache MXNet*  |  BigDL  |  Caffe*

TensorFlow*

Este marco de aprendizaje profundo basado en Python* ha sido diseñado para una implementación flexible y capacidad de extensión a modernas redes neuronales profundas. En colaboración con Google*, TensorFlow ha sido directamente optimizado para la arquitectura Intel® para lograr un alto desempeño en los procesadores escalables Intel® Xeon®.

Más información

Descargas

Contenedores Binarios Código fuente


PyTorch*

Este paquete de Python ofrece una de las implementaciones más rápidas de las redes neuronales dinámicas para lograr velocidad y flexibilidad. En colaboración con Facebook*, este marco popular ahora se combina con muchas optimizaciones de Intel para ofrecer un desempeño superior en la arquitectura Intel®, más notoriamente en los procesadores escalables Intel Xeon.

Descargas

Binarios Código fuente

Documentación

Guía introductoria


PaddlePaddle*

Se conoce a este marco Python* de aprendizaje profundo de código abierto de Baidu por sus operaciones escalables y fáciles de usar. Creado con la Biblioteca Intel® Math Kernel para redes neuronales profundas, este popular marco brinda un desempeño rápido en procesadores escalables Intel Xeon, así como una gran colección de herramientas para ayudar a los desarrolladores de inteligencia artificial.

Descargas

Código fuente

Documentación

Guía introductoria


MXNet*

MXNet, un marco de aprendizaje profundo de código abierto, es altamente portátil y liviano y ha sido diseñado para ofrecer eficacia y flexibilidad por medio de una programación imperativa y simbólica. Incluye compatibilidad incorporada para optimizaciones de Intel, con el fin de lograr un alto desempeño en los procesadores escalables Intel Xeon.

Descargas

Contenedores Binarios Código fuente

Documentación

Guía de instalación
Técnicas de optimización
Consejos sobre desempeño para las CPU
Desempeño de inferencia en los procesadores escalables Intel® Xeon®



Caffe*

Creado gracias al Centro de Visión y Aprendizaje de Berkeley (BVLC, por sus siglas en inglés) y colaboradores de la comunidad, Intel® Optimization for Caffe* es una variación que mantiene Intel y que se optimiza para arquitecturas Intel. Esta rama optimizada de Caffe* constituye uno de los marcos más populares para el reconocimiento de imágenes con mejoras del desempeño en los procesadores escalables Intel Xeon .

Más información

Descargas

Contenedores Binarios Código fuente

Explore Intel® DevCloud

Con aceleración de AI incorporada, este potente clúster de los procesadores escalables Intel® Xeon® más recientes ofrece el entorno apropiado para sus experimentos con código y depuración.