TensorFlow*

Este marco de aprendizaje profundo basado en Python* ha sido diseñado para una implementación flexible y capacidad de extensión a modernas redes neuronales profundas. En colaboración con Google*, TensorFlow ha sido directamente optimizado para la arquitectura Intel® para lograr un alto desempeño en los procesadores escalables Intel® Xeon®.

 

Descargas

Contenedores Binarios Código fuente

PyTorch*

Este paquete de Python ofrece una de las implementaciones más rápidas de las redes neuronales dinámicas para lograr velocidad y flexibilidad. En colaboración con Facebook*, este marco popular ahora se combina con muchas optimizaciones de Intel para ofrecer un desempeño superior en la arquitectura Intel®, más notoriamente en los procesadores escalables Intel Xeon.

 

Descargas

Binarios Códigos fuente

 

Documentación

Guía introductoria

PaddlePaddle*

Este marco de código abierto de aprendizaje profundo de Python* de Baidu es conocido por sus operaciones fáciles de usar y escalables. Creado con Intel® Math Kernel Library for Deep Neural Networks, este popular marco brinda un desempeño rápido en procesadores escalables Intel Xeon, así como una gran colección de herramientas para ayudar a los desarrolladores de inteligencia artificial.

 

Descargas

Código fuente

 

Documentación

Guía introductoria

MXNet*

MXNet, un marco de aprendizaje profundo de código abierto, es altamente portátil y liviano y ha sido diseñado para ofrecer eficacia y flexibilidad por medio de una programación imperativa y simbólica. Incluye compatibilidad incorporada para optimizaciones de Intel, con el fin de lograr un alto desempeño en los procesadores escalables Intel Xeon.

 

Descargas

Contenedores Binarios Código fuente

BigDL

Este marco de aprendizaje profundo distribuido y escalable de código abierto para Apache Spark*, ofrece compatibilidad nativa con las funciones de aprendizaje profundo con el desempeño de los procesadores Intel Xeon.

Más información

 

Descargas

Contenedores Binarios Código fuente

Caffe*

Creado por el Centro de Visión y Aprendizaje de Berkeley (BVLC) y colaboradores de la comunidad, Intel® Optimization for Caffe* es una desviación mantenida por Intel que está optimizada para las arquitecturas Intel. Esta rama optimizada de Caffe es uno de los marcos más populares para el reconocimiento de imágenes con un rendimiento mejorado en los procesadores escalables Intel Xeon.

 

Descargas

Contenedores Binarios Código fuente

Explore Intel® DevCloud

Con aceleración de AI incorporada, este potente clúster de los procesadores escalables Intel® Xeon® más recientes ofrece el entorno apropiado para sus experimentos con código y depuración.

Seminario web: Obtenga el desempeño del marco de aprendizaje profundo

Descubra de qué manera los marcos optimizados por Intel pueden acelerar sus aplicaciones de inteligencia artificial (AI) en la arquitectura Intel®.