您的人工智能推理应用程序...现在更快了

利用英特尔® Distribution of OpenVINO™ 工具套件开发使用深度学习智能的应用程序和解决方案。该工具套件基于卷积神经网络 (CNN),将工作负荷跨英特尔® 硬件(包括加速器)扩展并最大限度提高性能。

探索功能

高性能,深度学习

跨多个平台加速深度神经网络工作负载,以实现更快、更准确的人工智能推理结果。

简化开发

启用简化的端到端开发和部署工作流。

一次写入,处处部署

英特尔® Distribution of OpenVINO™ 工具套件通过高级通用 API 支持跨目标环境的异构执行。

英特尔提供了强大的可扩展硬件和软件解决方案组合,并由英特尔 Distribution of OpenVINO toolkit 提供支持,可满足任何使用案例的各种性能、功耗和价格需求。了解该工具套件如何在多个深度神经网络上以高吞吐率和效率促进您的推理应用程序。 

2021.2

2020.3.1 LTS

荣获 Embedded Vision Alliance 大奖*

由 oneAPI 提供支持

高效、智能的途径,可以摆脱专有替代方案的经济和技术负担,实现加速计算的自由。

准备开始了吗?


产品和性能信息

1

性能因用途、配置和其他因素而异。请访问 www.Intel.com/PerformanceIndex 了解更多信息。