Inferência na borda

 
Desenvolva seus aplicativos de visão computacional usando a Intel® DevCloud, que inclui uma versão pré-instalada e pré-configurada do Intel® Distribution of OpenVINO™ toolkit. Acesse implementações de referência e modelos pré-treinados para ajudar a explorar cargas de trabalho reais e soluções de aceleração de hardware.

Registre-se para versões beta

O que você pode fazer

Aprendizagem profunda para visão computacional

Visão computacional tradicional

Aceleração de hardware

Comparações de desempenho de inferência

O que vem dentro

Hardware

  • Processadores Intel® Core™ da 6ª à 8ª geração
  • Processadores Intel® Xeon®
  • Kits Intel® para desenvolvedores de IoT
  • Stick de computação neural Intel®
  • Intel® Processor Graphics
  • Unidades de processamento de imagens
  • Intel® FPGAs
  • Intel® Vision Accelerator Design
  • Unidade de processamento visual Intel® Movidius™ (VPU)

Frameworks

  • TensorFlow*
  • Intel® Optimization for *Caffe
  • ONNX*
  • Apache MXNet*

Topologias

  • Tiny YOLO* versão 3
  • Full DeepLab versão 3
  • Long short-term memory (LSTM) bidirecional 

Ferramentas

  • Intel® Distribution of OpenVINO™ toolkit

Chamadas de API otimizadas

  • OpenCV*
  • OpenCL™
  • OpenVX*

O que você obtém

  • O hardware Intel® mais recente
  • Frameworks Intel® otimizados
  • Ferramentas de visão computacional mais recentes
  • 50 GB de armazenamento de arquivos

Suporte

Nossa equipe monitora o fórum da comunidade de segunda a sexta-feira, das 9h00 às 17h00, horário do Pacífico.

Obtenha ajuda