Inferência na borda

Desenvolva seus aplicativos de visão computacional usando a Intel® DevCloud, que inclui uma versão pré-instalada e pré-configurada do Intel® Distribution of OpenVINO™ toolkit. Acesse implementações de referência e modelos pré-treinados para ajudar a explorar cargas de trabalho reais e soluções de aceleração de hardware.

 

Obtenha acesso

 

Já tem uma conta? Registre-se e comece já

O que você pode fazer

Aprendizagem profunda para visão computacional

Visão computacional tradicional

Aceleração de hardware

Comparações de desempenho de inferência

O que você obtém

  • Intel® Distribution of OpenVino™ Toolkit
  • Modelos de visão computacional otimizados para Intel®
  • Frameworks TensorFlow, ONNX, Intel® Optimization for Caffe*, Apache MXNet*
  • Topologias Tiny YOLO* V3, DeepLabV3 e LTSM bidirecional
  • Chamadas de API otimizadas para OpenCV, OpenCL™ e OpenVX*
  • 30 dias de acesso (extensões disponíveis)
  • 50 GB de armazenamento de arquivos

Suporte

Nossa equipe monitora o fórum da comunidade de segunda a sexta-feira, das 9 às 17 horas. Horário do Pacífico.

Obtenha ajuda