2019-7-30
A QNAP anunciou duas novas placas aceleradoras de computação da série Mustang preparadas para deep learning de inteligência artificial
A QNAP anunciou duas placas aceleradoras de computação concebidas para inferência de deep learning de Inteligência Artificial (IA), incluindo a Mustang-V100 (baseada em VPU) e a Mustang-F100 (baseada em FPGA). Os utilizadores podem instalar estas placas aceleradoras PCIe em servidores ou PC baseados em Intel ou NAS da QNAP para lidar com os fluxos de trabalho exigentes de visão computacional e aplicações de IA em produção, serviços de saúde, pequenos negócios, videovigilância, entre outros. “A velocidade de computação é um aspeto fundamental da eficiência da implementação de aplicações de IA”, comentou Dan Lin, Gestor de Produto da QNAP, acrescentando que “enquanto as placas aceleradoras QNAP Mustang-V100 e Mustang-F100 são otimizadas para arquitetura OpenVINO e podem expandir fluxos de trabalho em hardware Intel com desempenho maximizado, também podem ser usadas pela OpenVINO Workflow Consolidation Tool da QNAP para agilizar a aceleração computacional para inferência de deep learning no espaço mais curto de tempo”. Tanto a Mustang-V100 como a Mustang-F100 proporcionam soluções economicamente acessíveis de aceleração para inferência de IA, e também podem ser usadas com o conjunto de ferramentas OpenVINO para otimizar fluxos de inferência para classificação de imagem e visão computacional. O conjunto de ferramentas OpenVINO, desenvolvido pela Intel, proporciona um desenvolvimento mais rápido de visão computacional de alto desempenho e deep learning em aplicação de visão computacional. Inclui o Model Optimizer e Inference Engine, e pode otimizar modelos de deep learning previamente treinados (como o Caffe e o TensorFlow) para uma representação intermediária (IR), e depois executar o motor de inferência ao longo de diferentes tipos de hardware Intel (tais como CPU, GPU, FPGA e VPU). |