AEMpress
  • Home
  • Quem somos
  • O que fazemos
  • Onde estamos
  • Press Releases
  • Blogue
  • English version

QNAP Introduz as Placas Aceleradoras de Computação Série Mustang com Solução de Aceleração de Visão Intel VPU/FPGA para Potenciar a Aprendizagem Hierarquizada Inferencial

29/7/2019

 
Imagem
A QNAP® Systems, Inc. (QNAP), uma das empresas líderes em soluções de rede, computação e armazenamento, anunciou hoje duas placas aceleradoras de computação concebidas para inferência de “deep learning” de Inteligência Artificial (IA), incluindo a Mustang-V100 (baseada em VPU) e a Mustang-F100 (baseada em FPGA). Os utilizadores podem instalar estas placas aceleradoras PCIe em servidores/PCs baseados em Intel® ou NAS da QNAP para lidar com os fluxos de trabalho exigentes de visão computacional e aplicações de IA em produção, serviços de saúde, pequenos negócios, videovigilância, entre outros.

“A velocidade de computação é um aspeto fundamental da eficiência da implementação de aplicações de IA,” comentou Dan Lin, Gestor de Produto da QNAP, acrescentando que “Enquanto as placas aceleradoras QNAP Mustang-V100 e Mustang-F100 são otimizadas para arquitetura OpenVINO™ e podem expandir fluxos de trabalho em hardware Intel com desempenho maximizado, também podem ser usadas pela OpenVINO Workflow Consolidation Tool da QNAP para agilizar a aceleração computacional para inferência de ‘deep learning’ no espaço mais curto de tempo.”

Tanto a Mustang-V100 como a Mustang-F100 proporcionam soluções economicamente acessíveis de aceleração para inferência de IA, e também podem ser usadas com o conjunto de ferramentas OpenVINO para otimizar fluxos de inferência para classificação de imagem e visão computacional. O conjunto de ferramentas OpenVINO, desenvolvido pela Intel, proporciona um desenvolvimento mais rápido de visão computacional de alto desempenho e “deep learning” em aplicação de visão computacional. Inclui o Model Optimizer e Inference Engine, e pode otimizar modelos de “deep learning” previamente treinados (como o Caffe e o TensorFlow) para uma representação intermediária (IR), e depois executar o motor de inferência ao longo de diferentes tipos de hardware Intel (tais como CPU, GPU, FPGA e VPU).

À medida que os NAS da QNAP evoluem para suportar uma maior gama de aplicações (incluindo videovigilância, virtualização e IA), a combinação de um armazenamento amplo e de expansibilidade PCIe é vantajosa pelo seu potencial uso para IA. A QNAP desenvolveu a ferramenta OpenVINO Workflow Consolidation Tool (OWCT), que potencia a tecnologia do conjunto de ferramentas OpenVINO da Intel. Quando usados com OWCT, os NAS da QNAP baseados em Intel apresentam-se como uma solução ideal de Inference Server para ajudar organizações a construir sistemas de inferência rapidamente. Os criadores de IA podem implementar modelos treinados num NAS da QNAP para inferência, e instalar as placas aceleradoras Mustang-V100 ou Mustang-F100 para alcançar um desempenho otimizado para executar a inferência.

Os NAS da QNAP agora suportam as placas Mustang-V100 e Mustang-F100 com a mais recente versão do sistema operativo QTS 4.4.0. Para conhecer todos os modelos de NAS da QNAP que suportam o QTS 4.4.0., por favor, visite www.qnap.com. Para fazer download e instalar a app OWCT para NAS da QNAP, por favor, visite o App Center.

Características Principais
  • Mustang-V100-MX8-R10
    Oito VPUs Intel® Movidius™ Myriad™ X MA2485 de meia altura, interface PCI Express Gen2 x4, consumo de energia inferior a 30W
  • Mustang-F100-A10-R10
    FPGA Intel® Arria® 10 GX1150 de meia altura, interface PCI Express Gen3 x8, consumo de energia inferior a 60W
Fotos de alta resolução: https://fotos.aempress.com/QNAP/QNAP-Mustang-V100F100/

Comments are closed.
    Procura imagens de alta resolução? Visite a nossa galeria em fotos.aempress.com

    Marcas e Empresas

    All
    121
    ABC
    Acer
    AEMpress
    AgfaPhoto
    Angelbird
    ANT
    AquaTech
    Audiolab
    Audioquest
    Axpo
    BenQ
    Biliti
    Binance
    Bose
    Bowers & Wilkins
    Braven
    Brennenstuhl
    Casa Da Imprensa
    Cotton Carrier
    Definitive Technology
    Denon
    Denon Pro
    Devolo
    Drink6
    Dynaudio
    EARPRO
    ESET
    Esoterico
    Evolution
    Feelworld
    Focal
    Fortis
    Fyne Audio
    GoodRAM
    Gudsen
    Hama
    Hasselblad
    Hollyland
    House Of Marley
    IFi
    Infinite Connections
    InPost
    Invoxia
    Iron Annie
    JAM
    Kali Audio
    KEF
    Kevin
    KOSS
    LituFoto
    Lume Cube
    Macrium
    Madoqua
    Marantz
    Mental
    Metz
    Mondial Relay
    NAD
    Naim
    Newell
    NextBITT
    Peli
    Perfume's Club
    Polk
    Powergrip
    Predator
    Priberam
    Pro Ject
    Pro-Ject
    QNAP
    Rapoo
    Reflecta
    Roberts
    Robisa
    Rotel
    Rotolight
    Samyang
    Sarteaudio
    Satcab
    Shure
    Smartaudio
    SoundUnited
    SRI
    SupportView
    Tamron
    Tivoli Audio
    TourBox
    Vostok Europe
    Wharfedale
    WhiteHat
    XEEN
    Xtorm
    ZAGG

    Data

    December 2022
    November 2022
    October 2022
    September 2022
    August 2022
    July 2022
    June 2022
    May 2022
    April 2022
    March 2022
    February 2022
    January 2022
    December 2021
    November 2021
    October 2021
    September 2021
    August 2021
    July 2021
    June 2021
    May 2021
    April 2021
    March 2021
    February 2021
    January 2021
    December 2020
    November 2020
    October 2020
    September 2020
    August 2020
    July 2020
    June 2020
    May 2020
    April 2020
    March 2020
    February 2020
    January 2020
    December 2019
    November 2019
    October 2019
    September 2019
    August 2019
    July 2019
    June 2019
    May 2019
    April 2019
    March 2019
    February 2019
    January 2019
    November 2018
    October 2018

    RSS Feed

Imagem
CONTACTO
  • Home
  • Quem somos
  • O que fazemos
  • Onde estamos
  • Press Releases
  • Blogue
  • English version