TweakPC



QNAP Mustang: VPU- und FPGA-basierte KI-Deep-Learning-Karten für PCIe

Montag, 17. Jun. 2019 15:02 - [ar] - Quelle:Pressemitteilung

QNAP hat zwei neue KI-Deep-Learning-Karten vorgestellt, welche als Beschleunigungskarten in einem handelsüblichen PCI-Express-Slot verwendet werden können.

QNAP Mustang: VPU- und FPGA-basierte KI-Deep-Learning-Karten für PCIe

Die Mustang V100 (VPU-basiert) und die Mustang F100 (FPGA-basiert) sind speziell für Intel-Server und PCs sowie QNAP-NAS-Geräte konzipiert und können verwendet werden um eine anspruchsvolle KI-Anwendung für die Bereiche der Produktion, des Gesundheitswesen, Smart Retail und Videoüberwachung zu nutzen.

Entwickelt wurden die beiden KI-Deep-Learning-Karten für die OpenVINO-Architektur und bieten damit vor allem auf Intel-Hardware eine größere Leistung sowie Hardware-Entlastung. Mittels des OpenVINO Workflow Consolidation Tool von QNAP sollen in kürzester Zeit Rechenbeschleunigung für Deep Learning Inferenz genutzt werden können.

Das OpenVINO-Toolkit soll dabei helfen die Anforderungen der KI an die eigenen Bedürfnisse anzupassen, sodass die Beschleuniger Entwicklung von maschinellem Sehen und Deep Learning in visuellen Anwendungen übernehmen können.

Technische Daten der Modelle und Preise:

  • Mustang-V100-MX8-R10 – erhältlich für 899,- Euro zzgl. Mwst
    Halbe Einbauhöhe, acht Intel Movidius Myriad X MA2485 VPU, PCI Express Gen2 x4 Schnittstelle, Stromverbrauch geringer als 30W
  • Mustang-F100-A10-R10 - erhältlich für 1.999,- Euro zzgl. Mwst
    Halbe Höhe, Intel Arria 10 GX1150 FPGA, PCI Express Gen3 x8 Schnittstelle, Stromverbrauch geringer als 60W

Verwandte Testberichte, News, Kommentare
ueber TweakPC: Impressum, Datenschutz Copyright 1999-2024 TweakPC, Alle Rechte vorbehalten, all rights reserved. Mit * gekennzeichnete Links sind Affiliates.