WccftechTechnologie

QNAP kombiniert einen 6 Jahre alten Zen 2 EPYC mit der NVIDIA RTX PRO 6000 Blackwell mit 96 GB in seinem neuen Edge AI NAS

QNAP hat sein neues AI NAS vorgestellt, das eine 16-Core AMD EPYC "Zen 2" CPU enthält und mit bis zu einer RTX PRO 6000 Blackwell GPU kombiniert werden kann.

2. Mai 2026Hassan MujtabaLive Redaktion
QNAP Pairs a 6-Year-Old Zen 2 EPYC With NVIDIA’s 96GB RTX PRO 6000 Blackwell in Its New Edge AI NAS

Kurzfassung

Warum das wichtig ist

WccftechTechnologie
  • QNAP hat sein neues AI NAS vorgestellt, das eine 16-Core AMD EPYC "Zen 2" CPU enthält und mit bis zu einer RTX PRO 6000 Blackwell GPU kombiniert werden kann.
  • Bevor wir ins Detail gehen, sollte erwähnt werden, dass QNAPs neuestes AI NAS für LLM, RAG und verschiedene GenAI-Anwendungen konzipiert ist.
  • Zwei Komponenten betreiben den Server: Die erste ist die AMD EPYC 7302P CPU, die über 16 Kerne und 32 Threads verfügt.

Das „QAI-h1290FX“ ist QNAPs neuestes Edge Angebot, das zwei

Dieser Chip basiert auf der Zen 2 Kernarchitektur und bietet genügend Leistung, um KI-Inferenzaufgaben am Edge zu bewältigen. Die zweite Komponente ist die GPU, für die QNAP zwei Optionen anbietet: entweder die 32 GB RTX PRO 4500 Blackwell oder die Flaggschiff-96 GB RTX PRO 6000 Blackwell.

Beide bieten absolut gewaltige Rechenleistung für KI, wobei die PRO 4500 für bis zu ~30B LLMs ausgelegt ist, während die PRO 6000 ideal für 70B+ KI-LLMs ist.

Moegliche Anwendungen

Neben der CPU/GPU verfügt das QNAP QAI-h1290FX über Unterstützung für 12 U.2 NVMe/SATA SSDs, und es gibt auch Unterstützung für Hochgeschwindigkeitsnetzwerke in Form 25GbE und dualen 2.5GbE LAN-Anschlüssen. Die PCIe-Steckplätze können auch zusätzliche 100GbE AICs aufnehmen, obwohl diese separat verkauft werden.

Das NAS ist auch mit den JBOD-Erweiterungsgehäusen für die groß angelegte KI-Datenspeicherung kompatibel. Zu den Hauptfunktionen des NAS gehören: QNAP teilt auch einige reale Leistungswerte seines neuen AI NAS mit der NVIDIA RTX PRO 6000 96 GB Blackwell GPU.

Die Tests umfassen verschiedene Modelle unterschiedlicher Größe und bieten bis zu 172 Tokens/Sekunde.

Moegliche Anwendungen

Die Ergebnisse können unten eingesehen werden: Zusätzlich zu den LLMs, die nativ über Ollama laufen, teilt QNAP die vLLM-Testläufe für die gleichzeitige Inferenz für dieselbe Konfiguration mit den unten angegebenen Ergebnissen: Getestetes großes Sprachmodell: deepseek-ai/DeepSeek-R1-Distill-Qwen-7B (Hugging Face) Getestetes großes Sprachmodell: openai/gpt-oss-20b (Hugging Face) Thread Total Token/sec avg Token/Thread/Sec 1 218 Token/sec 218 Token/sec 2 340 Token/sec 170 Token/sec 5 1045 Token/sec 209 Token/sec 10 880 Token/sec 88 Token/sec 20 600 Token/sec 30 Token/sec QNAP bietet eine breite Palette für Speicher, Netzwerk und Schnittstellen, die separat erworben werden können, um die Fähigkeiten des KI-Servers zu erweitern.

RAM wird ebenfalls separat verkauft, mit Optionen, die von 8 GB DDR4-3200 Modulen bis hin zu 64 GB DDR4-3200 Kits reichen. Das System wird mit einer 5-jährigen Garantie geliefert und kostet $8999 für die 64 GB, $13.499 für die 128 GB und $15.999 für die 256 GB Variante.

Über den Autor: Hassan Mujtaba ist Leidenschaft ein PC-Enthusiast und arbeitet als Senior Editor für den Hardware-Bereich bei Wccftech. Mit jahrelanger Erfahrung in der Branche spezialisiert er sich auf tiefgehende technische Analysen nächsten Generation, Motherboards und Kühllösungen.

Seine Arbeit umfasst nicht nur die Berichterstattung über kommende Technologien, sondern auch ausführliche praktische Tests und Benchmarks. Sie Wccftech auf Google, um mehr Feeds zu erhalten.

Quellenprofil

Quelle und redaktionelle Angaben

Quelle
Wccftech
Originaltitel
QNAP Pairs a 6-Year-Old Zen 2 EPYC With NVIDIA’s 96GB RTX PRO 6000 Blackwell in Its New Edge AI NAS
Canonical
https://wccftech.com/qnap-pairs-6-year-old-zen-2-epyc-with-nvidia-96gb-rtx-pro-6000-blackwell-in-new-edge-ai-nas/
Quell-URL
https://wccftech.com/qnap-pairs-6-year-old-zen-2-epyc-with-nvidia-96gb-rtx-pro-6000-blackwell-in-new-edge-ai-nas/

Aehnliche Inhalte

Verwandte Themen und interne Verlinkung

Weitere Artikel aus aehnlichen Themenfeldern, damit Leser direkt im selben Kontext weiterlesen koennen.