WccftechTechnologie

AMD vLLM-ATOM-Plugin beschleunigt DeepSeek-R1, Kimi-K2 und gpt-oss-120B auf Instinct MI350/MI400

AMD hat einen neuen Plugin namens vLLM-ATOM vorgestellt, der AI-LLMs beschleunigt und dabei Instinct-MI350- und MI400-GPUs untersttzt.

11. Mai 2026Hassan MujtabaLive Redaktion
AMD vLLM-ATOM-Plugin beschleunigt DeepSeek-R1, Kimi-K2 und gpt-oss-120B auf Instinct MI350/MI400

Kurzfassung

Warum das wichtig ist

WccftechTechnologie
  • AMD hat einen neuen Plugin namens vLLM-ATOM vorgestellt, der AI-LLMs beschleunigt und dabei Instinct-MI350- und MI400-GPUs untersttzt.
  • Das vLLM-ATOM ist ein speziell entwickeltes Plugin, das darauf abzielt, die Inferenzleistung bei verschiedenen AI-LLMs zu verbessern.
  • Es ist um AMDs High-Performance-Instinct-GPU-Beschleuniger wie die MI350- und MI400-Serie herum konzipiert und kann sowohl als eigenstndiger Inferenzserver als auch durch nahtlose Integration als Plugin-Backend betrieben werden.

Dadurch knnen Nutzer die vollen Vorteile der nativen Modell- und Kernel-Optimierungen, ohne nderungen am Kern. Zu den Hauptmerkmalen: Die Architektur drei Ebenen: Hinsichtlich der Modelluntersttzung untersttzt das vLLM-ATOM-Plugin sowohl AI-LLMs als auch VLMs ber eine einheitliche Serving-Pipeline.

Im Folgenden finden Sie die vollstndige Liste: Hinweis: vLLM-ATOM beweist, dass hardware-spezifische Optimierungen und Framework-Kompatibilitt nicht unvereinbar sind.

AMD’s vLLM-ATOM Plugin Supercharges DeepSeek-R1, Kimi-K2, and gpt-oss-120B AI LLM Inference on Instinct MI350 and MI400 Accelerators
AMD’s vLLM-ATOM Plugin Supercharges DeepSeek-R1, Kimi-K2, and gpt-oss-120B AI LLM Inference on Instinct MI350 and MI400 Accelerators

Durch die Nutzung des vLLM-Plugin-Mechanismus aus der Box heraus bietet ATOM native Kernel-Optimierungen für AMD, darunter fused attention, quantisierte GEMM und optimiertes MoE-Routing, während es das gesamte Funktionsset, auf das produktionsreife LLM-Bereitstellungen angewiesen sind.

Über die unmittelbaren Leistungssteigerungen hinaus dient die Architektur des Plugins als entscheidende Testumgebung für Hard- und Software-Innovationen: Optimierungen, die im Plugin-Modus, werden schrittweise in den nativen ROCm-Backend übernommen und kommen der gesamten ROCm- sowie Open-Source-LLM-Community zugute.

AMD vLLM-ATOM-Plugin beschleunigt DeepSeek-R1, Kimi-K2 und gpt-oss-120B auf Instinct MI350/MI400
AMD vLLM-ATOM-Plugin beschleunigt DeepSeek-R1, Kimi-K2 und gpt-oss-120B auf Instinct MI350/MI400

Für Endnutzer bedeutet dies den sofortigen Zugriff auf die neuesten Hardware-Fähigkeiten, ohne auf langsame Integrationszyklen für die Weitergabe warten zu müssen – ein sich selbst verstärkender Kreislauf der Co-Evolution zwischen Hardware-Innovationen -Ökosystem. Über den Autor: Hassan Mujtaba ist Software-Engineer Leidenschaft und fungiert als Senior Editor für den Hardware-Bereich bei Wccftech.

Mit jahrelanger Erfahrung in der Branche konzentriert er sich auf tiefgehende technische Analysen, Mainboards sowie Kühlsystemen. Seine Arbeit umfasst nicht nur die Berichterstattung über Neuigkeiten zu kommenden Technologien, sondern auch umfangreiche praktische Tests und Benchmarks. Sie Wccftech auf Google, um weitere unserer Nachrichtenabdeckungen in Ihren Feeds zu erhalten.

Quellenprofil

Quelle und redaktionelle Angaben

Quelle
Wccftech
Originaltitel
AMD’s vLLM-ATOM Plugin Supercharges DeepSeek-R1, Kimi-K2, and gpt-oss-120B AI LLM Inference on Instinct MI350 and MI400 Accelerators
Canonical
https://wccftech.com/amd-vllm-atom-plugin-supercharges-deepseek-r1-kimi-k2-gpt-oss-120b-ai-llm-inference-on-instinct-mi350-mi400/
Quell-URL
https://wccftech.com/amd-vllm-atom-plugin-supercharges-deepseek-r1-kimi-k2-gpt-oss-120b-ai-llm-inference-on-instinct-mi350-mi400/

Aehnliche Inhalte

Verwandte Themen und interne Verlinkung

Weitere Artikel aus aehnlichen Themenfeldern, damit Leser direkt im selben Kontext weiterlesen koennen.