WccftechTechnologie

Micron-CEO warnt: KI befindet sich erst im „ersten Akt“, da der Speicherbedarf steigt und die Nachfrage nach DRAM und NAND voraussichtlich über 50 % des gesamten Marktpotenzials erreichen wird

Micron verzeichnete Rekord-Q2, da Nachfrage nach DRAM steigt, aber sein CEO sagt, dass dies erst Anfang sei, da für die volle Leistungsfähigkeit ötigt werde.

3. Mai 2026Hassan MujtabaLive Redaktion
Micron CEO Warns AI Is Only in the ‘First Innings’ as Memory Supply Tightens, With DRAM and NAND Demand Set to Exceed 50% of Industry TAM

Kurzfassung

Warum das wichtig ist

WccftechTechnologie
  • Micron verzeichnete Rekord-Q2, da Nachfrage nach DRAM steigt, aber sein CEO sagt, dass dies erst Anfang sei, da für die volle Leistungsfähigkeit ötigt werde.
  • Der Speicher- und Speicherhersteller Micron verzeichnete ein außergewöhnliches Wachstum in allen seinen Geschäftsbereichen, zu denen DRAM, NAND und HBM gehören.
  • Das Wachstum kommt aus der rasant steigenden Nachfrage nach seinen Produkten, da der Hype um die Agentic AI jede Speicher- und Speicherfirma weiter anhebt.

In einem Gespräch mit CNBC sagte der CEO , dass das, was wir derzeit in der KI-Branche sehen, erst der Anfang sei und es als „erste Innings“ bezeichnete. Während KI-Unternehmen ihre Rechenleistung erhöhen, wird schnellerer und dichter Speicher zu einer lebenswichtigen Komponente, um das Rad der KI am Laufen zu halten.

Die KI steckt noch in den Anfängen; Sie haben gerade bei GTC gesehen, wie viele Fortschritte in der KI gemacht werden. Und Speicher ist ein strategisches Gut; Sie brauchen mehr Speicher, Sie brauchen schnelleres Leistungsspeicher, damit die KI ihre volle Leistungsfähigkeit entfalten kann.

Dies ist der Wendepunkt der Inferenz. Mit der Verbreitung der Inferenz wird der Bedarf an Tokens steigen, und diese Tokens müssen schnell sein, und erraten Sie, Sie benötigen mehr Speicher, Sie benötigen schnelleren Speicher, um das volle Potenzial des Speichers zu entfalten.

Und der Speicher ist heute sehr

Und der Speicher ist heute sehr knapp, und das Angebot kann nicht so einfach erhöht werden, und das sehen Sie in unseren Ergebnissen.

Sanjay Mehrotra

Micron Chairman, President and CEO Um KI-Modelle schneller laufen zu lassen und die Token-Generierungsgeschwindigkeit zu erhöhen, wird mehr Rechenleistung benötigt, und Speicher ist für die Berechnung unerlässlich. KI-GPUs benötigen HBM, KI-CPUs benötigen DRAM, und erraten Sie, all das ist knapp im Angebot.

Es ist keine Frage der Nachfrage

Es ist keine Frage der Nachfrage oder der Preisgestaltung; es ist eine Frage des Angebots, das große Firmen nicht beheben können, und angesichts der zukünftigen Aussichten wird die Lage nicht besser werden. GPUs streben aggressiv danach, neuere und dichtere HBM-Standards hinzuzufügen.

Kommende Produktlinien wie Vera Rubin und MI400 mit HBM4-Untersttzung werden nicht nur die Bandbreite erhhen; sie sollen auch die Kapazitten maximieren und damit den Standard fr HBM-Lsungen der nchsten Generation setzen.

DRAM hingegen steigt in einem beschleunigten Tempo, da die Nachfrage das Angebot bersteigt, was auf den Anstieg , die die CPUs dazu veranlassen, den Speicher-Support auf 400 GB zu erhhen.

LPDDR ist zum neuen Favoriten der

LPDDR ist zum neuen Favoriten der KI-ra geworden, da sein Energieeffizienzprofil sie perfekt fr massive Skalierungsbereitstellungen macht. Micron hat im Geschftsjahr Q2 neue Rekorde bei Umsatz, Bruttomarge, EPS und freiem Cashflow erzielt, angetrieben durch eine starke Nachfrageumgebung, knappe Industrieversorgung und unsere starke Umsetzung, und wir erwarten erneut signifikante Rekorde im Geschftsjahr Q3, sagte Sanjay Mehrotra, Chairman, President und CEO . In der KI-ra ist der Speicher zu einem strategischen Vermgenswert fr unsere Kunden geworden, und wir investieren in unseren globalen Fertigungsfuabdruck, um deren steigende Nachfrage zu untersttzen. Gemäß der neuesten Prognose wird die KI-Nachfrage nach DRAM und NAND voraussichtlich über 50 % des gesamten Branchen-TAM in diesem Jahr liegen.

Micron weist erneut darauf hin, dass die Nachfrage aus traditionellen und KI-Servern weiterhin robust ist, aber durch einen Mangel an DRAM- und NAND-Lieferungen eingeschränkt wird. Die DRAM-Nachfrage wird mit dem Zustrom erfrischter und neuer Plattformen weiter steigen.

Micron liefert HBM4 36GB (12-Hi) DRAM für NVIDIAs Vera Rubin-Plattform und erwartet, auf bestehenden HBM3-Prozessen reife Ausbeuten zu erreichen. Das Unternehmen entwickelt außerdem seinen nächsten HBM4E HBM-Speicher, der voraussichtlich nächstes Jahr in Serie gehen wird.

Im Bereich LPDDR stellte das Unternehmen

Im Bereich LPDDR stellte das Unternehmen kürzlich seinen 256 GB SOCAMM2-Speicher mit LPDDR5X-Modulen vor, der Kapazitäten 2 TB bietet, und liefert außerdem das Groq 3 LPX DDR5-Speicher. Die Groq LPU bietet eine Kapazität 12 TB pro Chip.

Im Konsumgüterbereich erwartet Micron einen Rückgang der PC- und Mobile-Einheiten in niedrigen zweistelligen Prozentzahlen aufgrund höheren Preisen. Das Unternehmen hebt auch hervor, dass 32 GB die Wahl der PCs sind, die Agentic AI-Workflows lokal ausführen.

Über den Autor: Hassan Mujtaba ist ausgebildeter Software-Ingenieur und PC-Enthusiast Editor für den Hardware-Bereich bei Wccftech. Mit jahrelanger Erfahrung in der Branche ist er spezialisiert auf tiefgehende technische Analysen nächsten Generation, Motherboards und Kühllösungen.

Seine Arbeit umfasst nicht nur Breaking News zu kommenden Technologien, sondern auch umfangreiche praktische Tests und Benchmarks. Sie Wccftech auf Google, um mehr zu erhalten.

Quellenprofil

Quelle und redaktionelle Angaben

Quelle
Wccftech
Originaltitel
Micron CEO Warns AI Is Only in the ‘First Innings’ as Memory Supply Tightens, With DRAM and NAND Demand Set to Exceed 50% of Industry TAM
Canonical
https://wccftech.com/micron-ceo-warns-ai-is-only-in-the-first-innings-memory-supply-tightens-dram-nand-demand/
Quell-URL
https://wccftech.com/micron-ceo-warns-ai-is-only-in-the-first-innings-memory-supply-tightens-dram-nand-demand/

Aehnliche Inhalte

Verwandte Themen und interne Verlinkung

Weitere Artikel aus aehnlichen Themenfeldern, damit Leser direkt im selben Kontext weiterlesen koennen.