Micron-CEO warnt: KI befindet sich erst im „ersten Akt“, da der Speicherbedarf steigt und die Nachfrage nach DRAM und NAND voraussichtlich über 50 % des gesamten Marktpotenzials erreichen wird
Micron verzeichnete Rekord-Q2, da Nachfrage nach DRAM steigt, aber sein CEO sagt, dass dies erst Anfang sei, da für die volle Leistungsfähigkeit ötigt werde.

Kurzfassung
Warum das wichtig ist
- Micron verzeichnete Rekord-Q2, da Nachfrage nach DRAM steigt, aber sein CEO sagt, dass dies erst Anfang sei, da für die volle Leistungsfähigkeit ötigt werde.
- Der Speicher- und Speicherhersteller Micron verzeichnete ein außergewöhnliches Wachstum in allen seinen Geschäftsbereichen, zu denen DRAM, NAND und HBM gehören.
- Das Wachstum kommt aus der rasant steigenden Nachfrage nach seinen Produkten, da der Hype um die Agentic AI jede Speicher- und Speicherfirma weiter anhebt.
In einem Gespräch mit CNBC sagte der CEO , dass das, was wir derzeit in der KI-Branche sehen, erst der Anfang sei und es als „erste Innings“ bezeichnete. Während KI-Unternehmen ihre Rechenleistung erhöhen, wird schnellerer und dichter Speicher zu einer lebenswichtigen Komponente, um das Rad der KI am Laufen zu halten.
Die KI steckt noch in den Anfängen; Sie haben gerade bei GTC gesehen, wie viele Fortschritte in der KI gemacht werden. Und Speicher ist ein strategisches Gut; Sie brauchen mehr Speicher, Sie brauchen schnelleres Leistungsspeicher, damit die KI ihre volle Leistungsfähigkeit entfalten kann.
Dies ist der Wendepunkt der Inferenz. Mit der Verbreitung der Inferenz wird der Bedarf an Tokens steigen, und diese Tokens müssen schnell sein, und erraten Sie, Sie benötigen mehr Speicher, Sie benötigen schnelleren Speicher, um das volle Potenzial des Speichers zu entfalten.
Und der Speicher ist heute sehr
Und der Speicher ist heute sehr knapp, und das Angebot kann nicht so einfach erhöht werden, und das sehen Sie in unseren Ergebnissen.
Sanjay Mehrotra
Micron Chairman, President and CEO Um KI-Modelle schneller laufen zu lassen und die Token-Generierungsgeschwindigkeit zu erhöhen, wird mehr Rechenleistung benötigt, und Speicher ist für die Berechnung unerlässlich. KI-GPUs benötigen HBM, KI-CPUs benötigen DRAM, und erraten Sie, all das ist knapp im Angebot.
Es ist keine Frage der Nachfrage
Es ist keine Frage der Nachfrage oder der Preisgestaltung; es ist eine Frage des Angebots, das große Firmen nicht beheben können, und angesichts der zukünftigen Aussichten wird die Lage nicht besser werden. GPUs streben aggressiv danach, neuere und dichtere HBM-Standards hinzuzufügen.
Kommende Produktlinien wie Vera Rubin und MI400 mit HBM4-Untersttzung werden nicht nur die Bandbreite erhhen; sie sollen auch die Kapazitten maximieren und damit den Standard fr HBM-Lsungen der nchsten Generation setzen.
DRAM hingegen steigt in einem beschleunigten Tempo, da die Nachfrage das Angebot bersteigt, was auf den Anstieg , die die CPUs dazu veranlassen, den Speicher-Support auf 400 GB zu erhhen.
LPDDR ist zum neuen Favoriten der
LPDDR ist zum neuen Favoriten der KI-ra geworden, da sein Energieeffizienzprofil sie perfekt fr massive Skalierungsbereitstellungen macht. Micron hat im Geschftsjahr Q2 neue Rekorde bei Umsatz, Bruttomarge, EPS und freiem Cashflow erzielt, angetrieben durch eine starke Nachfrageumgebung, knappe Industrieversorgung und unsere starke Umsetzung, und wir erwarten erneut signifikante Rekorde im Geschftsjahr Q3, sagte Sanjay Mehrotra, Chairman, President und CEO . In der KI-ra ist der Speicher zu einem strategischen Vermgenswert fr unsere Kunden geworden, und wir investieren in unseren globalen Fertigungsfuabdruck, um deren steigende Nachfrage zu untersttzen. Gemäß der neuesten Prognose wird die KI-Nachfrage nach DRAM und NAND voraussichtlich über 50 % des gesamten Branchen-TAM in diesem Jahr liegen.
Micron weist erneut darauf hin, dass die Nachfrage aus traditionellen und KI-Servern weiterhin robust ist, aber durch einen Mangel an DRAM- und NAND-Lieferungen eingeschränkt wird. Die DRAM-Nachfrage wird mit dem Zustrom erfrischter und neuer Plattformen weiter steigen.
Micron liefert HBM4 36GB (12-Hi) DRAM für NVIDIAs Vera Rubin-Plattform und erwartet, auf bestehenden HBM3-Prozessen reife Ausbeuten zu erreichen. Das Unternehmen entwickelt außerdem seinen nächsten HBM4E HBM-Speicher, der voraussichtlich nächstes Jahr in Serie gehen wird.
Im Bereich LPDDR stellte das Unternehmen
Im Bereich LPDDR stellte das Unternehmen kürzlich seinen 256 GB SOCAMM2-Speicher mit LPDDR5X-Modulen vor, der Kapazitäten 2 TB bietet, und liefert außerdem das Groq 3 LPX DDR5-Speicher. Die Groq LPU bietet eine Kapazität 12 TB pro Chip.
Im Konsumgüterbereich erwartet Micron einen Rückgang der PC- und Mobile-Einheiten in niedrigen zweistelligen Prozentzahlen aufgrund höheren Preisen. Das Unternehmen hebt auch hervor, dass 32 GB die Wahl der PCs sind, die Agentic AI-Workflows lokal ausführen.
Über den Autor: Hassan Mujtaba ist ausgebildeter Software-Ingenieur und PC-Enthusiast Editor für den Hardware-Bereich bei Wccftech. Mit jahrelanger Erfahrung in der Branche ist er spezialisiert auf tiefgehende technische Analysen nächsten Generation, Motherboards und Kühllösungen.
Seine Arbeit umfasst nicht nur Breaking News zu kommenden Technologien, sondern auch umfangreiche praktische Tests und Benchmarks. Sie Wccftech auf Google, um mehr zu erhalten.
Quelllink
Wccftech - Originalartikel oeffnenThema weiterverfolgen
Interne Verlinkung
Im Kontext weiterlesen
Diese weiterfuehrenden Links verbinden das Thema mit relevanten Archivseiten, Schlagwoertern und inhaltlich nahen Artikeln.
Technologie Archiv
Weitere Meldungen aus derselben Hauptkategorie.
Mehr von Wccftech
Alle veroeffentlichten Inhalte derselben Quelle im Archiv.
Die USA verstärken Überwachungsoperationen mit weiteren Boeing E-7A Flugzeugen
Redaktionell verwandter Beitrag aus dem selben Themenumfeld.
xAI nutzt Berichten zufolge nur 11 % seiner 550.000 NVIDIA-GPUs, während Meta und Google 43–46 % ihrer Flotten auslasten
Redaktionell verwandter Beitrag aus dem selben Themenumfeld.
Quellenprofil
Quelle und redaktionelle Angaben
- Quelle
- Wccftech
- Originaltitel
- Micron CEO Warns AI Is Only in the ‘First Innings’ as Memory Supply Tightens, With DRAM and NAND Demand Set to Exceed 50% of Industry TAM
- Canonical
- https://wccftech.com/micron-ceo-warns-ai-is-only-in-the-first-innings-memory-supply-tightens-dram-nand-demand/
- Quell-URL
- https://wccftech.com/micron-ceo-warns-ai-is-only-in-the-first-innings-memory-supply-tightens-dram-nand-demand/
Aehnliche Inhalte
Verwandte Themen und interne Verlinkung
Weitere Artikel aus aehnlichen Themenfeldern, damit Leser direkt im selben Kontext weiterlesen koennen.

Die USA verstärken Überwachungsoperationen mit weiteren Boeing E-7A Flugzeugen
Die United States Force (USAF) Pläne bekannt gegeben, ihre Flotte Boeing E-7A „Wedgetails“ auf sieben Flugkörper aufzustocken.
03.05.2026
Live Redaktion
xAI nutzt Berichten zufolge nur 11 % seiner 550.000 NVIDIA-GPUs, während Meta und Google 43–46 % ihrer Flotten auslasten
xAI soll nur etwas mehr als 10 % seiner gesamten NVIDIA-GPU-Flotte nutzen können, wie Bericht darauf hindeutet, was auf mangelhafte Optimierungen des KI-Software-Stacks zurückzuführen ist.
03.05.2026
Live Redaktion
210 Millionen Jahre alte Krokodil-Verwandte entdeckt während des Aufstiegs der Dinosaurier
Vor zweihundertzehn Millionen Jahren starben zwei Krokodil-Cousins tragisch nebeneinander, so zufolge Paläontologen Yale, die diesen bedeutenden Moment in Zeit entdeckten, Krokodile sich vor Aufstieg der
03.05.2026
Live Redaktion
Neue Wasserstofferzeugungsmethode senkt Temperaturanforderung um 900°F
Forscher University Birmingham haben eine Methode Erzeugung Wasserstoff bei niedrigeren Temperaturen unter Verwendung eines Perowskit-Katalysators entwickelt.
03.05.2026
Live Redaktion