HyperAIHyperAI

Command Palette

Search for a command to run...

AI-Boom treibt RAM-Preise in die Höhe, Lieferengpässe bis 2026

Die Nachfrage nach Speicherchips, insbesondere Hochleistungs-Speicher (HBM) für KI-Chips, hat in diesem Jahr zu einem weltweiten Engpass geführt, der die Preise drastisch in die Höhe treibt. Die drei dominierenden Hersteller – Micron, SK Hynix und Samsung Electronics – sind aufgrund der hohen Nachfrage von Unternehmen wie Nvidia, AMD und Google für KI-Infrastruktur massiv ausgelastet. Micron-Chef Sumit Sadana bestätigte auf der CES in Las Vegas, dass die Nachfrage nach Speicher „sehr scharf und signifikant“ gestiegen sei und die Produktionskapazitäten der gesamten Branche weit übersteige. Die Folge: Micron legte im vergangenen Jahr um 247 % zu, der Gewinn stieg nahezu auf das Dreifache. Samsung erwartet für das Dezemberquartal einen nahezu dreifachen Betriebsgewinn, während SK Hynix über eine Börsennotierung in den USA nachdenkt. TrendForce prognostiziert für das erste Quartal 2026 eine Preiserhöhung von 50 bis 55 % bei DRAM-Speicher – ein Anstieg, der als „unvorhergesehen“ gilt. Der Grund für den Engpass liegt in der speziellen Art von Speicher, die KI-Chips benötigen: HBM (High-Bandwidth Memory). Im Gegensatz zu herkömmlichem RAM in Laptops oder Smartphones, das typischerweise 8 bis 12 GB umfasst, verfügt der neu vorgestellte Nvidia-Rubin-GPU-Chip über bis zu 288 GB HBM4, gestapelt in acht Blöcken um den GPU-Kern. Diese HBM-Chips werden in komplexen Prozessen hergestellt, bei denen 12 bis 16 Schichten auf einem Chip gestapelt werden – ein „Würfel“ aus Speicher. Für jedes Bit HBM, das Micron produziert, entfällt die Produktion von drei Bits herkömmlichen Speichers. Dieser „Drei-zu-eins-Verhältnis“ führt dazu, dass die Produktion für KI-Server und HBM-Systeme priorisiert wird, während der Konsummarkt zurücksteht. Im Dezember kündigte Micron an, einen Teil seines Geschäfts für PC-Speicher einzustellen, um Kapazitäten für KI-Server freizusetzen. Tech-Experten wie Dean Beeler von Juice Labs schildern fassungslose Preiserhöhungen: Ein 256-GB-RAM-Upgrade, das vor wenigen Monaten für rund 300 US-Dollar zu haben war, kostet heute etwa 3.000 Dollar. Die Branche spricht von einer „Speicherwand“ – einem Leistungslimit, das durch die langsamer wachsende Speichergeschwindigkeit gegenüber den rasanten Fortschritten bei GPU-Leistung entstanden ist. KI-Modelle wie große Sprachmodelle (LLMs) erfordern extrem hohe Speicherkapazitäten, weshalb selbst mehrere GPUs ohne ausreichenden Speicher nicht effizient arbeiten können. Unternehmen wie Apple und Dell sind von der Krise betroffen. Memory macht mittlerweile etwa 20 % der Hardwarekosten eines Laptops aus – mehr als doppelt so viel wie Anfang 2025. Dell erwartet steigende Kosten und plant, Produktkonfigurationen anzupassen, um Preise zu stabilisieren, warnt aber, dass die Auswirkungen letztlich auf den Endverbraucher überschlagen werden. Auch Nvidia-Chef Jensen Huang räumte ein, dass die hohen Speicheranforderungen für KI die Preise für Gaming-Produkte beeinflussen, betonte aber, dass die Branche mehr Fabriken benötige. Micron plant neue Fabs in Idaho (2027/2028) und New York (2030), doch aktuell ist die Lieferung für 2026 bereits ausgebucht. Industrieexperten sehen in diesem Phänomen eine strukturelle Umstellung: Die KI-Revolution hat die Speicherindustrie in eine neue Ära geführt, in der der Speicher nicht mehr nur ein Baustein, sondern der entscheidende Engpass ist. Die Preise und Kapazitäten werden sich erst in den kommenden Jahren stabilisieren, wenn die neuen Produktionsanlagen in Betrieb gehen.

Verwandte Links

AI-Boom treibt RAM-Preise in die Höhe, Lieferengpässe bis 2026 | Aktuelle Beiträge | HyperAI