Volgens Businesskorea heeft SK Hynix aangekondigd dat de opbrengst van de Fifth Generation High Bandwidth Storage (HBM) - HBM3E 80%heeft benaderd.
"We hebben de tijd die nodig is voor de massaproductie van HBM3E -chips met 50%met succes verkort, waardoor een doelopbrengstpercentage van ongeveer 80%wordt bereikt," zei Kwon Jae binnenkort, productiemanager bij SK Hynix
Dit markeert de eerste openbare openbaarmaking van HBM3E -productie -informatie door SK Hynix.Eerder verwachtte de industrie van het HBM3E -opbrengst van SK Hynix tussen 60% en 70%.
Kwon Jae benadrukte al snel: "Ons doel dit jaar is om zich te concentreren op het produceren van 8-laags HBM3E. In het tijdperk van kunstmatige intelligentie (AI) is toenemende productie belangrijker geworden voor het handhaven van een leidende positie."
De productie van HBM vereist verticale stapeling van meerdere DRAM's, wat resulteert in een hogere procescomplexiteit in vergelijking met standaard DRAM's.Vooral voor het belangrijkste onderdeel van HBM3E is de opbrengst van silicium door gaten (TSV) altijd laag geweest, variërend van 40% tot 60%, waardoor de verbetering een grote uitdaging is.
Na bijna uitsluitend HBM3 te hebben geleverd aan AI Semiconductor-leider Nvidia, begon SK Hynix in maart van dit jaar 8-laags HBM3E-producten te leveren en is van plan om in het derde kwartaal van dit jaar 12 lagen HBM3E-producten te leveren.Het 12 -lagen HBM4 (Sixth Generation HBM) -product is gepland om in 2025 te worden gelanceerd, en de 16 -lagen versie zal naar verwachting in 2026 in productie worden gebracht.
De snelgroeiende markt voor kunstmatige intelligentie stimuleert de snelle ontwikkeling van SK Hynix's volgende generatie dram.Tegen 2023 zullen HBM- en DRAM-modules met hoge capaciteit die voornamelijk worden gebruikt voor kunstmatige intelligentietoepassingen, goed voor ongeveer 5% van de gehele opslagmarkt voor waarde uitmaken.SK Hynix voorspelt dat deze AI -opslagproducten tegen 2028 61% van het marktaandeel zullen bezetten.