SK Hynix, yapay zeka için HBM belleklere 1 milyar dolar yatırım yapıyor

Yüksek Bant Genişlikli Bellekler (HBM) yapay zeka pazarının hayati bir bileşen olarak kalmaya devam ediyor. SK Hynix ise bu alandaki konumunu sürdürmek için gelişmiş çip paketleme harcamalarını artıracağını açıkladı. Firmanın HBM bellekler özelinde Güney Kore’de 1 milyar dolardan fazla yatırım yapacak.

SK Hynix, HBM’e 1 milyar dolar yatırıyor

SK Hynix’in bu yatırımının arkasında elbette şimdilerde inanılmaz derecede kazançlı olan yapay zeka patlaması bulunuyor. Firma 1 milyar doları aşan yatırımlar sayesinde elde edilecek geliştirmelerle HBM belleklerin daha az güç tüketmesini ve daha fazla performans kazanmasını hedefliyor. Eski bir Samsung mühendisi olan ve şu anda SK Hynix’te paketleme teknolojilerinin geliştirilmesinden sorumlu olan Lee Kang-Wook, yarı iletkenlerde önümüzdeki 50 yılın artık paketlemeyle ilgili olacağını söylüyor.

Lee Kang-Wook aslında önemli bir isim. Kendisi üçüncü nesil HBM2E teknolojisini paketlemek için yeni bir yönteme öncülük etti ve bu yöntem diğer iki büyük üretici (Samsung ve Micron) tarafından hızla takip edildi. Lee, 2002 yılında Samsung’un bellek bölümünde baş mühendis olduğu dönemde Through-Silicon Via (TSV) tabanlı 3D paketleme teknolojilerinin geliştirilmesine öncülük etmişti. Bu çalışma daha sonra HBM’in geliştirilmesinin temelini oluşturacaktı. Bilindiği üzere HBM, bellek kalıplarının üst üste yığıldığı bir bellek türü ve TSV bağlantıları da bu dikey kalıpların daha hızlı ve çok daha verimli şekilde çalışmasını sağlıyor.

2019 yılında Nvidia tarafından tedarikçi olarak seçilen Sk Hynix’in HBM çözümleri halihazırda firmanın AI GPU’larında kullanılıyor. Nvidia, Hopper H100, Hopper H200 (HBM3E belleğe sahip ilk AI GPU) ve yeni nesil Blackwell B100 AI GPU’ları dahil olmak üzere AI çözümlerinde SK hynix’in en yeni HBM3 ve HBM3E bellek modüllerini kullanıyor. SK Hynix’in hisseleri bu sadeye Nvidia ile birlikte 2023’ün başından bu yana yaklaşık yüzde 120 değer kazandı.

İşin bir de rekabet boyutu var. SK Hynix ve ABD’li ortağı AMD ile 2013 yılında HBM’yi dünyaya tanıttığında rakipleri yoktu ve Samsung, HBM2’yi geliştirene kadar iki yıl boyunca rakipsiz kaldılar. Şimdiler rekabet çok yakın. Samsung, geçtiğimiz haftalarda 12 katmanlı DRAM çipleri ve 36 GB’lık sektörün en büyük kapasitesiyle teknolojinin beşinci nesli olan HBM3E‘yi geliştirdiğini açıkladı. Micron, H200 Tensor Core ünitelerinin bir parçası olacak 24GB, 8 katmanlı HBM3E‘nin seri üretimine başlamış durumda. SK Hynix ise kısa bir süre önce 12 katmanlı HBM3E belleklerin örneklerini Nvidia’ya tedarik etti.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

x
denemeruf3 sniffsol denemesi fatih deneme kod son test denememee deneleiksdsds asdasasddsadsdsads