Industri Chip China Bangkit, AS Mulai Ketakutan
- Asia Times
VIVA Tekno – China sedang menjajaki cara untuk memproduksi memori bandwidth tinggi (HBM), merupakan chip memori generasi berikutnya yang dirancang untuk prosesor kecerdasan buatan (AI/artificial intelligence), seiring dengan upayanya untuk mendorong swasembada semikonduktor di tengah sanksi Amerika Serikat (AS).
Meskipun akan menjadi perjuangan berat untuk mengejar ketertinggalan dari para pemimpin global seperti SK Hynix, Samsung Electronics, dan Micron Technology mengingat dampak sanksi Washington, pemerintah Tiongkok telah menetapkan bahwa negara tersebut harus mampu mencapai swasembada HBM meskipun mungkin memerlukan waktu bertahun-tahun.
Sumber-sumber industri tersebut menolak disebutkan namanya karena sensitifnya masalah ini, mengatakan bahwa pembuat dynamic random access memory (DRAM) terkemuka di China, ChangXin Memory Technologies (CXMT), adalah harapan terbaik negara tersebut untuk HBM.
Namun, mungkin diperlukan waktu hingga empat tahun untuk membawa produk ke pasar, mengutip dari laman South China Morning Post, Selasa, 5 September 2023.
Jika CXMT atau pembuat chip China lainnya memutuskan untuk melanjutkan, mereka wajib menggunakan teknologi canggih untuk memproduksi chip DRAM yang banyak diminati di seluruh dunia, kata sumber tersebut.
SK Hynix, yang dianggap sebagai pemimpin dalam teknologi dengan 50 persen pangsa pasar global, mengembangkan HBM3 pada Oktober 2021 dan memasuki produksi massal pada Juni 2022.
Perusahaan asal Korea Selatan tersebut mencatat dalam materi promosinya bahwa teknologi HBM adalah 'prasyarat untuk level 4 dan 5 otomatisasi mengemudi pada kendaraan otonom'.
Permintaan chip HBM diperkirakan akan tumbuh hampir 60 persen pada tahun 2023 karena chip tersebut merupakan solusi pilihan untuk mengatasi pembatasan kecepatan transfer memori karena keterbatasan bandwidth, menurut laporan konsultan teknologi TrendForce.
SK Hynix mengumumkan pada minggu lalu bahwa mereka telah berhasil mengembangkan HBM3E, DRAM kelas atas generasi berikutnya untuk aplikasi AI, dan memberikan sampel kepada pelanggan untuk evaluasi kinerja produk.
Produksi massal dijadwalkan pada paruh pertama 2024 dengan klien seperti perusahaan chip AS, AMD dan Nvidia yang dilaporkan mengantre untuk produk baru tersebut.
Nvidia menetapkan standar industri baru dengan menggunakan chip HBM untuk mempercepat transfer data antara unit pemrosesan grafis (GPU) dan tumpukan memori, menurut TrendForce.
Unit prosesor grafis (GPU) H100 yang banyak dicari dilengkapi dengan sistem memori HBM3, memberikan bandwidth memori 3-terabyte per detik, menurut Nvidia.
HBM menumpuk chip memori secara vertikal, seperti lantai di gedung pencakar langit, sehingga secara efektif memperpendek jarak yang harus ditempuh informasi. Menara memori ini terhubung ke CPU atau GPU melalui interkoneksi ultra cepat yang disebut 'interposer'.