Akhir 2024 sampai pertengahan 2025, beli H100 atau H200 dari distributor resmi di Asia Tenggara butuh sabar. Lead time normal 12 sampai 16 minggu. Untuk konfigurasi DGX, beberapa pelanggan menunggu sampai 32 minggu. Di Indonesia, situasinya tidak lebih baik.
Permintaan GPU yang ekstrem ini memengaruhi siapa yang bisa membangun apa, dan kapan. Tulisan ini rangkuman dari beberapa percakapan dengan tim infrastruktur di startup dan perusahaan Indonesia tentang bagaimana mereka menyiasati situasi.
Sumber Masalah
Bukan hanya pasokan chip dari NVIDIA. Tiga faktor menumpuk sekaligus.
Pertama, kapasitas TSMC untuk packaging CoWoS terbatas. Ini adalah teknologi packaging yang dipakai H100 dan H200, dan TSMC tidak bisa ekspansi cepat. Permintaan dari hyperscaler AS (Microsoft, Google, Meta, Amazon, Oracle) plus Cina sudah menyerap mayoritas kapasitas.
Kedua, alokasi NVIDIA condong ke pelanggan besar. Order dari hyperscaler dan partner cloud terbesar dipenuhi duluan. Pembeli regional, termasuk Indonesia, masuk antrian setelah itu.
Ketiga, regulasi ekspor AS ke Cina menambah kerumitan. Beberapa SKU yang dirancang untuk pasar Cina (H800, A800) ditarik. Distributor Asia Tenggara harus menyesuaikan portofolio mereka.
Dampak ke Tim di Indonesia
Beberapa pola yang muncul dari tim yang saya ajak bicara.
Tim startup AI yang bootstrap: pindah ke cloud GPU. Provider seperti Lambda, RunPod, atau Oracle Cloud lebih cepat tersedia dibanding beli on-premise. Trade-off-nya jelas: biaya per jam lebih tinggi, tapi tidak ada CAPEX di muka dan tidak perlu menunggu lead time.
Perusahaan menengah yang sudah punya beban kerja AI: hybrid. Sebagian kerja training tetap di on-prem A100 lama, sementara untuk inference dan eksperimen pakai cloud. Yang ingin upgrade ke H100 menunggu antrian, sementara kerja jalan terus pakai apa yang ada.
Korporasi besar (bank, telco, perusahaan energi): negosiasi langsung dengan NVIDIA atau partner OEM mereka. Beberapa berhasil mendapat alokasi prioritas dengan komitmen volume multi-tahun. Beberapa lainnya memutuskan untuk geser strategi mereka ke vendor alternatif.
Vendor Alternatif
Ada beberapa pilihan, masing-masing dengan trade-off.
AMD MI300X. Spec-nya kompetitif dengan H100 untuk inference, dan ekosistem ROCm sudah jauh lebih matang dibanding tiga tahun lalu. Tapi tooling dan library masih lebih sedikit dibanding CUDA. Tim dengan kebutuhan fine-tuning custom sering balik ke NVIDIA setelah eksperimen.
Intel Gaudi 3. Lebih murah per token untuk inference, tapi adopsi enterprise di Indonesia masih kecil. Saya tidak menemukan banyak case study lokal yang bisa diverifikasi.
Cloud TPU dari Google. Bukan untuk training general, tapi untuk inference Gemini dan beberapa model open source yang sudah dioptimasi, harganya kompetitif. Beberapa tim Indonesia memakainya khusus untuk produksi inference.
Provider lokal. Beberapa data center Indonesia (TelkomSigma, Lintasarta, NeutraDC) mulai menawarkan GPU as a service. Pasokan terbatas, tapi punya keuntungan latency dan kepatuhan data lokal.
Pertanyaan Strategis
Buat tim yang sedang merancang infrastruktur AI mereka, beberapa pertanyaan yang perlu dijawab dulu sebelum komit.
Apa rasio training versus inference di workflow Anda? Kalau training-heavy, NVIDIA tetap pilihan default tapi Anda harus siap menunggu atau pakai cloud. Kalau inference-heavy, alternatif AMD dan Intel layak diuji.
Apa toleransi Anda untuk kompleksitas tooling? CUDA punya ekosistem terbesar. ROCm dan vendor lain butuh investasi engineering tambahan.
Berapa lama horizon perencanaan Anda? Kalau Anda butuh kapasitas dalam tiga bulan, jawabannya pasti cloud. Kalau dua tahun, on-premise jadi mungkin lagi karena lead time akan turun saat kapasitas TSMC bertambah dan generasi baru (Blackwell, Rubin) diluncurkan.
Yang Akan Dibahas di Acara
Hari pertama Global AI Expo 2026 ada fireside chat antara Jensen Huang dan Sundar Pichai pukul 13:30 yang membahas tema ini langsung. Ada juga workshop tentang cost optimization untuk inference di hari kedua. Untuk tim infrastruktur, dua sesi ini sepadan dengan harga tiket sendirian.





-md.jpg)












