Pemimpin Pikiran
Cawan Suci Kekuatan Komputasi dalam AI

Terlepas dari kemajuan yang luar biasa, kemampuan kecerdasan buatan masih terbatas jika dibandingkan dengan harapan di dunia nyata. Kita membangun model yang kompleks, menjalankan jaringan saraf, dan menguji algoritma, namun kemajuan terkadang terhenti di tempat yang paling tidak kita duga.
Masalahnya seringkali bukan terletak pada algoritma atau data, tetapi pada daya komputasi, yaitu sumber daya yang memungkinkan model untuk belajar dan beroperasi pada skala yang diperlukan. Jadi, apa yang ada di balik hambatan ini? Mari kita periksa sumber daya penting yang tanpanya bahkan proyek AI yang paling menjanjikan pun tidak dapat melangkah lebih jauh dari laboratorium.
Defisit komputasi dan konsekuensinya
Untuk memahami topik ini, mari kita mulai dengan sejarah komunikasi seluler. Ketika jaringan 3G dan kemudian 4G muncul, internet sudah hampir mendunia. Dan ketika 5G diperkenalkan, banyak orang mengajukan pertanyaan yang sangat masuk akal: “Internet akan lebih cepat – tetapi lalu apa?”
Pada kenyataannya, peningkatan kecepatan internet bukan hanya soal kenyamanan pengguna. Hal ini mengubah seluruh lanskap teknologi. Muncul kasus penggunaan yang sebelumnya tidak mungkin. 5G ternyata jauh lebih cepat daripada 4G, dan lompatan ini bukan bertahap, seperti lompatan dari 1G ke 2G, tetapi eksponensial. Akibatnya, aplikasi, perangkat, dan seluruh kelas teknologi baru dapat muncul.
Kamera lampu lalu lintas, sistem analisis lalu lintas waktu nyata, dan mekanisme pengaturan lalu lintas otomatis – semua ini menjadi mungkin berkat teknologi komunikasi baru. Polisi mendapatkan cara baru untuk bertukar data, dan di luar angkasa, teleskop dan satelit dapat mengirimkan sejumlah besar informasi ke Bumi. Lompatan kualitatif dalam teknologi dasar mendorong perkembangan seluruh ekosistem.
Prinsip yang sama berlaku untuk daya komputasi. Bayangkan total kapasitas komputasi umat manusia dalam satuan hipotetis. Saat ini, kita mungkin memiliki, katakanlah, sepuluh satuan tersebut. Dengan satuan-satuan itu, kita dapat menghasilkan gambar dan video, menulis teks, membuat materi pemasaran… Ini sudah cukup besar, tetapi jangkauan aplikasinya masih terbatas.
Sekarang bayangkan kita memiliki bukan sepuluh, tetapi seribu unit seperti itu. Tiba-tiba, teknologi yang sebelumnya terlalu mahal menjadi layak, dan perusahaan rintisan yang ditinggalkan karena biaya komputasi yang tinggi mulai masuk akal secara ekonomi.
Ambil contoh taksi robot. Saat ini, sebagian besar bergantung pada komputer lokal yang relatif lemah yang terpasang di dalam kendaraan. Namun, jika umpan video ditransmisikan ke cloud dengan sumber daya komputasi yang sangat besar, data dapat diproses dan dikembalikan secara real-time. Dan ini sangat penting: sebuah mobil yang bergerak dengan kecepatan 100 km/jam harus membuat keputusan dalam sepersekian detik – lurus, berbelok, mengerem, atau tidak mengerem.
Saat itulah industri robotaxi yang berfungsi penuh menjadi mungkin, bukan hanya solusi terisolasi seperti yang kita lihat saat ini. Komputer lokal apa pun yang terpasang di dalam mobil pada dasarnya terbatas dengan cara yang tidak dimiliki oleh sistem yang terhubung. Semakin cepat kita dapat meningkatkan skalanya, semakin cepat dunia di sekitar kita akan berubah.
Akses ke chip dan "tiket emas" dalam AI
Dalam konteks daya komputasi, muncul pertanyaan: apakah akses ke chip modern menjadi "tiket emas" untuk memasuki pasar AI? Apakah pemain besar yang menandatangani kontrak dengan produsen chip, atau memproduksinya sendiri, menciptakan kesenjangan antara perusahaan besar dan semua pihak lainnya?
Kesenjangan seperti itu hanya muncul dalam satu kasus: jika model bisnis difokuskan secara eksklusif pada penjualan chip kepada klien besar. Dalam praktiknya, produsen seperti NVIDIA bertujuan untuk menyediakan solusi cloud untuk semua orang. Chip mereka yang dioptimalkan tersedia di cloud untuk OpenAI dan pengembang independen.
Bahkan aliansi strategis antar perusahaan seperti Google, Anthropic, Microsoft, OpenAI, Amazon, dan NVIDIA pada dasarnya adalah kemitraan untuk pemanfaatan sumber daya bersama, bukan upaya untuk menutup pasar. Model ini memungkinkan alokasi daya komputasi yang efisien, sehingga mempercepat pengembangan teknologi.
Jika kita menelusuri rantai penggunaan sumber daya komputasi, semuanya dimulai dari pengguna akhir. Misalnya, ketika Anda menggunakan WhatsApp untuk panggilan video dan pesan, perusahaan harus memastikan layanan tersebut berfungsi: menyimpan dan memproses data, menjalankan model untuk pembersihan video, menambahkan efek, dan meningkatkan kualitas gambar.
Memelihara server milik sendiri itu mahal, cepat usang, dan membutuhkan perawatan terus-menerus. Itulah mengapa solusi cloud, atau "cloud", muncul. Pasar didominasi oleh tiga pemain: Google Cloud, AWS, dan Microsoft Azure. Perusahaan lain tidak dapat bersaing di level ini: skala infrastrukturnya terlalu besar.
Layanan cloud adalah pusat data besar dengan pendinginan, pasokan daya, dan pemeliharaan sepanjang waktu. Pusat data ini menampung server dan chip khusus dari NVIDIA, AMD, dan produsen lainnya, yang memungkinkan proses komputasi skala besar.
Di sinilah kita sampai pada pertanyaan kunci yang telah saya bahas sebelumnya. kolom sebelumnya tentang pusat dataDan ingin melanjutkan di sini: apa hambatan utama dalam sistem ini? Apakah kekurangan listrik, atau kesulitan mendinginkan pusat data di wilayah yang iklimnya sangat menantang? Sebenarnya, rahasianya terletak pada chip itu sendiri…
Cawan suci
Mengapa NVIDIA saat ini bernilai sekitar $5 triliun dan termasuk di antara perusahaan publik paling sukses di dunia? Alasannya sederhana: NVIDIA memproduksi chip yang digunakan untuk melatih model AI dan menjalankan inferensi.
Masing-masing chip ini mengonsumsi listrik dalam jumlah besar saat melatih model besar atau memproses volume data yang terus bertambah. Tetapi seberapa efisien energi tersebut digunakan? Di sinilah chip khusus berperan; chip ini menangani tugas-tugas spesifik jauh lebih efisien daripada GPU tujuan umum.
Model AI berbeda-beda. OpenAI, misalnya, memiliki satu keluarga model, sedangkan Anthropic memiliki keluarga model lainnya. Konsepnya mungkin serupa, tetapi struktur matematika dan proses komputasinya berbeda. Sebuah chip serbaguna, ketika melatih model OpenAI (seperti ChatGPT) dibandingkan dengan model Anthropic (seperti Claude), bertindak sebagai "alat serbaguna," yang menghabiskan, misalnya, 100,000 jam komputasi untuk satu model dan 150,000 jam untuk model lainnya. Efisiensi sangat bervariasi dan jarang optimal.
Perusahaan mengatasi masalah ini dengan memproduksi chip khusus. Misalnya, satu chip dapat dioptimalkan untuk arsitektur ChatGPT dan melatihnya dalam waktu, katakanlah, 20 menit, sementara chip lain dirancang khusus untuk arsitektur Anthropic dan juga menyelesaikan pelatihan dalam waktu 20 menit. Konsumsi energi dan waktu pelatihan berkurang berkali-kali dibandingkan dengan chip serbaguna.
Ketika chip-chip ini dijual ke perusahaan-perusahaan besar, seperti Google, Amazon, Microsoft, atau Azure, chip-chip tersebut ditawarkan sebagai produk mandiri. Pengguna dapat memilih, misalnya, chip yang dioptimalkan untuk model YOLO atau chip yang lebih sederhana dan lebih murah untuk arsitektur Xen. Dengan cara ini, perusahaan mendapatkan akses ke sumber daya komputasi yang disesuaikan secara tepat dengan tugas-tugas mereka, daripada membeli GPU serbaguna. Jika pengguna memiliki sepuluh fungsi berbeda, mereka dapat menggunakan sepuluh chip khusus yang berbeda.
Trennya jelas: chip khusus secara bertahap menggantikan chip serbaguna. Banyak perusahaan rintisan sekarang bekerja dengan ASIC (Application-Specific Integrated Circuits), yaitu chip yang dirancang untuk tugas komputasi tertentu. ASIC pertama muncul untuk penambangan Bitcoin: awalnya, mata uang kripto ditambang pada GPU NVIDIA, kemudian chip dibuat khusus untuk Bitcoin dan tidak mampu melakukan tugas lain.
Saya melihat ini dalam praktiknya: konfigurasi perangkat keras yang sama dapat menghasilkan hasil yang sangat berbeda tergantung pada tugasnya. Di perusahaan rintisan saya IntrospektorKami mempelajari proses-proses ini dalam proyek-proyek nyata, dan sebagai penasihat strategis dari... Pembuat kunciSaya mengamati bagaimana klien memperoleh efisiensi dari chip khusus, yang memungkinkan model berjalan lebih cepat. Proyek yang sebelumnya terhenti selama pelatihan atau inferensi mencapai hasil yang stabil dengan pendekatan ini.
Namun, spesialisasi yang sempit membawa risiko. Chip yang dioptimalkan untuk arsitektur Anthropic tidak akan berfungsi untuk melatih model OpenAI, dan sebaliknya. Setiap arsitektur baru membutuhkan generasi perangkat keras baru, menciptakan risiko "penghapusan" skala besar. Jika Anthropic merilis arsitektur baru besok, semua chip generasi sebelumnya menjadi tidak efisien atau tidak berguna. Memproduksi chip baru membutuhkan biaya miliaran dolar dan dapat memakan waktu bertahun-tahun.
Hal ini menimbulkan dilema: haruskah kita membuat chip khusus yang bekerja sempurna dalam skenario terbatas, atau terus memproduksi chip serbaguna yang mampu menyelesaikan semua tugas dengan cukup baik tetapi tidak memerlukan penggantian total ketika arsitektur berubah?
Efisiensi dalam konteks ini diukur dengan tiga parameter utama: waktu kerja, konsumsi listrik, dan produksi panas. Metrik ini berhubungan langsung: semakin lama suatu sistem beroperasi, semakin banyak energi yang dikonsumsi dan semakin banyak panas yang dihasilkan. Mengurangi satu parameter secara otomatis akan meningkatkan dua parameter lainnya.
Inilah "kunci sukses" dari kinerja AI: jika setidaknya salah satu metrik efisiensi fundamental dapat dioptimalkan, metrik lainnya hampir secara otomatis akan meningkat juga.
Proses berkelanjutan
Dengan meningkatnya penggunaan chip khusus, masalah risiko kelebihan produksi menjadi semakin mendesak. Saat ini, surplus peralatan sudah signifikan, dan perusahaan mengatasi masalah ini dengan berbagai cara berkelanjutan, termasuk penggunaan kembali sumber daya yang ada.
Daur ulang peralatan telah menjadi elemen kunci pembangunan berkelanjutan di industri teknologi tinggi. Chip mengandung sejumlah besar logam mulia dan logam dasar, emas, tembaga, aluminium, paladium, dan material tanah jarang, serta material yang digunakan dalam mikrochip dan transistor. Setelah peralatan menjadi usang, sumber daya berharga ini dapat dikembalikan ke produksi, mengurangi biaya komponen baru sekaligus menurunkan jejak lingkungan industri.
Beberapa pabrik dan perusahaan khusus berfokus pada daur ulang dan ekstraksi logam mulia dari komponen yang sudah usang. Misalnya, beberapa fasilitas menggunakan proses hidrometalurgi dan metode kimia canggih untuk mengekstrak emas dan tembaga dengan tingkat kemurnian tinggi, sehingga memungkinkan bahan-bahan ini untuk digunakan kembali dalam chip baru.
Selain itu, perusahaan-perusahaan menerapkan model siklus tertutup, di mana peralatan lama ditingkatkan atau diintegrasikan ke dalam solusi baru, sehingga mengurangi kebutuhan akan ekstraksi sumber daya primer. Pendekatan seperti ini tidak hanya membantu meminimalkan limbah tetapi juga menurunkan jejak karbon produksi, karena penambangan dan pengolahan logam tradisional membutuhkan energi yang signifikan.
Pengelolaan siklus hidup chip dan peralatan yang berkelanjutan dapat menjadi standar industri, di mana kemajuan teknologi selaras dengan tanggung jawab lingkungan.








