Pemimpin pemikiran
Ledakan AI Tidak Meledak, tapi Perhitungan AI Pasti Berubah

Jangan terlalu takut dengan beruang AI. Mereka bertanya-tanya dengan keras jika ledakan besar dalam investasi AI sudah datang dan pergi, jika banyak kegembiraan pasar dan pengeluaran pada sistem pelatihan AI besar yang ditenagai oleh banyak GPU berkinerja tinggi telah berakhir, dan jika harapan untuk era AI harus dikurangi secara radikal.
Tapi jika Anda melihat lebih dekat rencana hyperscaler besar, investasi AI masih hidup dan sehat. Meta, Amazon, Microsoft, dan Google telah menggandakan investasi mereka pada teknologi AI. Komitmen kolektif mereka untuk 2025 total lebih dari $300 miliar, menurut sebuah cerita di Financial Times. CEO Microsoft Satya Nadella mengatakan Microsoft bisa menghabiskan $80 miliar saja untuk AI tahun ini. Pendiri dan CEO Meta Mark Zuckerberg mengatakan di Facebook, “Kami berencana untuk menginvestasikan $60-65M dalam capex tahun ini sambil juga meningkatkan tim AI kami secara signifikan, dan kami memiliki modal untuk terus menginvestasikan dalam tahun-tahun mendatang.”
Ini bukanlah suara ledakan AI yang meledak, tapi telah ada kecemasan yang tumbuh sekitar berapa banyak uang yang dihabiskan untuk memungkinkan aplikasi AI. Setelah setidaknya dua tahun raksasa teknologi mengatakan mereka melihat permintaan yang jelas untuk lebih banyak daya komputasi untuk membantu melatih model AI besar, 2025 telah dimulai dengan perusahaan yang sama dipanggil ke karpet setiap hari oleh media bisnis untuk membangun banyak hype AI.
Mengapa ada perubahan mendadak dari harapan ke kekhawatiran? Jawabannya dapat ditemukan sebagian dalam munculnya aplikasi AI baru dari Cina. Tapi untuk memahami apa yang benar-benar terjadi, dan apa yang itu berarti untuk investasi AI dan program teknologi dalam tahun-tahun mendatang, kita harus mengakui bahwa era AI bergeser ke fase baru evolusinya.
Mencari Kebenaran
Sekarang, dunia tahu semua tentang DeepSeek, perusahaan AI Cina yang mempromosikan bagaimana mereka menggunakan mesin inferensi dan penalaran statistik untuk melatih model bahasa besar dengan lebih efisien dan dengan biaya yang lebih rendah daripada perusahaan lain telah melatih model mereka.
Secara khusus, DeepSeek mengklaim bahwa teknik mereka menghasilkan mereka memerlukan lebih sedikit GPU (sebanyak 2.048 GPU), serta GPU yang kurang kuat (Nvidia H800s) daripada ratusan ribu GPU premium-kinerja (seperti Nvidia H100s) yang beberapa perusahaan hyperscale telah perlukan untuk melatih model mereka. Dalam hal penghematan biaya, sementara OpenAI menghabiskan miliaran dolar untuk melatih ChatGPT, DeepSeek konon menghabiskan sebanyak $6,5 juta untuk melatih model R1-nya.
Perlu dicatat bahwa banyak ahli telah meragukan klaim pengeluaran DeepSeek, tapi kerusakan sudah dilakukan, karena berita tentang metode yang berbeda mereka mengarah pada penurunan tajam dalam nilai saham hyperscaler dan perusahaan yang GPU-nya telah dihabiskan miliaran untuk melatih model AI mereka.
Namun, beberapa poin penting hilang di tengah kekacauan. Satu adalah pemahaman bahwa DeepSeek tidak “menciptakan” cara baru untuk bekerja dengan AI. Yang kedua adalah bahwa banyak ekosistem AI telah lama menyadari perubahan yang akan datang dalam cara investasi dolar AI harus dihabiskan, dan bagaimana AI itu sendiri akan digunakan dalam tahun-tahun mendatang.
Mengenai metode DeepSeek, konsep menggunakan mesin inferensi AI dan penalaran statistik bukanlah hal baru. Penggunaan penalaran statistik adalah salah satu aspek dari konsep yang lebih luas tentang penalaran model inferensi, yang melibatkan AI dapat mengambil kesimpulan berdasarkan pengenalan pola. Ini pada dasarnya sama dengan kemampuan manusia untuk belajar cara yang berbeda untuk mendekati masalah dan membandingkannya untuk menemukan solusi terbaik. Penalaran model berbasis inferensi dapat digunakan hari ini dan tidak eksklusif untuk startup Cina.
Sementara itu, ekosistem AI telah lama mengantisipasi perubahan fundamental dalam cara kita bekerja dengan AI dan sumber daya komputasi yang diperlukan. Tahun-tahun awal era AI telah semua tentang pekerjaan besar melatih model AI besar pada set data besar, semua yang memerlukan banyak pemrosesan, perhitungan kompleks, penyesuaian bobot, dan ketergantungan memori. Setelah model AI telah dilatih, hal-hal berubah. AI dapat menggunakan inferensi untuk menerapkan semua yang telah dipelajari ke set data baru, tugas, dan masalah. Inferensi, sebagai proses yang kurang intensif komputasi daripada pelatihan, tidak memerlukan banyak GPU atau sumber daya komputasi lainnya.
Kebenaran utama tentang DeepSeek adalah bahwa sementara metode mereka tidak mengejutkan sebagian besar dari kita di ekosistem AI sebanyak yang dilakukan investor pasar saham yang tertarik, itu memang menyoroti salah satu cara di mana inferensi akan menjadi inti dari fase berikutnya evolusi AI.
AI: Generasi Berikutnya
Janji dan potensi AI tidak berubah. Investasi AI besar yang berkelanjutan oleh hyperscaler besar menunjukkan kepercayaan mereka pada nilai yang dapat dibuka dari AI, serta cara-cara di mana AI dapat mengubah hampir semua industri bekerja, dan bagaimana hampir semua orang menjalani kehidupan sehari-hari.
Apa yang berubah untuk hyperscaler adalah bagaimana dolar tersebut kemungkinan akan dihabiskan. Di tahun-tahun awal era AI, sebagian besar investasi diperlukan untuk pelatihan. Jika Anda berpikir tentang AI sebagai anak, dengan pikiran yang masih dalam pengembangan, kita telah menghabiskan banyak uang untuk mengirimnya ke sekolah dan universitas terbaik. Sekarang, anak itu adalah orang dewasa yang terdidik–dan itu perlu mendapatkan pekerjaan untuk mendukung dirinya sendiri. Dalam istilah dunia nyata, kita telah menginvestasikan banyak dalam pelatihan AI, dan sekarang kita perlu melihat pengembalian investasi dengan menggunakan AI untuk menghasilkan pendapatan baru.
Untuk mencapai pengembalian investasi ini, AI perlu menjadi lebih efisien dan kurang mahal untuk membantu perusahaan memaksimalkan daya tarik pasarnya dan utilitasnya untuk sebanyak mungkin aplikasi. Layanan baru yang paling menguntungkan akan menjadi layanan otonom yang tidak memerlukan pemantauan dan manajemen manusia.
Bagi banyak perusahaan, itu berarti menggunakan teknik komputasi AI yang efisien sumber daya, seperti penalaran model inferensi, untuk dengan cepat dan efektif memungkinkan komunikasi mesin-ke-mesin otonom. Sebagai contoh, di industri nirkabel, AI dapat digunakan untuk menganalisis data waktu nyata tentang utilisasi spektrum pada jaringan seluler untuk mengoptimalkan penggunaan kanal dan mengurangi interferensi antara pengguna, yang pada akhirnya memungkinkan operator seluler untuk mendukung berbagi spektrum dinamis lebih banyak di seluruh jaringannya. Jenis komunikasi mesin-ke-mesin otonom yang lebih efisien ini akan mendefinisikan generasi berikutnya AI.
Seperti yang telah menjadi kasus dengan setiap era komputasi besar lainnya, komputasi AI terus berkembang. Jika sejarah komputasi telah mengajarkan kita sesuatu, itu adalah bahwa teknologi baru selalu memerlukan banyak investasi awal, tapi biaya akan turun dan efisiensi akan meningkat ketika kita mulai menggunakan teknik yang ditingkatkan dan praktik yang lebih baik untuk menciptakan produk dan layanan yang lebih bermanfaat dan terjangkau untuk menarik pasar terbesar. Inovasi selalu menemukan cara.
Sektor AI mungkin baru-baru ini tampak menderita kemunduran jika Anda mendengarkan beruang AI, tapi dolar yang hyperscaler rencanakan untuk dihabiskan tahun ini dan penggunaan teknik berbasis inferensi yang meningkat menceritakan kisah yang berbeda: komputasi AI memang berubah, tapi janji AI masih utuh.












