Connect with us

Pemimpin pemikiran

Perjuangan untuk Kepemilikan AI – Mengapa Pusat Data Lebih Penting dari Pernah

mm

Beberapa tahun yang lalu, pusat data tampak seperti sesuatu yang murni teknis dan tidak terlihat – infrastruktur yang tersembunyi di backend, jarang dibicarakan di luar lingkaran profesional. Namun, pertumbuhan AI yang eksplosif telah mengubah gambaran tersebut secara keseluruhan. Hari ini, pusat data telah menjadi “sumur minyak” baru dari ekonomi digital: aset strategis di sekitar mana miliaran investasi, kebijakan pemerintah, dan strategi perusahaan sedang dibangun.

Berita terbaru mengkonfirmasi hal ini. Anthropic mengumumkan pembangunan pusat data miliknya sendiri di AS, dengan biaya $50 miliar, sebuah angka yang setara dengan anggaran proyek energi raksasa. Hampir bersamaan, X.AI dan Nvidia mengungkapkan proyek bersama di Arab Saudi, salah satu pusat data terbesar di wilayah tersebut.

Mengapa topik pusat data menjadi sangat global? Mengapa pemain besar berpindah dari model awan murni dan menginvestasikan puluhan miliar ke dalam kapasitas mereka sendiri? Dan bagaimana pergeseran ini mempengaruhi arsitektur AI, sistem energi, geopolitik, dan munculnya model alternatif, dari Arktik hingga pusat data berbasis ruang angkasa?

Ini adalah apa yang dieksplorasi di kolom di bawah.

Munculnya Minat Global dalam Memiliki Pusat Data

Ketika konsumsi sumber daya komputasi diukur dalam jutaan dolar per tahun, menyewa server awan memang lebih efektif biaya: bisnis tidak perlu membangun dan memelihara bangunan, membayar listrik dan pendingin, membeli peralatan, atau secara teratur mengupgrade itu. Namun, ketika biaya mencapai miliaran dolar, logika bergeser.

Pada titik itu, menjadi lebih efektif biaya untuk membangun pusat data milik sendiri, merekrut insinyur, membeli peralatan, dan mengoptimalkan infrastruktur untuk kebutuhan spesifik. Perusahaan berhenti membayar margin penyedia awan dan mendapatkan kontrol yang jauh lebih besar atas biaya dan efisiensi komputasi.

Ini adalah mengapa tren membangun pusat data pribadi paling relevan untuk raksasa seperti OpenAI atau Anthropic, perusahaan yang kebutuhannya sangat besar sehingga awan tidak lagi secara ekonomis dibenarkan.

Pada saat yang sama, penting untuk memahami bahwa konsep “pusat data” adalah multilapis. Bagi beberapa perusahaan, ini terutama merupakan fasilitas penyimpanan data, disk, database, dan informasi pengguna. Bagi yang lain, ini juga merupakan pusat komputasi: server yang menjalankan model seperti GPT, Claude, atau LLaMA, secara bersamaan menyimpan data dan melakukan operasi kompleks. Pada dasarnya, hari ini, pusat data adalah “gudang” teknologi besar yang menampung ribuan komputer khusus.

Dan semakin tinggi permintaan untuk kapasitas AI, semakin strategis dan diperdebatkan “gudang” ini menjadi, yang mengapa pusat data sekarang dibahas tidak hanya oleh insinyur, tetapi juga oleh investor, pembuat kebijakan, dan eksekutif tingkat atas.

Apa yang Lebih Penting dalam Membangun Pusat Data AI: Kecepatan atau Kualitas?

Dalam kenyataan, baik kecepatan konstruksi maupun “kualitas” formal pusat data bukanlah penggerak utama. Perusahaan besar menginvestasikan infrastruktur mereka sendiri untuk mengurangi biaya dan mendapatkan kontrol maksimum atas komputasi.

Kualitas model itu sendiri mengkhawatirkan pemain tingkat atas jauh lebih sedikit daripada yang mungkin dipikirkan. Alasannya sederhana: celah kualitas antara pemimpin pasar minimal. Ini sangat mirip dengan industri otomotif: Volkswagen, Toyota, Honda – semua berbeda, tetapi tidak ada yang dapat menarik terlalu jauh untuk memonopoli pasar. Masing-masing mempertahankan bagian yang stabil.

Pasar AI mengikuti logika yang sama. Pengguna lanjutan sudah menggunakan beberapa model secara bersamaan: satu untuk pemrograman, yang lain untuk generasi teks, yang ketiga untuk analitik atau pencarian. Klien perusahaan melakukan hal yang sama. Misalnya, layanan seperti Grammarly tidak memiliki model mereka sendiri. Mereka membeli token dari beberapa penyedia, Anthropic, OpenAI, Meta. Ketika permintaan masuk, sistem secara otomatis memilih penyedia: yang saat ini lebih murah, lebih cepat, atau lebih akurat. Jika teks dalam bahasa Inggris – itu pergi ke GPT; jika dalam bahasa Hindi – ke Claude; jika LLaMA saat ini memiliki tarif terendah – itu pergi ke sana. Ini pada dasarnya adalah model distribusi beban gaya bursa efek.

Dalam percakapan dengan klien perusahaan Keymakr, saya semakin melihat tren yang sama: perusahaan besar telah lama meninggalkan pendekatan “satu model – satu penyedia”. Mereka membangun pipa multi-model di mana permintaan diarahkan antara sistem AI yang berbeda tergantung pada biaya, latensi, atau spesifisitas bahasa. Namun, arsitektur ini menempatkan tuntutan yang jauh lebih tinggi pada data, khususnya, kebersihan, anotasi, validasi, dan konsistensinya. Dalam hal ini, infrastruktur data menjadi sama strategis dengan pusat data itu sendiri: tanpa input berkualitas tinggi, sistem multi-model tidak akan berfungsi.

Akhirnya, dalam arsitektur ini, kualitas model menjadi hanya salah satu parameter. Kunci adalah mempertahankan kecepatan, skalabilitas, dan kemampuan untuk menangani beban komputasi besar. Dan ini adalah apa yang memberikan pusat data pribadi nilai strategis: mereka memungkinkan perusahaan untuk mengontrol biaya, throughput, dan stabilitas, sambil memiliki dampak yang relatif kecil pada kualitas model akhir.

Dengan kata lain, hari ini, perusahaan membangun pusat data tidak untuk kecepatan atau kualitas yang sempurna, tetapi untuk ekonomi dan kontrol.

Geografi Data

Dengan “kontrol”, saya maksudkan geografi data. Jika sebuah perusahaan bekerja dengan lembaga pemerintah, hukum sering melarang data meninggalkan negara. Aplikasi pemerintahan dan quasimiliter secara aktif menggunakan AI dalam intelijen, unit TI pertahanan, dan layanan munisipal. Namun, tidak mungkin memberikan sistem ini akses ke model jika pusat data terletak di wilayah dengan yurisdiksi yang tidak pasti atau kepercayaan yang rendah. Itulah mengapa pemerintah memerlukan kapasitas komputasi untuk secara fisik berada di dalam negeri.

Perusahaan besar memahami ini dengan baik. Jika mereka ingin berpartisipasi dalam tender pemerintah, menandatangani kontrak, atau memproses data sensitif, mereka memerlukan infrastruktur di wilayah tertentu dan kemampuan untuk menjamin kepatuhan dengan standar keamanan. Batasan geografis ini juga sangat mempengaruhi faktor kritis lain dalam membangun dan mengoperasikan pusat data – energi.

Pusat data AI mengonsumsi sejumlah besar listrik, baik untuk menjalankan server maupun untuk mendinginkannya. Pendinginan sering kali lebih mahal daripada komputasi itu sendiri. Ini menciptakan batasan yang ketat. Di beberapa wilayah, pusat data dibatasi untuk menarik sejumlah daya tertentu dari grid; di lain, emisi panas ke lingkungan sangat diatur. Melebihi batas hasil dalam denda dan perbaikan teknik yang mahal.

Lebih lagi, listrik dibeli terutama dari perusahaan energi milik negara, yang memiliki struktur tarif mereka sendiri. Anda tidak bisa hanya “membeli sebanyak yang Anda inginkan.” Misalnya, hingga ambang tertentu, harga adalah satu tarif; di atasnya, yang lain. Jika pusat data menarik lebih banyak daya daripada yang diizinkan selama periode puncak, maka secara otomatis dikenakan denda. Karena itu, perusahaan besar sering menemukan bahwa lebih ekonomis untuk membangun pusat data mereka sendiri dekat dengan pembangkit listrik mereka sendiri.

Ini secara alami mengarah pada ide mengembangkan pembangkit listrik pribadi, seperti ladang surya, pembangkit gas, atau pembangkit listrik tenaga air kecil. Namun, semua solusi ini memiliki keterbatasan. Pembangkit gas dan batu bara menghasilkan emisi. Pembangkit listrik tenaga air mengubah ekosistem sungai. Energi nuklir adalah yang paling bersih dalam hal emisi, tetapi hanya pemerintah yang dapat membangun pembangkit nuklir.

Dan itulah tepatnya di mana konsep baru mulai muncul…

Solusi Alternatif

Opsi paling jelas adalah memindahkan pusat data ke wilayah dengan iklim alami yang dingin, seperti Kanada utara, wilayah utara Skandinavia, atau daerah terpencil di Arktik. Di sana, alam itu sendiri menyelesaikan masalah pendinginan, secara drastis mengurangi biaya operasional.

Langkah berikutnya adalah “pusat data bawah air.” Komputasi dilakukan di bawah air, dengan lingkungan laut yang dingin menyediakan pendinginan alami. Namun, pendekatan ini juga memiliki kelemahan. Para ahli lingkungan telah mengangkat kekhawatiran. Misalnya, dekat Islandia selatan, di mana Arus Teluk melewati, beberapa telah menyarankan bahwa penerapan besar-besaran pusat data bawah air bisa mempengaruhi proses iklim setempat, bahkan mengubah perilaku arus laut. Pengamatan awal tentang penyimpangan tersebut telah tercatat.

Terdapat juga opsi yang lebih futuristik. Baru-baru ini, saya membahas konsep pusat data berbasis ruang angkasa dengan rekan. Ide meluncurkan infrastruktur komputasi ke orbit telah ada selama beberapa waktu; namun, teknologi telah membawanya ke ambang kelayakan praktis, dengan fondasi teknis yang siap.

Mengapa ruang angkasa tampak menarik? Ini segera menyelesaikan dua kendala besar: pendinginan dan listrik. Suhu di ruang angkasa dekat Bumi sangat rendah, membuat dissipasi panas hampir gratis. Listrik juga tidak menjadi masalah: panel surya besar dapat dikerahkan, seperti teleskop ruang angkasa melipat cerminnya. Di ruang angkasa, tidak ada debu, tidak ada cuaca, tidak ada bayangan. Panel-panel tersebut menyediakan daya yang stabil sepanjang hari dengan hampir tidak ada perawatan yang diperlukan.

Komunikasi dengan Bumi adalah tantangan teknik terpisah, tetapi ini sepenuhnya dapat dipecahkan. Salah satu pendekatan adalah menggunakan sistem satelit seperti Starlink, tetapi dengan saluran yang jauh lebih lebar. Tautan radio dapat, pada prinsipnya, menangani volume ini, dan tautan optik, saluran berbasis cahaya dengan bandwidth besar, dapat digunakan jika diperlukan. Insinyur pasti akan menemukan solusi di sini.

Secara keseluruhan, infrastruktur ruang angkasa lebih merupakan cabang pengembangan masa depan, tetapi membahasnya tidak lagi terdengar seperti fiksi ilmiah, terutama karena permintaan komputasi tumbuh jauh lebih cepat daripada kapasitas baru di Bumi.

Penting untuk dicatat berita terbaru: Google mengumumkan proyek Suncatcher, yang bertujuan untuk menciptakan pusat data orbital AI. Menurut rencana, satelit yang dilengkapi dengan chip TPU akan ditenagai oleh energi surya dan mentransmisikan data melalui saluran optik. Google mengklaim bahwa solusi ini bisa menyediakan hingga delapan kali efisiensi produksi energi yang lebih besar daripada sistem darat. Prototipe satelit pertama dijadwalkan untuk diluncurkan pada tahun 2027.

Dampak Regulasi

Ketika datang ke regulasi yang mempengaruhi pusat data, dampak lingkungan, dan apakah kerangka hukum bisa “mendorong” pasar ini ke ruang angkasa atau bawah air, pertanyaan tersebut tetap terbuka.

Setiap negara bertindak berbeda, mengimplementasikan regulasi sesuai dengan rencana jangka panjang mereka. Tidak ada rahasia bahwa Eropa, misalnya, memiliki aturan yang lebih ketat, yang melambatkan pengembangan AI. AS, di sisi lain, mengambil pendekatan yang lebih pragmatis: hukum biasanya ditulis untuk memungkinkan inovasi dan pertumbuhan terus berlanjut. Lobby teknologi yang kuat di California, rumah bagi perusahaan seperti Nvidia, Apple, Microsoft, dan Meta, membuat larangan total terhadap AI tidak mungkin. Itu berarti teknologi akan terus berkembang.

Kita hidup di era di mana “berpikir di luar kotak” dikembangkan baik di Barat maupun Asia, dan contoh-contoh seperti Elon Musk dan Steve Jobs terus menginspirasi proyek ambisius. Jadi, mungkin komputasi di ruang angkasa adalah langkah logis berikutnya…

Michael Abramov adalah pendiri & CEO dari Introspector, membawa lebih dari 15+ tahun pengalaman teknik perangkat lunak dan sistem AI penglihatan komputer untuk membangun alat pelabelan kelas perusahaan.

Michael memulai karirnya sebagai insinyur perangkat lunak dan manajer R&D, membangun sistem data yang dapat diskalakan dan mengelola tim insinyur fungsional lintas. Hingga 2025, ia telah menjabat sebagai CEO dari Keymakr, sebuah perusahaan layanan pelabelan data, di mana ia mempelopori alur kerja human-in-the-loop, sistem QA lanjutan, dan tooling khusus untuk mendukung kebutuhan data penglihatan komputer dan otonomi skala besar.

Ia memegang gelar B.Sc. di Ilmu Komputer dan latar belakang di bidang teknik dan seni kreatif, membawa lensa multidisiplin untuk memecahkan masalah yang sulit. Michael hidup di persimpangan inovasi teknologi, kepemimpinan produk strategis, dan dampak dunia nyata, mendorong kemajuan frontier berikutnya dari sistem otonom dan otomatisasi cerdas.