Kecerdasan buatan
Menggunakan Silikon: Bagaimana Chip In-House Membentuk Masa Depan AI
Kecerdasan buatan, seperti perangkat lunak lainnya, bergantung pada dua komponen dasar: program AI, yang sering disebut sebagai model, dan perangkat keras komputasi, atau chip, yang menggerakkan program-program ini. Sampai sekarang, fokus dalam pengembangan AI telah terletak pada penyempurnaan model, sedangkan perangkat keras biasanya dianggap sebagai komponen standar yang disediakan oleh pemasok pihak ketiga. Namun, baru-baru ini, pendekatan ini mulai berubah. Perusahaan AI besar seperti Google, Meta, dan Amazon telah memulai pengembangan chip AI mereka sendiri. Pengembangan chip AI khusus in-house membawa era baru dalam kemajuan AI. Artikel ini akan menjelajahi alasan di balik perubahan pendekatan ini dan akan menyoroti perkembangan terbaru di area yang terus berkembang ini.
Mengapa Pengembangan Chip AI In-House?
Perubahan ke arah pengembangan chip AI khusus in-house didorong oleh beberapa faktor kritis, yang mencakup:
Meningkatnya Permintaan Chip AI
Membuat dan menggunakan model AI memerlukan sumber daya komputasi yang signifikan untuk menangani volume data yang besar dan menghasilkan prediksi atau wawasan yang akurat. Chip komputer tradisional tidak mampu menangani permintaan komputasi saat pelatihan pada miliaran titik data. Keterbatasan ini telah mengarah pada penciptaan chip AI canggih yang dirancang khusus untuk memenuhi persyaratan kinerja dan efisiensi yang tinggi dari aplikasi AI modern. Seiring dengan pertumbuhan penelitian dan pengembangan AI, permintaan untuk chip khusus ini juga meningkat.
Nvidia, pemimpin dalam produksi chip AI canggih dan jauh di depan kompetitornya, menghadapi tantangan karena permintaan melebihi kapasitas manufaktur mereka. Situasi ini telah mengarah pada daftar tunggu untuk chip AI Nvidia yang diperpanjang hingga beberapa bulan, penundaan yang terus tumbuh seiring dengan meningkatnya permintaan untuk chip AI mereka. Selain itu, pasar chip, yang mencakup pemain besar seperti Nvidia dan Intel, menghadapi tantangan dalam produksi chip. Masalah ini berasal dari ketergantungan mereka pada produsen Taiwan TSMC untuk perakitan chip. Ketergantungan ini pada satu produsen mengarah pada waktu produksi yang lama untuk chip canggih ini.
Membuat Komputasi AI yang Hemat Energi dan Berkelanjutan
Generasi chip AI saat ini, yang dirancang untuk tugas komputasi berat, cenderung mengonsumsi banyak daya, dan menghasilkan panas yang signifikan. Ini telah mengarah pada dampak lingkungan yang substansial untuk pelatihan dan penggunaan model AI. Peneliti OpenAI menyatakan bahwa: sejak 2012, daya komputasi yang diperlukan untuk melatih model AI canggih telah meningkat dua kali lipat setiap 3,4 bulan, menunjukkan bahwa pada tahun 2040, emisi dari sektor Teknologi Informasi dan Komunikasi (TIK) dapat mencakup 14% dari emisi global. Studi lain menunjukkan bahwa pelatihan satu model bahasa besar dapat mengemisikan hingga 284.000 kg CO2, yang kira-kira setara dengan konsumsi energi lima mobil sepanjang masa pakainya. Selain itu, diperkirakan bahwa konsumsi energi pusat data akan tumbuh 28 persen pada tahun 2030. Temuan ini menekankan kebutuhan untuk menemukan keseimbangan antara pengembangan AI dan tanggung jawab lingkungan. Sebagai respons, banyak perusahaan AI sekarang berinvestasi dalam pengembangan chip yang lebih hemat energi, dengan tujuan membuat pelatihan dan operasi AI lebih berkelanjutan dan ramah lingkungan.
Menyesuaikan Chip untuk Tugas Khusus
Proses AI yang berbeda memiliki permintaan komputasi yang bervariasi. Misalnya, pelatihan model pembelajaran dalam memerlukan daya komputasi yang signifikan dan throughput yang tinggi untuk menangani dataset besar dan menjalankan perhitungan kompleks dengan cepat. Chip yang dirancang untuk pelatihan dioptimalkan untuk meningkatkan operasi ini, meningkatkan kecepatan dan efisiensi. Di sisi lain, proses inferensi, di mana model menerapkan pengetahuan yang dipelajari untuk membuat prediksi, memerlukan pemrosesan yang cepat dengan penggunaan energi minimal, terutama di perangkat edge seperti smartphone dan perangkat IoT. Chip untuk inferensi dirancang untuk mengoptimalkan kinerja per watt, memastikan responsif yang cepat dan konservasi baterai. Penyesuaian desain chip ini untuk tugas pelatihan dan inferensi memungkinkan setiap chip untuk disesuaikan secara tepat untuk perannya, meningkatkan kinerja di berbagai perangkat dan aplikasi. Spesialisasi ini tidak hanya mendukung fungsi AI yang lebih kuat tetapi juga mempromosikan efisiensi energi dan biaya yang lebih besar.
Mengurangi Beban Keuangan
Beban keuangan untuk komputasi pelatihan dan operasi model AI tetap substansial. OpenAI, misalnya, menggunakan superkomputer yang luas yang dibuat oleh Microsoft untuk pelatihan dan inferensi sejak tahun 2020. Biaya pelatihan model GPT-3 OpenAI sekitar $12 juta, dan biaya melonjak menjadi $100 juta untuk pelatihan GPT-4. Menurut laporan oleh SemiAnalysis, OpenAI memerlukan sekitar 3.617 server HGX A100, total 28.936 GPU, untuk mendukung ChatGPT, membawa biaya rata-rata per kueri sekitar $0,36. Dengan biaya tinggi ini, Sam Altman, CEO OpenAI, dilaporkan mencari investasi besar untuk membangun jaringan fasilitas produksi chip AI di seluruh dunia, menurut laporan Bloomberg ini.
Mengendalikan Kontrol dan Inovasi
Chip AI pihak ketiga sering kali memiliki keterbatasan. Perusahaan yang mengandalkan chip ini mungkin menemukan diri mereka terbatas oleh solusi off-the-shelf yang tidak sepenuhnya sesuai dengan model AI atau aplikasi unik mereka. Pengembangan chip in-house memungkinkan kustomisasi yang disesuaikan dengan kasus penggunaan khusus. Apakah itu untuk mobil otonom atau perangkat mobile, mengendalikan perangkat keras memungkinkan perusahaan untuk sepenuhnya memanfaatkan algoritma AI mereka. Chip khusus dapat meningkatkan tugas tertentu, mengurangi latensi, dan meningkatkan kinerja secara keseluruhan.
Perkembangan Terbaru dalam Pengembangan Chip AI
Bagian ini membahas langkah-langkah terbaru yang dilakukan oleh Google, Meta, dan Amazon dalam membangun teknologi chip AI.
Prosesor Axion Google
Google telah terus maju dalam bidang teknologi chip AI sejak diperkenalkannya Tensor Processing Unit (TPU) pada tahun 2015. Membangun dari fondasi ini, Google baru-baru ini meluncurkan Prosesor Axion, CPU khusus pertama yang dirancang khusus untuk pusat data dan beban kerja AI. Prosesor ini berbasis arsitektur Arm, yang dikenal karena efisiensi dan desain kompaknya. Prosesor Axion bertujuan untuk meningkatkan efisiensi pelatihan dan inferensi AI berbasis CPU sambil mempertahankan efisiensi energi. Kemajuan ini juga menandai peningkatan signifikan dalam kinerja untuk berbagai beban kerja umum, termasuk server web dan aplikasi, layanan mikro yang dikontainerisasi, basis data sumber terbuka, mesin analisis data, pengolahan media, dan lain-lain.
MTIA Meta
Meta terus maju dalam teknologi chip AI dengan Meta Training and Inference Accelerator (MTIA). Alat ini dirancang untuk meningkatkan efisiensi proses pelatihan dan inferensi, terutama untuk algoritma peringkat dan rekomendasi. Baru-baru ini, Meta menguraikan bagaimana MTIA adalah bagian kunci dari strategi untuk memperkuat infrastruktur AI mereka di luar GPU. Awalnya dijadwalkan untuk diluncurkan pada tahun 2025, Meta telah memasukkan kedua versi MTIA ke dalam produksi, menunjukkan langkah yang lebih cepat dalam rencana pengembangan chip mereka. Sementara MTIA saat ini fokus pada pelatihan algoritma tertentu, Meta bertujuan untuk memperluas penggunaannya untuk meliputi pelatihan untuk AI generatif, seperti model bahasa Llama mereka.
Trainium dan Inferentia Amazon
Sejak memperkenalkan chip khusus Nitro pada tahun 2013, Amazon telah memperluas pengembangan chip AI secara signifikan. Perusahaan ini baru-baru ini memperkenalkan dua chip AI inovatif, Trainium dan Inferentia. Trainium dirancang khusus untuk meningkatkan pelatihan model AI dan akan diintegrasikan ke dalam EC2 UltraClusters. Klaster ini, yang dapat menampung hingga 100.000 chip, dioptimalkan untuk pelatihan model dasar dan model bahasa besar dengan cara yang hemat energi. Inferentia, di sisi lain, dirancang untuk tugas inferensi di mana model AI diterapkan, fokus pada mengurangi latensi dan biaya selama inferensi untuk lebih baik melayani kebutuhan jutaan pengguna yang berinteraksi dengan layanan yang didukung AI.
Ringkasan
Pergerakan menuju pengembangan chip AI khusus in-house oleh perusahaan besar seperti Google, Microsoft, dan Amazon mencerminkan perubahan strategis untuk mengatasi kebutuhan komputasi yang meningkat dari teknologi AI. Tren ini menyoroti kebutuhan akan solusi yang disesuaikan khusus untuk mendukung model AI dengan efisien, memenuhi permintaan unik dari sistem canggih ini. Seiring dengan pertumbuhan permintaan chip AI, pemimpin industri seperti Nvidia kemungkinan akan melihat kenaikan signifikan dalam valuasi pasar, menekankan peran vital yang dimainkan oleh chip khusus dalam mengembangkan inovasi AI. Dengan menciptakan chip mereka sendiri, raksasa teknologi ini tidak hanya meningkatkan kinerja dan efisiensi sistem AI mereka tetapi juga mempromosikan masa depan yang lebih berkelanjutan dan hemat biaya. Evolusi ini menetapkan standar baru di industri, menggerakkan kemajuan teknologi dan keunggulan kompetitif di pasar global yang terus berubah.










