Kecerdasan buatan
OpenAI, Anthropic, dan Google Mendesak Tindakan karena Kepemimpinan AI AS Memudar

Perusahaan artificial intelligence (AI) terkemuka di AS, OpenAI, Anthropic, dan Google, telah memperingatkan pemerintah federal bahwa keunggulan teknologi AS dalam AI “tidak luas dan semakin menyempit” karena model China seperti Deepseek R1 menunjukkan kemampuan yang meningkat, menurut dokumen yang diserahkan kepada pemerintah AS sebagai tanggapan atas permintaan informasi tentang pengembangan Rencana Tindakan AI.
Pengajuan terbaru dari Maret 2025 ini menekankan kekhawatiran mendesak tentang risiko keamanan nasional, kemampuan ekonomi, dan kebutuhan akan kerangka regulasi strategis untuk mempertahankan kepemimpinan AS dalam pengembangan AI di tengah persaingan global yang meningkat dan kemajuan China yang disubsidi negara dalam bidang tersebut. Anthropic dan Google mengajukan tanggapan mereka pada 6 Maret 2025, sementara pengajuan OpenAI mengikuti pada 13 Maret 2025.
Tantangan China dan Deepseek R1
Munculnya model Deepseek R1 China telah memicu kekhawatiran signifikan di antara pengembang AI AS utama, yang melihatnya bukan sebagai teknologi yang unggul tetapi sebagai bukti bahwa kesenjangan teknologi dengan cepat menutup.
OpenAI secara eksplisit memperingatkan bahwa “Deepseek menunjukkan bahwa keunggulan kita tidak luas dan semakin menyempit,” menggambarkannya sebagai “bersamaan dengan subsidi negara, dikendalikan negara, dan tersedia secara gratis” – kombinasi yang mereka anggap sangat mengancam kepentingan AS dan pengembangan AI global.
Menurut analisis OpenAI, Deepseek menimbulkan risiko serupa dengan yang terkait dengan raksasa telekomunikasi China Huawei. “Seperti halnya Huawei, ada risiko signifikan dalam membangun di atas model DeepSeek dalam infrastruktur kritis dan kasus penggunaan berisiko tinggi lainnya, mengingat potensi bahwa DeepSeek dapat dipaksa oleh CCP untuk memanipulasi modelnya untuk menyebabkan kerusakan,” OpenAI menyatakan dalam pengajuannya.
Perusahaan tersebut lebih lanjut mengangkat kekhawatiran tentang privasi dan keamanan data, mencatat bahwa peraturan China dapat meminta Deepseek untuk berbagi data pengguna dengan pemerintah. Ini dapat memungkinkan Partai Komunis China untuk mengembangkan sistem AI yang lebih maju yang sejalan dengan kepentingan negara sambil mengompromikan privasi individu.
Evaluasi Anthropic berfokus secara intens pada implikasi biokeamanan. Evaluasi mereka mengungkapkan bahwa Deepseek R1 “memenuhi jawaban untuk sebagian besar pertanyaan senjata biologis, bahkan ketika dirumuskan dengan niat jahat yang jelas.” Kemauan untuk menyediakan informasi berbahaya ini berbeda dengan langkah-langkah keamanan yang diterapkan oleh model AS terkemuka.
“Sementara Amerika mempertahankan keunggulan dalam AI hari ini, DeepSeek menunjukkan bahwa keunggulan kita tidak luas dan semakin menyempit,” Anthropic mengulangi dalam pengajuannya, memperkuat nada mendesak dari peringatan.
Kedua perusahaan tersebut membingkai persaingan dalam istilah ideologis, dengan OpenAI menggambarkan kontes antara “AI demokratis” yang dipimpin Amerika dan “AI otoriter, autoritarian” China. Mereka menyarankan bahwa kemauan Deepseek untuk menghasilkan instruksi untuk “kegiatan ilegal dan berbahaya seperti penipuan identitas dan pencurian kekayaan intelektual” mencerminkan pendekatan etis yang berbeda secara fundamental terhadap pengembangan AI antara kedua negara.
Munculnya Deepseek R1 adalah sebuah tonggak penting dalam perlombaan AI global, menunjukkan kemampuan China yang meningkat meskipun kontrol ekspor AS atas semikonduktor canggih dan menekankan urgensi tindakan pemerintah yang terkoordinasi untuk mempertahankan kepemimpinan AS dalam bidang tersebut.
Implikasi Keamanan Nasional
Pengajuan dari ketiga perusahaan tersebut menekankan kekhawatiran keamanan nasional yang signifikan yang muncul dari model AI canggih, meskipun mereka mendekati risiko ini dari sudut yang berbeda.
Peringatan OpenAI berfokus secara intens pada potensi pengaruh CCP terhadap model AI China seperti Deepseek. Perusahaan tersebut menekankan bahwa peraturan China dapat memaksa Deepseek untuk “mengompromikan infrastruktur kritis dan aplikasi sensitif” dan meminta data pengguna untuk dibagikan dengan pemerintah. Pembagian data ini dapat memungkinkan pengembangan sistem AI yang lebih canggih yang sejalan dengan kepentingan negara China, menciptakan baik masalah privasi langsung maupun ancaman keamanan jangka panjang.
Kekhawatiran Anthropic berpusat pada risiko biokeamanan yang ditimbulkan oleh kemampuan AI canggih, terlepas dari negara asalnya. Dalam pengungkapan yang sangat mengkhawatirkan, Anthropic mengungkapkan bahwa “Sistem kami yang paling baru, Claude 3.7 Sonnet, menunjukkan perbaikan yang mengkhawatirkan dalam kemampuannya untuk mendukung aspek pengembangan senjata biologis.” Pengakuan ini secara terbuka menekankan sifat ganda dari sistem AI canggih dan kebutuhan akan pengaman yang kuat.
Anthropic juga mengidentifikasi apa yang mereka sebut sebagai “celah regulasi dalam pembatasan chip AS” terkait dengan chip H20 Nvidia. Meskipun chip ini memenuhi persyaratan kinerja yang berkurang untuk ekspor China, mereka “unggul dalam generasi teks (‘sampling’)—komponen fundamental dari metodologi pembelajaran penguatan canggih yang kritis untuk kemajuan model frontier saat ini.” Anthropic mendesak “tindakan regulasi segera” untuk mengatasi kerentanan potensial ini dalam kerangka kontrol ekspor saat ini.
Google, sementara mengakui risiko keamanan AI, mendukung pendekatan yang lebih seimbang terhadap kontrol ekspor. Perusahaan tersebut memperingatkan bahwa aturan ekspor AI saat ini “dapat mengurangi tujuan kemampuan ekonomi…dengan mengenakan beban yang tidak seimbang pada penyedia layanan awan AS.” Sebagai gantinya, Google merekomendasikan “kontrol ekspor yang seimbang yang melindungi keamanan nasional sambil memungkinkan ekspor AS dan operasi bisnis global.”
Ketiga perusahaan tersebut menekankan kebutuhan akan kemampuan evaluasi pemerintah yang ditingkatkan. Anthropic secara khusus meminta “membangun kapasitas pemerintah federal untuk menguji dan mengevaluasi model AI kuat untuk kemampuan keamanan nasional” untuk lebih memahami penyalahgunaan potensial oleh lawan. Ini akan melibatkan melestarikan dan memperkuat Institut Keamanan AI, mengarahkan NIST untuk mengembangkan evaluasi keamanan, dan merakit tim ahli antardisiplin.
Tabel Perbandingan: OpenAI, Anthropic, Google
| Bidang Fokus | OpenAI | Anthropic | |
| Kekhawatiran Utama | Ancaman politik dan ekonomi dari AI yang dikendalikan negara | Risiko biokeamanan dari model canggih | Mempertahankan inovasi sambil menyeimbangkan keamanan |
| Pandangan tentang Deepseek R1 | “Disubsidi negara, dikendalikan negara, dan tersedia secara gratis” dengan risiko seperti Huawei | Bersedia menjawab “pertanyaan senjata biologis” dengan niat jahat | Fokus kurang spesifik pada Deepseek, lebih pada persaingan yang lebih luas |
| Prioritas Keamanan Nasional | Pengaruh CCP dan risiko keamanan data | Ancaman biokeamanan dan celah ekspor chip | Kontrol ekspor yang seimbang yang tidak memberatkan penyedia AS |
| Pendekatan Regulasi | Kerja sama sukarela dengan pemerintah federal; satu titik kontak | Kapasitas pengujian pemerintah yang ditingkatkan; kontrol ekspor yang diperkuat | “Kerangka federal pro-inovasi untuk AI”; tata kelola sektoral |
| Fokus Infrastruktur | Adopsi pemerintah dari alat AI frontier | Ekspansi energi (50GW pada 2027) untuk pengembangan AI | Tindakan terkoordinasi pada energi, reformasi izin |
| Rekomendasi Khas | Kerangka kontrol ekspor bertingkat yang mempromosikan “AI demokratis” | Tindakan regulasi segera pada chip H20 Nvidia yang diekspor ke China | Akses industri ke data yang tersedia secara terbuka untuk pembelajaran yang adil |
Strategi Kemampuan Ekonomi
Persyaratan infrastruktur, terutama kebutuhan energi, muncul sebagai faktor kritis dalam mempertahankan kepemimpinan AI AS. Anthropic memperingatkan bahwa “pada 2027, pelatihan satu model AI frontier akan memerlukan klaster komputasi jaringan yang menarik sekitar lima gigawatt daya.” Mereka mengusulkan target nasional ambisius untuk membangun 50 gigawatt daya tambahan yang didedikasikan khusus untuk industri AI pada 2027, bersama dengan langkah-langkah untuk mempermudah izin dan mempercepat persetujuan jalur transmisi.
OpenAI sekali lagi membingkai persaingan sebagai kontes ideologis antara “AI demokratis” dan “AI otoriter, autoritarian” yang dibangun oleh CCP. Visi mereka untuk “AI demokratis” menekankan “pasar bebas yang mempromosikan persaingan bebas dan adil” dan “kebebasan bagi pengembang dan pengguna untuk bekerja dengan dan mengarahkan alat kami sebagaimana mereka inginkan,” dalam pengaman keselamatan yang tepat.
Ketiga perusahaan tersebut menawarkan rekomendasi rinci untuk mempertahankan kepemimpinan AS. Anthropic menekankan pentingnya “memperkuat kemampuan ekonomi Amerika” dan memastikan bahwa “manfaat ekonomi yang didorong AI secara luas dibagikan di seluruh masyarakat.” Mereka mendukung “memastikan dan menskala pasokan energi AS” sebagai prasyarat kritis untuk menjaga pengembangan AI di dalam perbatasan Amerika, memperingatkan bahwa keterbatasan energi dapat memaksa pengembang ke luar negeri.
Google meminta tindakan yang menentukan untuk “mengaktifkan pengembangan AI AS,” fokus pada tiga area kunci: investasi dalam AI, percepatan adopsi AI pemerintah, dan promosi pendekatan pro-inovasi secara internasional. Perusahaan tersebut menekankan kebutuhan akan “tindakan terkoordinasi federal, negara bagian, lokal, dan industri pada kebijakan seperti reformasi transmisi dan izin untuk mengatasi kebutuhan energi yang meningkat” bersama dengan “kontrol ekspor yang seimbang” dan “pembiayaan terus-menerus untuk penelitian dan pengembangan AI dasar.”
Pengajuan Google khususnya menekankan kebutuhan akan “kerangka federal pro-inovasi untuk AI” yang akan mencegah patchwork regulasi negara bagian sambil memastikan akses industri ke data yang tersedia secara terbuka untuk pelatihan model. Pendekatan mereka menekankan “tata kelola AI yang fokus, sektoral, dan berbasis risiko” daripada regulasi yang luas.
Rekomendasi Regulasi
Pendekatan federal yang terpadu untuk regulasi AI muncul sebagai tema konsisten di seluruh pengajuan. OpenAI memperingatkan terhadap “arbitrase regulasi yang dibuat oleh negara bagian individual Amerika” dan mengusulkan “pendekatan holistik yang memungkinkan kerja sama sukarela antara pemerintah federal dan sektor swasta.” Kerangka mereka membayangkan pengawasan oleh Departemen Perdagangan, potensial melalui Institut Keamanan AI AS yang direnovasi, menyediakan satu titik kontak untuk perusahaan AI untuk berinteraksi dengan pemerintah tentang risiko keamanan.
Mengenai kontrol ekspor, OpenAI mendukung kerangka bertingkat yang dirancang untuk mempromosikan adopsi AI Amerika di negara-negara yang sejalan dengan nilai demokratis sambil membatasi akses untuk China dan sekutunya. Anthropic juga mendesak “memperkuat kontrol ekspor untuk memperluas keunggulan AI AS” dan “secara dramatis meningkatkan keamanan laboratorium frontier AS” melalui kerja sama yang ditingkatkan dengan agen intelijen.
Pertimbangan hak cipta dan kekayaan intelektual ditampilkan secara menonjol dalam rekomendasi OpenAI dan Google. OpenAI menekankan pentingnya mempertahankan prinsip penggunaan wajar untuk memungkinkan model AI belajar dari materi berhak cipta tanpa mengurangi nilai komersial karya yang ada. Mereka memperingatkan bahwa aturan hak cipta yang terlalu restriktif dapat merugikan perusahaan AI AS dibandingkan dengan pesaing China. Google mengulangi pandangan ini, mendukung “aturan hak cipta yang seimbang, seperti pengecualian penggunaan wajar dan penambangan teks dan data” yang mereka deskripsikan sebagai “kritis untuk memungkinkan sistem AI belajar dari pengetahuan sebelumnya dan data yang tersedia secara publik.”
Ketiga perusahaan tersebut menekankan kebutuhan akan adopsi teknologi AI yang dipercepat oleh pemerintah. OpenAI meminta “strategi adopsi pemerintah yang ambisius” untuk memodernisasi proses federal dan menggelar alat AI frontier dengan aman. Mereka secara khusus merekomendasikan menghapus hambatan untuk adopsi AI, termasuk proses akreditasi yang sudah ketinggalan zaman seperti FedRAMP, otoritas pengujian yang restriktif, dan jalur pengadaan yang kaku. Anthropic juga mendukung “mempromosikan pengadaan AI yang cepat di seluruh pemerintah federal” untuk merevolusi operasi dan meningkatkan keamanan nasional.
Google menyarankan “mempermudah praktik akreditasi, otorisasi, dan pengadaan yang sudah ketinggalan zaman” dalam pemerintah untuk mempercepat adopsi AI. Mereka menekankan pentingnya aturan pengadaan publik yang efektif dan interoperabilitas yang ditingkatkan dalam solusi cloud pemerintah untuk memfasilitasi inovasi.
Pengajuan komprehensif dari perusahaan AI terkemuka ini menyajikan pesan yang jelas: mempertahankan kepemimpinan Amerika dalam kecerdasan buatan memerlukan tindakan federal yang terkoordinasi di berbagai bidang – dari pengembangan infrastruktur dan kerangka regulasi hingga perlindungan keamanan nasional dan modernisasi pemerintah – terutama karena persaingan dari China semakin intens.












