Regulasi
Sebagian Besar Eksekutif Teknologi AS Ingin Regulasi AI, Tapi Siapa yang Harus Memimpin?

Sama seperti tahun 1990-an memiliki komersialisasi Internet, 2000-an smartphone, dan 2010-an munculnya media sosial, 2020-an milik AI. Seperti terobosan teknologi sebelumnya, AI juga tampaknya berkembang lebih cepat daripada regulator dan pembuat undang-undang dapat mengimbanginya.
Gelembung dotcom meledak pada 1993 dengan peluncuran browser Mosaic yang inklusif, dan tidak sampai 1996 Kongres AS mengesahkan Undang-Undang Telekomunikasi, yang pertama secara eksplisit mengatur Internet. Serupa, Apple meluncurkan iPhone pada 2007, meskipun legislator mengesahkan Undang-Undang Aksesibilitas Komunikasi dan Video Abad ke-21 pada 2010, yang mengharuskan semua smartphone untuk menyertakan fitur aksesibilitas.
Dan meskipun “dekade media sosial” 2010-an melihat pembentukan dan perluasan platform seperti Facebook, WhatsApp, YouTube, dan Instagram, tidak sampai paruh kedua dekade itu Undang-Undang FOSTA-SESTA disetujui, yang membuat platform bertanggung jawab atas tindakan yang mereka sadari untuk memfasilitasi perdagangan seks. Apakah sejarah akan mengulangi dirinya dengan AI?
Sementara AI menjadi mainstream setelah rilis OpenAI yang mengguncang industri ChatGPT pada 2022, negara asal alat tersebut belum mengesahkan legislasi federal untuk mengaturinya. AS, sebaliknya, telah menggeser posisinya – dari restriktif ke deregulasi – karena perubahan administrasi.
AI di AS: Isu Bipartisan
Mantan Presiden Joe Biden Safe, Secure, and Trustworthy Act mengharuskan badan federal pada 2023 untuk mengambil langkah-langkah menuju keamanan AI, hak sipil, kesetaraan, dan transparansi. “Memanfaatkan AI untuk kebaikan dan mewujudkan manfaatnya yang beragam memerlukan mitigasi risiko yang substansial,” dibaca Undang-Undang.
Pada Januari 2025, bagaimanapun, Presiden Donald Trump saat ini menandatangani Removing Barriers to American Leadership in Artificial Intelligence Act, mencabut kebijakan dan direktif AI yang ada “yang bertindak sebagai penghalang untuk inovasi AI Amerika, membersihkan jalan bagi AS untuk bertindak secara decisif untuk mempertahankan kepemimpinan global dalam kecerdasan buatan.”
Administrasi saat ini, maka, berusaha untuk mempercepat inovasi AI di AS melalui upaya deregulasi, mengimbangi risiko potensial melalui investasi dalam penelitian dan pengembangan. Pertanyaan tetap, bagaimanapun, jika itu adalah pemerintah yang harus menangani kekhawatiran ini.
Hari ini, ada kekhawatiran hampir universal tentang risiko AI, termasuk etika, gangguan, dan kepercayaan. Sebuah studi 2024 tentang kekhawatiran multistakeholder yang muncul dari AI, sebenarnya, menemukan bahwa kekhawatiran paling mendesak termasuk bias, penyalahgunaan, tindakan mesin yang tidak terduga, ketidaksetaraan, kecemasan sosial, dan perubahan dalam rantai pasokan, untuk menyebutkan beberapa.
Sebagian besar eksekutif teknologi AS setuju, tetapi menyoroti paradoks. Laporan September 2025 dari Solvd, sebuah perusahaan konsultasi AI dan rekayasa digital, menyimpulkan bahwa meskipun 97% dari Chief Information Officers (CIO) dan Chief Technology Officers (CTO) yang responden khawatir tentang penggunaan AI yang tidak etis, 87% percaya bahwa regulasi AI yang terlalu banyak dapat membatasi inovasi dan menjadi kerugian kompetitif.
Kekhawatiran utama para pemimpin ini mengulangi kekhawatiran yang diidentifikasi oleh studi 2024: model AI menjadi sangat kuat sehingga tidak dapat dikendalikan, aktor jahat yang memanfaatkan kerentanan AI, model AI mendapatkan akses terlalu banyak ke data perusahaan, dan disinformasi atau bias yang dapat ditimbulkan oleh teknologi ini.
Di antara 500 CIO dan CTO Amerika di perusahaan yang menghasilkan lebih dari $500M dalam pendapatan tahunan yang disurvei Solvd, 61% lebih memilih regulasi publik, sementara 36% lebih memilih regulasi yang dipimpin industri.
Regulasi yang dipimpin industri dapat menandakan model campuran, menjauh dari dikotomi publik-swasta. Administrasi Biden, sebenarnya, menegosiasikan kesepakatan dengan eksekutif teknologi terkemuka pada 2023 yang merincikan komitmen sukarela mengenai pengaman AI. Janji-janji tersebut termasuk memastikan bahwa produk aman sebelum diluncurkan ke publik, membangun sistem yang mengutamakan keamanan, dan memenangkan kepercayaan publik melalui transparansi dan mengungkapkan kemampuan, keterbatasan, dan area penggunaan yang tepat dan tidak tepat dari sistem AI.
Pembicaraan Global
Meskipun perbedaan preferensi eksekutif perusahaan atas kerangka regulasi publik atau industri, fakta tetap bahwa 82% dari mereka bertanggung jawab untuk memimpin tata kelola AI internal, menurut Solvd. Hanya 8% responden menunjuk kepada kepemimpinan senior untuk regulasi AI internal, dan 5% mengatakan bahwa perusahaan mereka memiliki dewan etika AI atau komite kepatuhan yang didedikasikan.
Perusahaan – dan karyawannya – dengan demikian terjebak antara menunggu kebijakan publik yang mungkin atau tidak mungkin datang, dan bertindak sebagian besar secara independen dari kepemimpinan senior dan tim yang terlatih dalam etika AI.
Konteks yang berbeda telah menemukan solusi yang berbeda untuk komplikasi ini. Uni Eropa (UE), misalnya, sangat kontras dengan pendekatan deregulasi administrasi Trump melalui Undang-Undang AI UE, undang-undang AI komprehensif pertama di dunia. Disetujui pada Maret 2024, Undang-Undang tersebut melarang beberapa aplikasi AI, membentuk kerangka evaluasi berbasis risiko, dan secara hukum menuntut transparansi dan komunikasi dengan pengguna.
Orang lain mengikuti contoh UE. Chili, pemimpin AI di Amerika Selatan, baru-baru ini mengusulkan tagihan untuk mengatur AI, terinspirasi oleh Undang-Undang AI Eropa. Cina, di sisi lain, sebagian besar menghindari hambatan ini, karena sistem politiknya mendukung regulasi yang disetujui negara, subsidi, dan kemitraan dengan perusahaan AI swasta. Tantangan negara tersebut timbul kurang dari dikotomi regulasi, dan lebih dari risiko sensor dan campur tangan negara dalam inovasi.
Tapi AS, sebagai pemimpin AI global, pasti akan menetapkan nada untuk masa depan kerangka regulasi.
Pemikiran Terakhir
Implementasi dan inovasi AI telah menjadi keunggulan kompetitif di hampir setiap industri di seluruh dunia. Tapi, tanpa kejelasan regulasi dan perubahan politik, eksekutif teknologi harus menetapkan pengaman mereka sendiri, dan bertanggung jawab untuk melindungi konsumen, memenangkan kepercayaan mereka di tengah ketakutan AI yang meluas, dan berinovasi – semua secara bersamaan.
Meskipun kekhawatiran lintas sektor bahwa regulasi yang ketat mungkin menghambat inovasi, sebaliknya mungkin benar. Menurut RegulatingAI, sebuah organisasi nirlaba AS yang didedikasikan untuk menjelajahi persimpangan AI dan regulasi, ketidakpastian tentang penegakan AI menghambat adopsi teknologi, yang menunda realisasi manfaat ekonomi, kekurangan investasi, dan menghambat margin skala perusahaan.
“Mengklarifikasi bagaimana sistem AI didefinisikan dalam konteks regulasi sangat penting, karena ketidakjelasan dalam definisi menambahkan tantangan kepatuhan,” organisasi nirlaba menyatakan.
Serupa, Solvd menekankan pentingnya perusahaan memanfaatkan kebingungan regulasi saat ini. “Sekarang adalah saat yang tepat bagi perusahaan untuk membangun tata kelola internal yang efektif sebelum regulator eksternal campur tangan dan memaksakan solusi yang kurang fleksibel,” kesimpulan laporan perusahaan.
Dalam konteks ini, inovator AI di AS menghadapi tantangan yang belum pernah terjadi sebelumnya: risiko reputasi untuk tidak mengadopsi kebijakan pengawasan, dan kemungkinan celah kepatuhan ketika regulasi benar-benar diterapkan.
Tapi kesempatan juga bersinar. Dengan pengetahuan dari Internet, smartphone, dan media sosial, sekarang adalah waktu yang tepat untuk melihat ke depan dan membangun ekosistem yang seimbangkan inovasi dengan akuntabilitas, memupuk kepercayaan, dan mempersiapkan diri untuk kepastian regulasi.












