Kecerdasan buatan
OpenAI Membentuk Dewan Keamanan, Melatih Model AI Berikutnya di Tengah Kontroversi

OpenAI telah membuat kemajuan signifikan dalam mengembangkan teknologi kecerdasan buatan, dengan pencapaian terbarunya adalah GPT-4o yang menggerakkan chatbot ChatGPT yang populer. Hari ini, OpenAI mengumumkan pembentukan komite keamanan baru, Dewan Keamanan OpenAI, dan mengungkapkan bahwa mereka telah memulai pelatihan model AI baru.
Siapa yang ada di Dewan Keamanan OpenAI?
Dewan Keamanan OpenAI yang baru dibentuk bertujuan untuk memberikan bimbingan dan pengawasan pada keputusan keamanan dan keamanan yang kritis yang terkait dengan proyek dan operasi perusahaan. Tujuan utama dewan adalah untuk memastikan bahwa praktik pengembangan AI OpenAI memprioritaskan keamanan dan selaras dengan prinsip etika. Komite keamanan terdiri dari kelompok orang yang beragam, termasuk eksekutif OpenAI, anggota dewan, dan ahli teknis dan kebijakan.
Anggota terkemuka dari Dewan Keamanan OpenAI termasuk:
- Sam Altman, CEO OpenAI
- Bret Taylor, Ketua OpenAI
- Adam D’Angelo, CEO Quora dan anggota dewan OpenAI
- Nicole Seligman, mantan penasihat hukum Sony dan anggota dewan OpenAI
Di fase awal, komite keamanan dan keamanan baru akan fokus pada mengevaluasi dan memperkuat proses dan pengaman keamanan yang ada di OpenAI. Dewan Keamanan OpenAI telah menetapkan batas waktu 90 hari untuk memberikan rekomendasi kepada dewan tentang cara meningkatkan praktik pengembangan AI dan sistem keamanan perusahaan. Setelah rekomendasi diadopsi, OpenAI berencana untuk merilisnya secara terbuka dengan cara yang konsisten dengan pertimbangan keamanan dan keamanan.
Pelatihan Model AI Baru
Bersamaan dengan pembentukan Dewan Keamanan OpenAI, OpenAI telah mengumumkan bahwa mereka telah memulai pelatihan model AI berikutnya. Model kecerdasan buatan terbaru ini diharapkan dapat melampaui kemampuan sistem GPT-4 yang saat ini menjadi dasar ChatGPT. Meskipun detail tentang model AI baru masih langka, OpenAI telah mengatakan bahwa itu akan memimpin industri dalam kemampuan dan keamanan.
Pengembangan model AI baru ini menekankan kecepatan inovasi di bidang kecerdasan buatan dan potensi kecerdasan buatan umum (AGI). Ketika sistem AI menjadi lebih maju dan kuat, sangat penting untuk memprioritaskan keamanan dan memastikan bahwa teknologi ini dikembangkan secara bertanggung jawab.
Kontroversi dan Kepartaan Terbaru OpenAI
Fokus OpenAI yang diperbarui pada keamanan datang di tengah-tengah kekacauan internal dan pengawasan publik. Dalam beberapa minggu terakhir, perusahaan telah menghadapi kritik dari dalam barisan sendiri, dengan peneliti Jan Leike mengundurkan diri dan mengungkapkan kekhawatiran bahwa keamanan telah mengambil tempat duduk di belakang pengembangan “produk yang mengkilap.” Pengunduran diri Leike diikuti oleh kepergian Ilya Sutskever, co-pendiri dan ilmuwan utama OpenAI.
Kepartaan Leike dan Sutskever telah menimbulkan pertanyaan tentang prioritas perusahaan dan pendekatannya terhadap keamanan AI. Kedua peneliti tersebut secara bersama-sama memimpin tim “superalignment” OpenAI, yang didedikasikan untuk menangani risiko AI jangka panjang. Setelah pengunduran diri mereka, tim superalignment dibubarkan, yang lebih lanjut memicu kekhawatiran tentang komitmen perusahaan terhadap keamanan.
Selain kekacauan internal, OpenAI juga telah menghadapi tuduhan peniruan suara di chatbot ChatGPT. Beberapa pengguna telah mengklaim bahwa suara chatbot memiliki kemiripan yang mencolok dengan suara aktris Scarlett Johansson. Meskipun OpenAI telah menyangkal secara sengaja meniru Johansson, insiden ini telah memicu diskusi yang lebih luas tentang implikasi etika konten AI yang dihasilkan dan potensi penyalahgunaan.
Perbincangan yang Lebih Luas tentang Etika AI
Ketika bidang kecerdasan buatan terus berkembang dengan cepat, sangat penting bagi perusahaan seperti OpenAI untuk terlibat dalam dialog dan kolaborasi berkelanjutan dengan peneliti, pembuat kebijakan, dan masyarakat untuk memastikan bahwa teknologi AI dikembangkan secara bertanggung jawab dan dengan pengaman yang kuat. Rekomendasi yang diberikan oleh Dewan Keamanan OpenAI dan komitmen OpenAI terhadap transparansi akan berkontribusi pada perbincangan yang lebih luas tentang pemerintahan AI dan membantu membentuk masa depan teknologi ini, tetapi hanya waktu yang akan menunjukkan apa yang akan terjadi.












