Connect with us

Pemimpin pemikiran

Apa yang Selanjutnya untuk Pengenalan Suara Otomatis? Tantangan dan Pendekatan Terkini

mm

Sekuat apapun sistem Pengenalan Suara Otomatis (ASR) saat ini, bidang ini masih jauh dari “selesai.” Peneliti dan praktisi berhadapan dengan sejumlah tantangan yang mendorong batas kemampuan ASR. Dari meningkatkan kemampuan waktu nyata hingga menjelajahi pendekatan hibrida yang menggabungkan ASR dengan modalitas lain, gelombang inovasi berikutnya di ASR terbentuk untuk menjadi sama transformatif seperti temuan yang membawa kita ke sini.

Tantangan Utama yang Mengarahkan Penelitian

  1. Bahasa dengan Sumber Daya Rendah Meskipun model seperti MMS dari Meta dan Whisper dari OpenAI telah membuat kemajuan dalam ASR multibahasa, sebagian besar bahasa di dunia—terutama dialek yang kurang diwakili—masih belum terlayani. Membangun ASR untuk bahasa-bahasa ini sulit karena:
    • Kekurangan data yang dilabeli: Banyak bahasa kekurangan dataset audio yang ditranskrip dengan skala yang cukup.
    • Kesulitan dalam fonetik: Beberapa bahasa bersifat tonal atau bergantung pada petunjuk prosodik halus, membuatnya lebih sulit untuk dimodelkan dengan pendekatan ASR standar.
  2. Lingkungan Berisik di Dunia Nyata Bahkan sistem ASR yang paling canggih dapat berjuang dalam skenario suara yang tumpang tindih atau berisik, seperti pusat panggilan, acara langsung, atau percakapan kelompok. Mengatasi tantangan seperti diarization pembicara (siapa yang mengatakan apa) dan transkripsi yang tahan terhadap kebisingan tetap menjadi prioritas utama.
  3. Generalisasi di Seluruh Domain Sistem ASR saat ini sering memerlukan penyetelan ulang untuk tugas-tugas spesifik domain (misalnya, perawatan kesehatan, hukum, pendidikan). Mencapai generalisasi—di mana satu sistem ASR berkinerja baik di berbagai kasus penggunaan tanpa penyesuaian spesifik domain—adalah tujuan utama.
  4. Latensi vs. Akurasi Meskipun ASR waktu nyata adalah kenyataan, sering ada pertukaran antara latensi dan akurasi. Mencapai kedua latensi rendah dan transkripsi hampir sempurna, terutama di perangkat dengan sumber daya terbatas seperti smartphone, tetap menjadi hambatan teknis.

Pendekatan Terkini: Apa yang di Ufuk?

Untuk mengatasi tantangan ini, peneliti bereksperimen dengan arsitektur baru, integrasi cross-modal, dan pendekatan hibrida yang mendorong ASR melampaui batas-batas tradisional. Berikut beberapa arah yang paling menarik:

  1. Sistem ASR + TTS Ujung ke Ujung Alih-alih memperlakukan ASR dan Text-To-Speech (TTS) sebagai modul terpisah, peneliti menjelajahi model terpadu yang dapat secara mulus mentranskrip dan mensintesis suara. Sistem ini menggunakan representasi bersama dari suara dan teks, memungkinkan mereka untuk:
    • Belajar pemetaan dua arah (suara-ke-teks dan teks-ke-suara) dalam satu pipa pelatihan.
    • Meningkatkan kualitas transkripsi dengan memanfaatkan umpan balik loop sintesis suara. Misalnya, Spirit LM dari Meta adalah langkah dalam arah ini, menggabungkan ASR dan TTS ke dalam satu kerangka untuk melestarikan ekspresivitas dan sentimen di seluruh modalitas. Pendekatan ini dapat merevolusi AI percakapan dengan membuat sistem lebih alami, dinamis, dan ekspresif.
  2. Encoder ASR + Dekoder Model Bahasa Sebuah tren baru yang menjanjikan adalah menghubungkan encoder ASR dengan dekoder model bahasa pra-terlatih seperti GPT. Dalam arsitektur ini:
    • Encoder ASR memproses audio mentah menjadi representasi laten yang kaya.
    • Dekoder model bahasa menggunakan representasi tersebut untuk menghasilkan teks, memanfaatkan pemahaman kontekstual dan pengetahuan dunia. Untuk membuat koneksi ini bekerja, peneliti menggunakan adapter—modul ringan yang menyelaraskan embedding audio encoder dengan embedding teks dekoder. Pendekatan ini memungkinkan:
      1. Penanganan kalimat yang ambigu dengan lebih baik dengan mengintegrasikan konteks linguistik.
      2. Robustness yang ditingkatkan terhadap kesalahan dalam lingkungan berisik.
      3. Integrasi mulus dengan tugas hilir seperti ringkasan, terjemahan, atau menjawab pertanyaan.
  3. Pembelajaran Mandiri + Multimodal Pembelajaran mandiri (SSL) telah mengubah ASR dengan model seperti Wav2Vec 2.0 dan HuBERT. Batas berikutnya adalah menggabungkan data audio, teks, dan visual dalam model multimodal.
    • Mengapa multimodal? Suara tidak ada dalam isolasi. Mengintegrasikan petunjuk dari video (misalnya, gerakan bibir) atau teks (misalnya, subtitle) membantu model memahami lingkungan audio yang kompleks.
    • Contoh dalam aksi: Penggabungan token suara dan teks Spirit LM dan eksperimen Google dengan ASR dalam sistem terjemahan multimodal menunjukkan potensi dari pendekatan ini.
  4. Adaptasi Domain dengan Pembelajaran Beberapa Shot Pembelajaran beberapa shot bertujuan untuk mengajarkan sistem ASR untuk beradaptasi cepat dengan tugas atau domain baru menggunakan hanya beberapa contoh. Pendekatan ini dapat mengurangi ketergantungan pada penyetelan ulang ekstensif dengan memanfaatkan:
    • Pengaturan prompt: Mengarahkan perilaku model melalui instruksi bahasa alami.
    • Pembelajaran meta: Melatih sistem untuk “belajar bagaimana belajar” di seluruh tugas, meningkatkan adaptabilitas ke domain yang tidak terlihat. Misalnya, model ASR dapat beradaptasi dengan jargon hukum atau istilah perawatan kesehatan dengan hanya beberapa sampel yang dilabeli, membuatnya jauh lebih serbaguna untuk kasus penggunaan perusahaan.
  5. ASR Kontekstual untuk Pemahaman yang Lebih Baik Sistem ASR saat ini sering mentranskrip suara dalam isolasi, tanpa mempertimbangkan konteks percakapan atau situasional yang lebih luas. Untuk mengatasi ini, peneliti membangun sistem yang mengintegrasikan:
    • Mekanisme memori: Memungkinkan model untuk menyimpan informasi dari bagian awal percakapan.
    • Basis pengetahuan eksternal: Memungkinkan model untuk merujuk pada fakta atau data spesifik secara real-time (misalnya, selama panggilan dukungan pelanggan).
  6. Model Ringan untuk Perangkat Tepi Meskipun model ASR besar seperti Whisper atau USM memberikan akurasi luar biasa, mereka sering memerlukan sumber daya yang intensif. Untuk membawa ASR ke smartphone, perangkat IoT, dan lingkungan dengan sumber daya terbatas, peneliti mengembangkan model ringan menggunakan:
    • Kuantisasi: Mengompresi model untuk mengurangi ukurannya tanpa mengorbankan kinerja.
    • Destilasi: Melatih model “siswa” yang lebih kecil untuk meniru model “guru” yang lebih besar. Teknik-teknik ini memungkinkan untuk menjalankan ASR berkualitas tinggi pada perangkat tepi, membuka aplikasi baru seperti asisten tangan-bebas, transkripsi pada perangkat, dan ASR yang menjaga privasi.

Tantangan dalam ASR bukan hanya teka-teki teknis—mereka adalah gerbang menuju generasi berikutnya dari AI percakapan. Dengan menghubungkan ASR dengan teknologi lain (seperti TTS, model bahasa, dan sistem multimodal), kita menciptakan sistem yang tidak hanya memahami apa yang kita katakan—mereka memahami kita.

Bayangkan sebuah dunia di mana Anda dapat memiliki percakapan yang lancar dengan AI yang memahami niat, nada, dan konteks Anda. Di mana hambatan bahasa menghilang, dan alat aksesibilitas menjadi begitu alami sehingga terasa tak terlihat. Itulah janji dari temuan ASR yang saat ini sedang diteliti.

Baru Memulai: ASR di Jantung Inovasi

Saya harap Anda menemukan eksplorasi ASR ini sama menariknya dengan saya. Bagi saya, bidang ini tidak kurang dari menggembirakan—tantangan, temuan, dan kemungkinan aplikasi yang tak terbatas berada di garis terdepan inovasi.

Ketika kita terus membangun dunia agen, robot, dan alat AI yang berkembang dengan kecepatan yang luar biasa, jelas bahwa AI Percakapan akan menjadi antarmuka utama yang menghubungkan kita dengan teknologi ini. Dan dalam ekosistem ini, ASR berdiri sebagai salah satu komponen paling kompleks dan menarik untuk dimodelkan secara algoritmik.

Jika blog ini membangkitkan sedikit rasa ingin tahu, saya sarankan untuk menyelami lebih dalam. Kunjungi Hugging Face, coba beberapa model sumber terbuka, dan lihat keajaiban ASR dalam aksi. Apakah Anda seorang peneliti, pengembang, atau hanya pengamat yang antusias, ada banyak hal untuk disukai—dan masih banyak lagi yang akan datang.

Mari kita terus mendukung bidang luar biasa ini, dan saya harap Anda akan terus mengikuti evolusinya. Karena kita baru saja memulai.

Assaf Asbag adalah seorang ahli teknologi dan ilmu data yang sangat berpengalaman dengan lebih dari 15 tahun di industri AI, saat ini menjabat sebagai Chief Technology & Product Officer (CTPO) di aiOla, sebuah laboratorium AI conversational deep tech, di mana ia mengarahkan inovasi AI dan kepemimpinan pasar.