Kecerdasan buatan
Perjuangan untuk Menghentikan AI dari Menipu pada Tes

Temuan penelitian baru dari sebuah universitas di Tiongkok menawarkan wawasan tentang mengapa model pengolahan bahasa alami generatif seperti GPT-3 cenderung ‘menipu’ ketika diminta pertanyaan yang sulit, menghasilkan jawaban yang mungkin secara teknis benar, tetapi tanpa pemahaman yang sebenarnya tentang mengapa jawaban itu benar; dan mengapa mereka menunjukkan sedikit atau tidak ada kemampuan untuk menjelaskan logika di balik jawaban ‘mudah’ mereka. Peneliti juga mengusulkan beberapa metode baru untuk membuat sistem ‘belajar lebih keras’ selama fase pelatihan.












