Pemimpin pemikiran
Bagaimana Kota Menggunakan Teknologi Terdepan dengan Algoritma AI yang Tidak Bias

Hari ini, hampir setiap aspek kehidupan kita menyentuh beberapa bagian dari jaringan online. Sementara ini telah memperbaiki banyak bidang kehidupan, seperti bagaimana kita berjalan dengan perangkat genggam yang dapat memberikan informasi kepada kita kapan saja, juga menimbulkan beberapa risiko.
Risiko ini melampaui peretasan tradisional dan pelanggaran data ke rekening bank kita, misalnya. Lebih tepatnya, apa yang saya maksudkan di sini adalah bahwa ada banyak bagian dari kehidupan kita hari ini yang dipengaruhi oleh algoritma yang digunakan oleh kecerdasan buatan (AI). Kami menganggap AI ini secara inheren menggunakan algoritma yang berada dalam kepentingan terbaik kami. Namun, apa yang terjadi ketika jenis bias yang salah memasuki algoritma ini? Bagaimana hal itu dapat mempengaruhi hasil tertentu?
Apa yang terjadi ketika algoritma yang bias memasuki sistem AI?
Untuk menawarkan contoh lain, di YouTube, algoritma AI merekomendasikan hampir 70% dari semua video, dan di platform media sosial seperti Instagram dan TikTok, persentasenya bahkan lebih tinggi. Meskipun algoritma AI ini dapat membantu pengguna menemukan konten yang mereka minati, mereka menimbulkan masalah privasi yang serius, dan ada bukti yang semakin banyak bahwa beberapa konten yang dikonsumsi orang online berbahaya karena informasi yang salah atau mungkin mengandung perspektif tertentu yang dirancang untuk mempengaruhi pikiran atau keyakinan politik seseorang secara subliminal.
Pembuatan AI yang komprehensif dan adaptif adalah upaya teknis dan sosial yang menantang, tetapi salah satu yang paling signifikan.
Dapat dipahami bagaimana AI dapat memiliki dampak negatif pada norma-norma sosial dan pola penggunaan online sambil juga fokus pada efek positif teknologi. Sumber daya online memiliki pengaruh signifikan pada masyarakat kita, dan bias dalam algoritma online akan secara tidak sengaja memupuk ketidakadilan, membentuk keyakinan orang, menyebarkan informasi palsu, dan memupuk konflik di antara berbagai kelompok.
Inilah di mana “AI yang buruk” dapat memiliki konsekuensi yang sangat signifikan terkait dengan bias yang tidak diinginkan dan/atau tidak adil.
Bagaimana AI yang bias dapat mempengaruhi persimpangan lalu lintas
Ambil contoh persimpangan lalu lintas, sebagai contoh yang lebih nyata. Waktu tunggu yang lama di lampu lalu lintas menjadi hal yang lampau berkat teknologi AI baru yang diterapkan di pasar di seluruh negeri. Solusi Prioritas Transit ini menggunakan data lalu lintas waktu nyata dan menyesuaikan lampu untuk mengkompensasi pola lalu lintas yang berubah, menjaga lalu lintas tetap mengalir dan mengurangi kemacetan.
Sistem ini menggunakan deep learning, di mana program memahami ketika tidak berfungsi dengan baik dan mencoba tindakan yang berbeda – atau terus memperbaiki ketika membuat kemajuan.
Terdengar seperti ide yang bagus, kan? Apa yang terjadi jika, seiring waktu, algoritma AI yang tertanam dalam teknologi sensor lalu lintas mulai memprioritaskan kendaraan yang lebih mahal daripada yang lain, berdasarkan algoritma yang bias yang dirancang untuk mengenali bahwa orang yang mengemudi jenis kendaraan tertentu layak mendapatkan prioritas daripada yang lain?
Inilah di mana “AI yang buruk” dapat mempengaruhi bagian penting dari kehidupan kita.
Mari kita ambil contoh sistem prioritas transit yang ditenagai AI ini sebagai bagian dari Sistem Transportasi Cerdas (ITS) yang lebih besar yang menggunakan kekuatan teknologi kendaraan terhubung. Sistem ITS hanya sebaik platform berbagi data berbasis awan yang mereka operasikan, dan tidak semua diciptakan sama.
Menghilangkan bias dalam algoritma AI
Platform berbagi data ini telah terbukti sangat efektif, tetapi hanya ketika kota dan pemerintah daerah yang mengawasi sistem transportasi membuatnya terbuka untuk berbagi data yang tepat di mana algoritma yang bias tidak diizinkan untuk berpartisipasi. Sayangnya, banyak pemerintah daerah tetap terkunci dalam kontrak dengan penyedia perangkat keras dan perangkat yang mengklaim beroperasi di bawah “arsitektur terbuka” namun tidak mau bekerja di bawah platform data terbuka, dan kota-kota ini secara serius membatasi diri mereka dari kemungkinan yang sebenarnya yang dapat disediakan oleh platform berbasis awan.
Sistem prioritas transit berbasis awan mengambil gambaran global dari sistem dan menggunakan pembelajaran mesin yang berbasis data tanpa bias untuk memprediksi waktu optimal untuk memberikan lampu hijau kepada kendaraan transit pada waktu yang tepat. Ini meminimalkan gangguan dengan rute yang saling silang dan secara bersamaan memaksimalkan kemungkinan berkendara yang berkelanjutan. Lebih penting lagi, platform berbasis awan yang netral memastikan kota-kota menggunakan sistem yang terus diperbarui untuk memaksimalkan potensi transit, tanpa bias dari sumber yang tidak diinginkan.
Dengan teknologi ini sekarang tersedia, kota-kota, pengembang, dan pemerintah daerah memiliki teknologi yang mereka butuhkan untuk mempercepat pembangunan jaringan transit cerdas untuk memberikan manfaat kepada semua orang di wilayah tersebut, secara adil dan setara.
Wilayah seperti Kota San José sekarang menggunakan manfaat dari AI untuk memperbaiki pengiriman layanan kepada penduduknya. Ketika Kota semakin menggunakan alat-alat AI, semakin penting untuk memastikan bahwa sistem AI tersebut efektif dan dapat dipercaya. Dengan meninjau algoritma yang digunakan dalam alat-alatnya, Kantor Privasi Digital (DPO) memastikan bahwa teknologi AI yang diperoleh Kota berfungsi dengan akurat, meminimalkan bias, dan dapat diandalkan. Ketika sebuah departemen Kota ingin memperoleh alat AI, DPO mengikuti proses tinjauan tertentu untuk menilai manfaat dan risiko dari setiap sistem AI.
Untuk wilayah ini, kami bangga bergabung dengan perusahaan seperti Google sebagai salah satu dari sedikit vendor AI yang disetujui untuk berpartisipasi dalam penerapan teknologi kota karena algoritma yang tidak bias. Ketika lebih banyak teknologi AI terus dikembangkan, akan sangat penting untuk memastikan bahwa mereka dibangun tanpa algoritma yang tidak bias untuk kepentingan penggunaan layanan munisipal yang adil dan setara.












