Yapay Zekâ
Araştırmacılar, Takviye Öğrenme Sistemlerine Ortak Anlam Kazandırmak İçin Hayvanlara Bakıyor

Imperial College London, Cambridge Üniversitesi ve Google DeepMind gibi enstitülerden AI araştırmacıları, takviye öğrenme sistemlerinin performansını iyileştirmek için nasıl ilham alacaklarına dair hayvanlara bakıyorlar. CellPress Reviews’de yayınlanan ortak bir makalede, “Yapay Zeka ve Hayvanların Ortak Anlamı” adlı araştırmacılar, hayvan bilişinin takviye öğrenme ajanları ve görevlerin ve ortamların mühendisliğini bilgilendirebilecek faydalı referanslar ve değerlendirme yöntemleri sunduğunu savunuyorlar.
AI araştırmacıları ve mühendisleri uzun süredir algoritmaları tasararken biyolojik sinir ağlarından ilham almış, davranış bilimi ve nörobilimin prensiplerini algoritmaların yapısını bilgilendirmek için kullanmışlardır. Ancak AI araştırmacılarının nörobilim/davranış bilimi alanlarından aldığı ipuçlarının çoğu, insanlara dayalıdır ve çocukların ve bebeklerin bilişinin odak noktası olarak hizmet vermektedir. AI araştırmacıları, hayvan modellerinden henüz çok fazla ilham almadılar, ancak hayvan bilişinin takviye öğrenme alanında önemli atılımlara yol açma potansiyeli olan keşfedilmemiş bir kaynak olduğunu düşünüyorlar.
Derin takviye öğrenme sistemleri, bir arzulanan nesneye ulaşmak için bir ödülle güçlendirilen deneme yanılma yoluyla eğitilir. Bu, bir hayvana istenen bir görevi öğretmek için yiyecek olarak kullanılan bir ödülle benzerdir. Biyologlar ve hayvan biliş uzmanları, köpekler, ayılar, sincaplar, domuzlar, kargalar, yunuslar, kediler, fareler, filler ve ahtapotlar dahil çeşitli hayvanların bilişsel yeteneklerini değerlendiren birçok deney yaptı. Hayvan bilişine ilişkin yapılan araştırma çalışması, AI araştırmacılarının sorunları farklı açılardan düşünmesini sağlayabilir. Derin takviye öğrenme daha güçlü ve sofistike hale geldikçe, bu alanda uzmanlaşan AI araştırmacıları, takviye öğrenme ajanlarının bilişsel yeteneklerini test etmenin yeni yollarını arıyorlar. Araştırmada, primatlar ve kuşlarla yapılan deneylere atıfta bulunularak, benzer görevleri gerçekleştirebilecek sistemler tasarlamayı amaçladıklarını, bir AI’ye bir tür “ortak anlam” kazandırmayı amaçladıklarını belirttiler. Makalenin yazarlarına göre, “henüz geliştirilmemiş mimarilere sahip RL ajanlarının, zengin sanal ortamlarla uzun süreli etkileşim yoluyla必要 olanı edinebilecekleri bir yaklaşımı savunuyoruz.”
VentureBeat tarafından bildirildiği üzere, AI araştırmacıları, ortak anlama insanların özel bir özelliği olmadığını ve temel olarak fiziksel dünyanın temel özelliklerinin anlaşımına dayandığını, bir nesnenin bir noktada ve uzayda nasıl bir yer kaplayabileceğini, o nesnenin hareketleri üzerindeki kısıtlamaları ve neden-sonuç ilişkisini takdir etmeyi içerdiğini savunuyorlar. Hayvanlar, laboratuvar çalışmalarında bu özellikleri sergiliyorlar. Örneğin, kargalar nesnelerin kalıcı şeyler olduğunu anlıyorlar, çünkü bir nesne onlara gizlenirse, başka bir nesne tarafından örtülse bile tohumları geri alabiliyorlar.
Bir takviye öğrenme sistemine bu özelliklerini kazandırmak için, araştırmacılar, doğru mimari ile birleştirildiğinde, öğrenilen ilkeleri diğer görevlere aktarmaya able ajanlar oluşturacak görevler yaratmaları gerektiğini savunuyorlar. Araştırmacılar, böyle bir modelin eğitimi, bir ajanın sadece birkaç örneğe maruz kaldıktan sonra bir kavramı anlamasını gerektiren teknikler olan az-shot eğitimini içermelidir. Bu, geleneksel olarak bir RL ajanının deneme yanılma eğitimi için kullanılan yüzlerce veya binlerce denemeden farklıdır.
Araştırmacı ekibi, bazı modern RL ajanlarının birden fazla görevi çözebileceğini, bazılarının öğrenilen ilkelerin temel aktarımını gerektirdiğini, ancak RL ajanlarının “ortak anlam” gibi soyut bir kavramı öğrenip öğrenemeyeceğinin belli olmadığını açıklamaya devam ediyor. Böyle bir kavramı öğrenmeye khảpli bir ajan olsaydı, bir konteynır kavramını anladığından emin olmak için yeterli testlere ihtiyaç duyulacaktı.
DeepMind, özellikle yeni ve farklı yollarla takviye öğrenme ajanlarının geliştirilmesini ve test edilmesini heyecanla karşılıyor. Ekim ayında gerçekleşen Stanford HAI konferansında, DeepMind’in nörobilim araştırma başkanı Matthew Botvinick, makine öğrenimi araştırmacıları ve mühendislerine diğer bilim alanlarında daha fazla işbirliği yapmalarını teşvik etti. Botvinick, “Zeka Üçgeni: Nörobilim, Psikoloji ve Yapay Zeka’yı Birleştirmek” adlı bir konuşmada, AI alanındaki psikologlar ve nörobilimle işbirliğinin önemini vurguladı. konuşması












