Bizimle iletişime geçin

Yapay Zeka

LLM'ler Bizi Zekayı Yeniden Tanımlamaya Nasıl Zorluyor?

mm

Eski bir söz vardır: Ördeğe benziyorsa, ördek gibi yüzüyorsa ve ördek gibi vaklıyorsa, o zaman muhtemelen bir ördektir. Genellikle Indianalı şair James Whitcomb Riley ile ilişkilendirilen bu basit akıl yürütme biçimi, onlarca yıldır yapay zeka hakkındaki düşüncelerimizi şekillendirdi. Davranışın zekayı tanımlamak için yeterli olduğu fikri, Alan Turing'in günümüzde "Taklit Oyunu" olarak adlandırılan ünlü eserine ilham kaynağı oldu. Turing Testi.

Turing, bir insanın bir makineyle mi yoksa başka bir insanla mı konuştuğunu ayırt edememesi durumunda makinenin zeki olarak adlandırılabileceğini öne sürmüştür. Hem ördek testi hem de Turing testi, önemli olanın bir sistemin içinde ne olduğu değil, nasıl davrandığı olduğunu ileri sürmektedir. Bu test, onlarca yıldır yapay zeka alanındaki gelişmelere rehberlik etmiştir. Ancak, büyük dil modelleri (LLM) ortaya çıktıkça durum değişmiştir. Bu sistemler akıcı metinler yazabilir, sohbetler gerçekleştirebilir ve görevleri son derece insani hissettiren yollarla çözebilir. Artık soru, makinelerin insan konuşmasını taklit edip edemeyeceği değil, bu taklidin gerçek zekâ olup olmadığıdır. Bir sistem bizim gibi yazabiliyorsa, bizim gibi akıl yürütebiliyorsa ve hatta bizim gibi yaratabiliyorsa, ona zeki demeli miyiz? Yoksa davranış artık zekâyı ölçmek için yeterli değil mi?

Makine Zekasının Evrimi

Büyük dil modelleri, yapay zeka hakkındaki düşüncelerimizi değiştirdi. Bir zamanlar yalnızca temel metin yanıtları üretmekle sınırlı olan bu sistemler, artık mantık problemlerini çözebiliyor, bilgisayar kodu yazabiliyor, hikaye taslakları hazırlayabiliyor ve hatta senaryo yazımı gibi yaratıcı görevlerde yardımcı olabiliyor. Bu ilerlemedeki önemli gelişmelerden biri, adım adım akıl yürütme yoluyla karmaşık problemleri çözme yetenekleridir; bu yöntem, Düşünce zinciri Muhakeme. Bir problemi daha küçük parçalara bölerek, bir LLM uzmanı karmaşık matematik problemlerini veya mantık bulmacalarını insan problem çözme becerisine benzer bir şekilde çözebilir. Bu yetenek, onların aşağıdaki gibi gelişmiş ölçütlerde insan performansını yakalamalarını, hatta aşmalarını sağlamıştır: MATEMATİK or GSM8KGünümüzde LLM'ler ayrıca çok modlu yeteneklerGörüntülerle çalışabilir, tıbbi taramaları yorumlayabilir, görsel bulmacaları açıklayabilir ve karmaşık diyagramları tanımlayabilirler. Bu gelişmelerle birlikte, artık soru, Hukuk Yüksek Lisansı (LL.M.) programlarının insan davranışlarını taklit edip edemeyeceği değil, bu davranışların gerçek bir anlayışı yansıtıp yansıtmadığıdır.

İnsan Benzeri Düşüncenin İzleri

Hukuk alanındaki yüksek lisans (LLM) programlarının bu başarısı, zekâyı anlama biçimimizi yeniden tanımlıyor. Odak noktası, Turing testinin önerdiği gibi yapay zekânın davranışlarını insanlarla uyumlu hale getirmekten, LLM programlarının bilgiyi işleme biçiminde insan düşüncesini ne kadar yakından yansıttığını (yani gerçek insan benzeri düşünmeyi) araştırmaya kayıyor. Örneğin, yeni bir çalışmaAraştırmacılar, yapay zeka modellerinin iç işleyişini insan beyni aktivitesiyle karşılaştırdı. Çalışma, 70 milyardan fazla parametreye sahip hukuk yüksek lisans programlarının (LL.M.) yalnızca insan düzeyinde doğruluk elde etmekle kalmayıp, aynı zamanda bilgileri insan beyni kalıplarıyla eşleşen şekillerde dahili olarak organize ettiğini de ortaya koydu.

Hem insanlar hem de yapay zekâ modelleri desen tanıma görevleri üzerinde çalıştıklarında, beyin taramaları insan katılımcılarda benzer aktivite desenleri ve yapay zekâ modellerinde de buna karşılık gelen hesaplama desenleri gösterdi. Modeller, soyut kavramları iç katmanlarında, insan beyin dalgası aktivitesiyle doğrudan eşleşen şekillerde kümeledi. Bu durum, ister biyolojik ister yapay sistemlerde olsun, başarılı bir akıl yürütmenin benzer organizasyonel yapılar gerektirebileceğini düşündürmektedir.

Ancak araştırmacılar, bu çalışmanın sınırlılıklarını da dikkate alıyorlar. Çalışmaya nispeten az sayıda insan katılımcı katılmış ve insanlar ile makineler görevlere farklı şekilde yaklaşmış. İnsanlar görsel desenlerle çalışırken, yapay zekâ modelleri metinsel açıklamaları işlemiştir. İnsan ve makine işleme arasındaki ilişki ilgi çekici olsa da, makinelerin kavramları insanlarla aynı şekilde anladığını kanıtlamaz.

Performansta da belirgin farklılıklar mevcut. En iyi yapay zeka modelleri basit örüntülerde insan düzeyinde doğruluğa yaklaşırken, en karmaşık görevlerde insan katılımcılara kıyasla daha çarpıcı performans düşüşleri gösterdiler. Bu durum, organizasyondaki benzerliklere rağmen, insanların ve makinelerin zor soyut kavramları işleme biçimlerinde hala temel farklılıklar olabileceğini gösteriyor.

Şüpheci Bakış Açısı

Bu etkileyici bulgulara rağmen, LLM'lerin çok yetenekli bir taklitçiden başka bir şey olmadığı yönünde güçlü bir argüman var. Bu görüş, filozof John Searle'ün "Çin OdasıDavranışın neden anlayışa eşit olmayabileceğini gösteren düşünce deneyi.

Bu düşünce deneyinde Searle, bir odaya kilitlenmiş ve yalnızca İngilizce konuşabilen bir kişiyi hayal etmemizi istiyor. Kişi Çince semboller alıyor ve bu sembolleri manipüle edip tepkiler üretmek için bir İngilizce kural kitabı kullanıyor. Odanın dışından bakıldığında tepkileri, ana dili Çince olan birinin tepkilerine tıpatıp benziyor. Ancak Searle, kişinin Çince hakkında hiçbir şey anlamadığını, gerçek bir anlayışa sahip olmadan sadece kurallara uyduğunu savunuyor.

Eleştirmenler aynı mantığı LLM'lere de uyguluyor. Bu sistemlerin "stokastik papağanlar"Eğitim verilerindeki istatistiksel kalıplara dayalı yanıtlar üreten, gerçek bir anlayışa dayalı olmayan kişiler. "Stokastik" terimi, olasılıkçı doğalarına atıfta bulunurken, "papağan" terimi, gerçek bir anlayışa sahip olmadan taklitçi davranışlarını vurgular.

LLM'lerin bazı teknik sınırlamaları da bu argümanı desteklemektedir. LLM'ler sıklıkla "halüsinasyonlar"; makul görünen ancak tamamen yanlış, yanıltıcı ve saçma yanıtlar. Bu durum, dahili bir bilgi tabanına danışmak veya gerçeği ve yanlışı anlamak yerine istatistiksel olarak makul kelimeler seçmelerinden kaynaklanır. Bu modeller ayrıca insan benzeri hatalar ve önyargılar da üretir. İnsanların kolayca göz ardı edebileceği alakasız bilgilerle kafaları karışır. Bu önyargıları içeren verilerden öğrendikleri için ırk ve cinsiyet kalıpyargıları sergilerler. Bir diğer belirgin sınırlama ise, modellerin uzun belgelerin başında veya sonundaki bilgileri aşırı vurgularken ortadaki içeriği ihmal ettiği "konum önyargısı"dır. Bu "ortada kaybolmuş” fenomeni, bu sistemlerin bilgiyi, tüm belgeler üzerinde dikkati sürdürebilen insanlardan çok farklı şekilde işlediğini gösteriyor.

Bu sınırlamalar temel bir zorluğun altını çiziyor: Hukuk alanında lisans (LL.M) öğrencileri dil kalıplarını tanıma ve yeniden üretme konusunda başarılı olsalar da, bu onların anlamı veya gerçek dünya bağlamını gerçekten anladıkları anlamına gelmez. Sözdizimini iyi idare etseler de, anlambilim konusunda sınırlı kalıyorlar.

Zeka Nedir?

Tartışma, nihayetinde zekâyı nasıl tanımladığımıza dayanıyor. Eğer zekâ, tutarlı bir dil üretme, sorunları çözme ve yeni durumlara uyum sağlama kapasitesiyse, hukuk yüksek lisansı (LL.M.) zaten bu standardı karşılıyor demektir. Ancak zekâ öz farkındalık, gerçek anlayış veya öznel deneyim gerektiriyorsa, bu sistemler yine de yetersiz kalmaktadır.

Zorluk, anlayış veya bilinç gibi nitelikleri ölçmek için net veya nesnel bir yöntemimizin olmamasıdır. Hem insanlarda hem de makinelerde, bunları davranışlardan çıkarsıyoruz. Ördek testi ve Turing Testi bir zamanlar zarif cevaplar sunuyordu, ancak hukuk yüksek lisansı çağında artık yeterli olmayabilirler. Bu testlerin yetenekleri, zekânın gerçekte ne olduğunu ve geleneksel tanımlarımızın teknolojik gerçeklikle uyumlu olup olmadığını yeniden değerlendirmemizi gerektiriyor.

Alt çizgi

Büyük dil modelleri, yapay zekayı nasıl tanımladığımızı sorguluyor. Mantığı taklit edebilir, fikir üretebilir ve bir zamanlar yalnızca insanlara özgü görülen görevleri yerine getirebilirler. Ancak gerçek insan benzeri düşünmeyi şekillendiren farkındalık ve temelden yoksunlar. Yükselişleri, bizi yalnızca makinelerin zekice davranıp davranmadığını değil, aynı zamanda zekanın gerçekte ne anlama geldiğini de sorgulamaya zorluyor.

Dr. Tehseen Zia, İslamabad COMSATS Üniversitesi'nde Kadrolu Doçenttir ve Avusturya'daki Viyana Teknoloji Üniversitesi'nden yapay zeka alanında doktora derecesine sahiptir. Yapay Zeka, Makine Öğrenimi, Veri Bilimi ve Bilgisayarlı Görme konularında uzmanlaşarak saygın bilimsel dergilerdeki yayınlarıyla önemli katkılarda bulunmuştur. Dr. Tehseen ayrıca Baş Araştırmacı olarak çeşitli endüstriyel projelere liderlik etti ve Yapay Zeka Danışmanı olarak görev yaptı.