Connect with us

Yapay Zekâ

AI Eğitiminde Araştırma Para Kazandırma: Riskler ve En İyi Uygulamalar

mm

Generatif AI talebi arttıkça, bu sistemleri eğitmek için yüksek kaliteli verilere olan açlık da artıyor. Bilimsel yayıncılar, büyük dil modelleri (LLM’ler) için eğitim verisi sağlamak amacıyla araştırma içeriklerini para kazandırmağa başladılar. Bu gelişme, yayıncılar için yeni bir gelir akışı yaratırken ve bilimsel keşifler için generatif AI’yi güçlendirirken, kullanılan araştırmanın bütünlüğü ve güvenilirliği hakkında kritik soruları gündeme getiriyor. Bu, kritik bir soru ortaya koyuyor: Satılan veri kümeleri güvenilir mi ve bu uygulama bilimsel topluluk ve generatif AI modelleri için hangi sonuçları doğuruyor?

Para Kazandırılan Araştırma Anlaşmalarının Yükselişi

Wiley, Taylor & Francis ve diğer büyük akademik yayıncılar, bildirdiği üzere, generatif AI modelleri geliştiren teknoloji şirketlerine içerik lisanslama yoluyla önemli gelirler elde etti. Örneğin, Wiley bu yıl alone yalnızca bu anlaşmalardan 40 milyon doların üzerinde kazanç elde etti. Bu anlaşmalar, AI şirketlerinin çeşitli ve geniş bilimsel veri kümelerine erişimini sağlıyor ve böylece AI araçlarının kalitesini iyileştiriyor.
Yayıncıların teklifi basittir: Lisanslama, daha iyi AI modelleri sağlar, topluma fayda sağlar ve yazarlara telif ücretleri öder. Bu iş modeli hem teknoloji şirketlerine hem de yayıncılara fayda sağlar. Ancak, bilimsel bilginin para kazandırılması eğilimi, özellikle şüpheli araştırma AI eğitim veri kümelerine sızdığında riskler içerir.

Sahte Araştırma gölgesi

Bilimsel topluluk, sahte araştırma sorunlarıyla yabancı değildir. Çalışmalar, birçok yayınlanmış bulgunun hatalı, önyargılı veya sadece güvensiz olduğunu gösteriyor. 2020 yılında yapılan bir anket, araştırmacıların yaklaşık yarısının seçici veri raporlaması veya kötü tasarlanmış alan çalışmaları gibi sorunlar yaşadığını gösterdi. 2023 yılında, 10.000’den fazla makale, sahte veya güvensiz sonuçlar nedeniyle geri çekildi ve bu sayı her yıl artmaya devam ediyor. Uzmanlar, bu sayının yalnızca bir buzdağının görünenden daha büyük olduğunu düşünüyor ve sayısız şüpheli çalışma bilimsel veritabanlarında dolaşıyor.
Krize principalmente “paper mills” adı verilen, genellikle Çin, Hindistan ve Doğu Avrupa gibi bölgelerdeki akademik baskılara yanıt olarak sahte çalışmalar üreten gölge organizasyonlar neden oldu. Tahminlere göre, dünya çapındaki dergi gönderilerinin yaklaşık %2’si paper mills tarafından geliyor. Bu sahte makaleler gerçek araştırmaya benzese de, uydurma verilerle ve temelsiz sonuçlarla dolu. Rahatsız edici bir şekilde, bu tür makaleler hakemlik sürecinden geçiyor ve saygın dergilerde yer alıyor, bilimsel içgörülerin güvenilirliğini tehlikeye atıyor. Örneğin, COVID-19 salgını sırasında, hatalı çalışmalar ivermektinin etkinliğini yanlış bir şekilde önerdi, kamu sağlığı tepkilerini geciktirdi ve karışıklık yarattı. Bu örnek, güvensiz araştırmanın yayılmasının potansiyel zararını vurguluyor, burada hatalı sonuçlar önemli bir etkiye sahip olabilir.

AI Eğitimine ve Güvene Etkileri

LLM’lerin sahte veya düşük kaliteli araştırma içeren veritabanlarına dayanarak eğitilmesi durumunda sonuçlar derin. AI modelleri, çıktılarını üretmek için eğitim verisindeki kalıpları ve ilişkileri kullanır. Giriş verisi bozulmuşsa, çıktılar da yanlışlıkları devam ettirebilir veya hatta büyütebilir. Bu risk, özellikle tıpta, yanlış AI tarafından üretilen içgörülerin yaşamı tehdit edici sonuçlara yol açabileceği alanlarda özellikle yüksektir.
Ayrıca, bu sorun akademide ve AI’de kamu güvenini tehdit ediyor. Yayıncılar anlaşmalar yapmaya devam ettikçe, satılan verilerin kalitesi hakkında endişeleri ele almak zorundalar. Buna yanıt vermemek, bilimsel topluluğun itibarını zedeleyebilir ve AI’nin potansiyel toplumsal faydalarını zayıflatabilir.

AI için Güvenilir Veri Sağlama

Hatalı araştırmaların AI eğitimini bozmaktan kaynaklanan riskleri azaltmak, yayıncılar, AI şirketleri, geliştiriciler, araştırmacılar ve daha geniş topluluğun ortak bir çaba gerektirir. Yayıncılar, eğitim veri kümelerine girmeden önce güvensiz çalışmaları yakalayabilmek için hakemlik sürecini iyileştirmelidir. Hakemlere daha iyi ödüller sunmak ve daha yüksek standartlar koymak yardımcı olabilir. Açık bir hakemlik süreci burada kritiktir. Şeffaflık ve hesap verebilirlik getirir, araştırma güvenini inşa etmeye yardımcı olur.
AI şirketleri, AI eğitiminde araştırma kaynağı alırken daha dikkatli olmalıdır. İyi bir üne sahip, yüksek kaliteli, iyi gözden geçirilmiş araştırmalara sahip yayıncılar ve dergilerle çalışmak önemlidir. Bu bağlamda, bir yayıncının geçmişine yakından bakmak önemlidir – örneğin, kaç makaleyi geri çektiği veya hakemlik sürecinin ne kadar açık olduğu. Seçici olmak, verilerin güvenilirliğini artırır ve AI ve araştırma toplulukları arasında güven oluşturur.

AI geliştiricileri, kullandıkları verilerin sorumluluğunu üstlenmelidir. Bu, uzmanlarla çalışmayı, araştırmaları dikkatlice incelemeyi ve birden fazla çalışmanın sonuçlarını karşılaştırmayı içerir. AI araçları da şüpheli verileri tanımlamak ve şüpheli araştırmaların daha da yayılma riskini azaltmak için tasarlanabilir.

Şeffaflık da önemli bir faktördür. Yayıncılar ve AI şirketleri, nasıl araştırma kullanıldığını ve telif ücretlerinin nereye gittiğini açık bir şekilde paylaşmalıdır. Generative AI Lisans Anlaşması İzleyici gibi araçlar umut vaat ediyor, ancak daha geniş bir benimsemeye ihtiyaç duyuyor. Araştırmacılar, çalışmalarının nasıl kullanıldığı konusunda söz sahibi olmalıdır. Opt-in politikaları, Cambridge University Press gibi olanlar, yazarlara katkıları üzerinde kontrol sağlar. Bu, güven oluşturur, adillik sağlar ve yazarların bu sürece aktif olarak katılımlarını sağlar.

Ayrıca, AI gelişiminde kapsayıcılık ve adillik sağlamak için yüksek kaliteli araştırmaya açık erişim teşvik edilmelidir. Hükümetler, kar amacı gütmeyen kuruluşlar ve endüstri oyuncuları, kritik eğitim veri kümelerine bağımlılığı azaltmak için açık erişim girişimlerini finanse edebilir. Bunun üzerine, AI endüstrisinin etik veri kaynakları için net kurallara ihtiyacı vardır. Güvenilir, iyi gözden geçirilmiş araştırmaya odaklanarak, daha iyi AI araçları inşa edebiliriz, bilimsel bütünlüğü koruyabilir ve kamu güvenini koruyabilir.

Alt Çizgi

AI eğitiminde araştırma para kazandırma hem fırsatlar hem de zorluklar sunar. Bilimsel içeriği lisanslamanın AI modellerinin geliştirilmesine izin vermesi, aynı zamanda kullanılan verilerin bütünlüğü ve güvenilirliği hakkında endişeler yaratır. “Paper mills” dahil hatalı araştırma, AI eğitim veri kümelerini bozabilir, kamu güvenini ve AI’nin potansiyel faydalarını tehdit edebilir. Güvenilir verilere dayanan AI modelleri inşa etmek için, yayıncılar, AI şirketleri ve geliştiriciler, hakemlik süreçlerini iyileştirmek, şeffaflığı artırmak ve yüksek kaliteli, iyi gözden geçirilmiş araştırmaya öncelik vermek için birlikte çalışmalıdır. Bunu yaparak, AI’nin geleceğini güvence altına alabilir ve bilimsel topluluğun bütünlüğünü koruyabiliriz.

Dr. Tehseen Zia, COMSATS Üniversitesi Islamabad'da görev yapan bir Öğretim Üyesi olup, Viyana Teknoloji Üniversitesi'nden (Avusturya) Yapay Zeka alanında doktora sahiptir. Yapay Zeka, Makine Öğrenimi, Veri Bilimi ve Bilgisayarlı Görü alanında uzmanlaşmış olan Dr. Tehseen, saygın bilimsel dergilerde yayımlanmış önemli katkılarıyla dikkat çekmiştir. Dr. Tehseen ayrıca çeşitli endüstriyel projelerin Baş Araştırma Görevlisi olarak görev yapmış ve Yapay Zeka Danışmanı olarak hizmet vermiştir.