Connect with us

Dil İşleme Nasıl Google’ın Açık Kaynak BERT Modeli ile Geliştiriliyor

Yapay Zekâ

Dil İşleme Nasıl Google’ın Açık Kaynak BERT Modeli ile Geliştiriliyor

mm
BERT Search Enhancements

Transformatörlerden Bidirectional Encoder Temsilleri, diğer adıyla BERT; NLP modellerinin verimliliğini ve etkisini dramatik olarak iyileştiren bir eğitim modelidir. Google, BERT modellerini açık kaynak yapınca, tüm endüstrilerdeki NLP modellerinin geliştirilmesine olanak tanır. Makalede, BERT’in NLP’yi bugünün dünyasında en güçlü ve faydalı AI çözümlerinden biri haline nasıl getirdiğini inceleyeceğiz.

BERT Modellerini Aramaya Uygulamak

Google’ın arama motoru, ilgili içeriği sunma yeteneğiyle dünya çapında ünlüdür ve bu doğal dil işleme programını dünya ile açık kaynak olarak paylaşıyor.

Bir sistemin doğal dili okuyup yorumlayabilme yetisi, dünya yeni veri üretmeye devam ettikçe giderek daha önemli hale geliyor. Google’ın kelime anlamları, cümleler ve ilgili içeriği sunma yeteneği olan kütüphanesi AÇIK KAYNAK. Doğal dil işleme ötesinde, BERT modeli büyük miktarda yapılandırılmamış veriden bilgi çıkarmak ve herhangi bir kütüphane için arama arayüzleri oluşturmak için kullanılabilir. Bu makalede, bu teknolojinin enerji sektöründe nasıl uygulanabileceğini göreceğiz.

BERT (Transformatörlerden Bidirectional Encoder Temsilleri), erken NLP modellerinin ortak bir sorununu aşmak için Google AI Language grubu tarafından önerilen bir ön eğitim yaklaşımıdır: yeterli eğitim verisinin eksikliği.

Ayrıntılara girmeden açıklamak gerekirse:

Eğitim Modelleri

Düşük seviyeli (örneğin, adlandırılmış varlık tanıma, konu segmentasyonu) ve yüksek seviyeli (örneğin, duygu analizi, konuşma tanıma) NLP görevleri, görev özgü注ated veri kümelerine ihtiyaç duyar. Bunlar zor bulunabilir ve pahalı olabilir, ancak etiketli veri kümeleri, hem浅 hem de derin sinir ağı modellerinin performansında kritik bir rol oynar. Yüksek kaliteli çıkarım sonuçları, yalnızca milyonlarca veya hatta milyarlarca etiketli eğitim örneği mevcut olduğunda elde edilebilir. Ve bu, birçok NLP görevini ulaşılmaz hale getiren bir sorundu. Ta ki BERT geliştirilene kadar.

BERT, büyük miktarda yapılandırılmamış metin üzerine eğitilmiş genel amaçlı bir dil temsil modelidir. Model büyük miktarda metin içeriğiyle karşılaştığında, öğrenir ve cümledeki kelimeler arasındaki bağlamı ve ilişkileri anlamaya başlar. Önceki öğrenme modellerinin aksine, yalnızca kelime düzeyinde anlamı temsil eden (banka, “banka hesabı” ve “çayır banka”da aynı anlama gelir), BERT aslında bağlamı önemser. Yani, cümledeki bir kelimenin önünde ve arkasındaki kelimelerin önemi. Bağlam, NLP modellerinin performansına doğrudan etki eden bir yetenek olarak ortaya çıktı ve böyle bir modelin tasarlanması, NLP’de yeni bir dönemin başlangıcı olarak biliniyor.

BERT’i büyük miktarda metin içeriğine eğitmek, ön eğitim olarak bilinen bir tekniktir. Bu, modelin ağırlıklarının genel metin anlama görevleri için ayarlandığı ve daha ince modellerin üzerine inşa edilebileceği anlamına gelir. Yazarlar, BERT tabanlı modelleri 11 NLP görevinde kullandıklarında ve devlet-sanat sonuçlarını elde ettiklerinde bu tekniğin üstünlüğünü kanıtladılar.

Ön Eğitimli Modeller

En iyi şey: ön eğitimli BERT modelleri açık kaynak ve halka açık olarak kullanılabilir. Bu, herkesin NLP görevleriyle uğraşabileceği ve BERT üzerine modeller oluşturabileceği anlamına gelir. Hiçbir şey bunu geçemez, değil mi? Oh, bekleyin: bu ayrıca NLP modellerinin artık küçük veri kümeleri üzerinde eğitilebileceği, sıfırdan eğitim gerektirmeyeceği anlamına gelir. Yeni bir dönemin başlangıcı, gerçekten.

Bu ön eğitimli modeller, şirketlerin NLP modellerini dahili veya harici olarak kullanmak için dağıtmak için gereken maliyeti ve zamanı azaltmasına yardımcı olur. İyi eğitilmiş NLP modellerinin etkinliği, sanal takım kültürü oluşturma şirketi teambuilding.com’un CEO’su Michael Alexis tarafından vurgulanmaktadır.

“NLP’nin en büyük avantajı, bilginin ölçeklenebilir ve tutarlı bir şekilde çıkarılması ve işlenmesidir.”Michael Alexis, teambuilding.com CEO’su

Michael, NLP’nin kültürü teşvik eden programlara, örneğin buz kırıcılar veya anketler gibi nasıl uygulanabileceğini açıklıyor. Bir şirket, çalışanların cevaplarını analiz ederek şirket kültürünün nasıl gittiğini tentang değerli bilgiler edinebilir. Bu, yalnızca metni analiz etmekle değil, aynı zamanda metnin açıklamasını analiz ederek gerçekleştirilir. Aslında model, duyguları, hisleri ve genel bakış açısını anlamak için “satırlar arasında okur”. BERT, böyle bir durumda, dili anlama ve daha doğru içgörüler sağlama yeteneği için önceden eğitilmiş modellerle çalışabilir.

Sorguları İyileştirme

Bağlamı modelleme yetisi, BERT’i bir NLP kahramanı haline getirdi ve Google Aramasını kendisi devrimleştirerek değiştirdi. Aşağıda, Google Arama ürün ekibinin sorgu arkasındaki niyeti anlama deneyimleriyle ilgili bir alıntı var.

“BERT’in sorgu arkasındaki niyeti anlama yeteneğini gösteren bazı örnekler. Örneğin, “2019 Brezilya’ya seyahat eden bir ABD vatandaşı vizeye ihtiyaç duyar” sorgusu. Kelime “to” ve sorgudaki diğer kelimelerle ilişkisi, anlamı anlamak için özellikle önemlidir. Brezilya’dan ABD’ye seyahat eden bir kişi hakkında, tersi değil. Önceki algoritmalarımız bu bağlantının önemini anlamaz ve bize ABD vatandaşlarının Brezilya’ya seyahat ettiği关于 sonuçlar döndürürdü. BERT ile Arama, bu nüansı kavrayabilir ve çok yaygın bir kelime olan “to”nun aslında burada önemli olduğunu bilir ve bu sorgu için çok daha ilgili bir sonuç sağlayabilir.”Arama dili anlama, Pandu Nayak, Google Fellow ve Arama Başkan Yardımcısı

BERT Arama örneği

BERT arama örneği, önce ve sonra. Kaynak blog

Son makalemizde NLP ve OCR, emlak sektöründe bazı NLP kullanımlarını gösterdik. Ayrıca, “NLP araçları ideal bilgi çıkarma araçları” olduğunu belirttik. Enerji sektörüne bakalım ve benzer NLP teknolojileri gibi BERT’in yeni uygulama kullanım durumlarını nasıl mümkün kıldığını görelim.

NLP Modelleri Büyük Miktarda Yapılandırılmamış Veriden Bilgi Çıkarmak için Kullanılabilir

NLP modellerinin kullanılabileceği bir yol, yapılandırılmamış metin verisinden kritik bilgileri çıkarmaktır. E-postalar, dergiler, notlar, günlükler ve raporlar, tümü işletmelerin günlük operasyonlarının bir parçasıdır. Bu belgelerden bazıları, operasyonel verimliliği artırmak ve maliyetleri azaltmak için organizasyonel çabalar açısından kritik olabilir.

Rüzgar türbini öngörülü bakımını uygulamaya çalışırken, rüzgar türbini arızası raporları farklı bileşenlerin davranışları hakkında kritik bilgiler içerebilir. Ancak farklı rüzgar türbini üreticilerinin farklı veri toplama normları vardır (yani, bakım raporları farklı formatlarda ve hatta dillerde gelir), ilgili veri öğelerini manuel olarak tanımlamak, tesis sahipleri için hızlı bir şekilde pahalı olabilir. NLP araçları, yapılandırılmamış içerikten ilgili kavramlar, öznitelikler ve olayları çıkarabilir. Metin analitiği daha sonra farklı veri kaynaklarında korelasyonlar ve kalıplar bulmak için kullanılabilir. Bu, tesis sahiplerine, arızaları raporlarında tanımlanan nicel ölçütlere dayanarak öngörülü bakım uygulamak için bir şans verir.

NLP Modelleri Doğal Dil Arama Arayüzleri Sağlayabilir

Benzer şekilde, petrol ve gaz şirketleri için çalışan jeologlar, genellikle geçmiş sondaj operasyonları, kuyu günlükleri ve sismik verilerle ilgili birçok belgeyi gözden geçirmek zorundadır. Bu belgeler de farklı formatlarda gelir ve genellikle birçok fiziksel ve dijital konumda dağılır, bu nedenle doğru yerlerde bilgi aramak için çok zaman harcarlar. Bu durumda bir çözüm, NLP güçlendirilmiş bir arama arayüzü olabilir, bu da kullanıcıların doğal dilde veri aramasına olanak tanır. Ardından, bir NLP modeli, yüzlerce belge boyunca verileri korelayabilir ve sorguya cevaplar döndürebilir. Çalışanlar, çıktıyı kendi uzman bilgilerine göre doğrulayabilir ve geri bildirim, modeli daha da geliştirebilir.

Ancak, bu tür modelleri dağıtmak için teknik考虑asyonlar vardır. Bir yön, endüstriye özgü jargonun geleneksel öğrenme modellerini karıştırabileceğidir, bu modeller uygun anlamsal anlama sahip değildir. İkincisi, modellerin performansı, eğitim veri kümesinin boyutu tarafından etkilenebilir. İşte bu noktada ön eğitimli modeller gibi BERT yararlı olabilir. Bağlamsal temsiller, uygun kelime anlamını modelleyebilir ve endüstriye özgü terimlerden kaynaklanan herhangi bir karışıklığı ortadan kaldırabilir. Ön eğitimli modelleri kullanarak, ağ daha küçük veri kümeleri üzerinde eğitilebilir. Bu, sıfırdan eğitim için gerekli olan zamanı, enerjiyi ve kaynakları tasarruf sağlar.

Kendi İşletmeniz?

NLP görevlerinin, maliyetleri azaltmanıza ve operasyonel verimliliği artırmanıza yardımcı olabileceğini düşünebiliyor musunuz?Blue Orange Digital veri bilimi ekibi, BERT’i sizin için de ayarlamaya hazır!

Josh Miramant, Blue Orange Digital'in CEO'su ve kurucusudur, New York Şehir ve Washington DC'de ofisleri bulunan üst düzey veri bilimi ve makine öğrenimi ajanslarından biridir. Miramant, popüler bir konuşmacı, futurist ve girişim şirketleri ve startup'lar için stratejik iş ve teknoloji danışmanıdır. Kuruluşlara işlerini optimize etme ve otomatikleştirme, veri odaklı analitik teknikleri uygulama ve yapay zeka, büyük veri ve Nesnelerin İnterneti gibi yeni teknolojilerin etkilerini anlamalarına yardımcı oluyor.