Najbolje
5 najboljih LLM studija otvorenog koda (kolovoz 2025.)

Veliki jeziÄni modeli (LLM) pojavili su se kao kamen temeljac danaÅ”nje umjetne inteligencije, pokreÄuÄi inovacije i preoblikujuÄi naÄin na koji komuniciramo s tehnologijom.
Kako ti modeli postaju sve sofisticiraniji, sve je veÄi naglasak na demokratizaciji pristupa njima. Osobito modeli otvorenog koda igraju kljuÄnu ulogu u ovoj demokratizaciji, nudeÄi istraživaÄima, programerima i entuzijastima podjednako priliku da prodre duboko u njihove zamrÅ”enosti, fino ih prilagode za odreÄene zadatke ili Äak nadograÄuju njihove temelje.
U ovom blogu istražit Äemo neke od najboljih LLM-ova otvorenog koda koji prave valove u zajednici umjetne inteligencije. Svaki donosi svoje jedinstvene snage i sposobnosti na stol.
1. Lama 3
Meta's Llama 3 predstavlja monumentalni korak naprijed u njihovoj ponudi velikih jeziÄnih modela otvorenog koda. Kao nasljednik revolucionarne Llame 2 objavljene 2023., Llama 3 uspostavlja novo stanje umjetnosti za otvoreno dostupne modele na ljestvici parametara 8B i 70B. Ovo nije samo inkrementalno ažuriranje; to je transformativni napredak koji Äe omoguÄiti razvojnim programerima da izgrade vrhunske aplikacije prirodnog jezika, a istovremeno potiÄu otvorena istraživanja i inovacije u umjetnoj inteligenciji.
NenadmaÅ”ne performanse Llame 3 zahvaljuju se velikim poboljÅ”anjima u procesu predvježbavanja i arhitekturi. Model je treniran na golemom skupu podataka od preko 15 trilijuna tokena iz javno dostupnih izvora, nevjerojatnih 7 puta viÅ”e podataka od Llame 2. To ukljuÄuje 4 puta viÅ”e podataka koda kako bi se poboljÅ”ale moguÄnosti kodiranja Llame 3, kao i znaÄajnu pokrivenost od 30+ jezika kako bi se postavili temelji za buduÄe viÅ”ejeziÄne verzije. KoriÅ”teno je opsežno filtriranje kako bi se ovi podaci obradili, osiguravajuÄi da Llama 3 uÄi samo iz najkvalitetnijih izvora.
Ali poboljÅ”anja Llame 3 nadilaze samo viÅ”e podataka. Vrhunske optimizacije arhitekture modela i procesa obuke znaÄajno su poboljÅ”ale njegove sposobnosti razmiÅ”ljanja, generiranje koda, praÄenje uputa i raznolikost odgovora. PoboljÅ”ani tokenizator Äini Llamu 3 do 15% tokenom uÄinkovitijom od svog prethodnika. Grupirana pozornost na upit omoguÄuje modelu 8B da zadrži paritet zakljuÄivanja s prethodnim modelom 7B.

Izvor: Meta
Krajnji rezultat je jeziÄni model koji se istiÄe u Å”irokom spektru složenih jeziÄnih zadataka:
- Kreativna generacija: Llama 3 može generirati vrlo koherentan i kreativan tekst u obliku priÄa, scenarija, glazbenih komada, pjesama i viÅ”e.
- Kodiranje i rasuÄivanje: ZahvaljujuÄi poboljÅ”anim podacima za obuku koda, Llama 3 može se pohvaliti nevjerojatno jakim vjeÅ”tinama kodiranja i logiÄkog zakljuÄivanja za rjeÅ”avanje zamrÅ”enih problema.
- Odgovaranje na pitanje: Povezivanjem informacija kroz svoju Å”iroku bazu znanja, Llama 3 može pružiti temeljne odgovore na pitanja o razliÄitim temama.
- Sažimanje: Llama 3 je vjeÅ”t u izradi sažetih, ali sveobuhvatnih sažetaka dugih Älanaka i ÄinjeniÄnog sadržaja.
- Slijedi uputa: Jedan od najdojmljivijih podviga Llame 3 je njegova sposobnost da toÄno slijedi složene upute u viÅ”e koraka za zadatke otvorenog tipa.
BuduÄnost je svijetla za seriju Llama. Meta veÄ razvija verzije Llame 3 s preko 400B parametara koje nisu samo veÄe nego su i viÅ”ejeziÄne i multimodalne. Rano testiranje pokazuje da ovi modeli ultra velikih razmjera daju obeÄavajuÄe rezultate koji su konkurentni najboljim vlasniÄkim sustavima.

Izvor: Meta
2. Cvjetati
Projekt BLOOM predstavljen je 2022. nakon jednogodiÅ”njeg zajedniÄkog napora pod vodstvom AI tvrtke Hugging Face koji ukljuÄuje viÅ”e od 1,000 istraživaÄa volontera iz viÅ”e od 70 zemalja. BLOOM (BigScience Large Open-science Open-access ViÅ”ejeziÄni jeziÄni model) je 176 milijardi parametara veliki jeziÄni model dizajniran za autoregresivno generiranje teksta, sposoban proÅ”iriti dani tekstualni upit za generiranje koherentnih priÄa, scenarija, poezije, Älanaka i viÅ”e.
Ono Å”to izdvaja BLOOM je njegova priroda otvorenog pristupa ā model, izvorni kod i podaci o obuci su besplatno dostupni pod otvorenim licencama, za razliku od veÄine drugih velikih jeziÄnih modela koje su razvile tehnoloÅ”ke tvrtke. Ova otvorenost poziva Å”iru AI zajednicu na stalno ispitivanje, koriÅ”tenje i poboljÅ”anje modela.
BLOOM se može pohvaliti impresivnim viÅ”ejeziÄnim moguÄnostima, buduÄi da je obuÄen na ogromnom skupu podataka od 1.6 TB (korpus ROOTS) koji obuhvaÄa 46 prirodnih jezika i 13 programskih jezika, s viÅ”e od 30% podataka na engleskom. Za mnoge jezike poput Å”panjolskog i arapskog, BLOOM je prvi model te veliÄine.
Model je treniran tijekom 3.5 mjeseca na superraÄunalu Jean Zay u Francuskoj koristeÄi 384 NVIDIA A100 GPU-a, Å”to je omoguÄila raÄunalna potpora francuske vlade ā Å”to je jednako viÅ”e od 5 milijuna sati raÄunanja. Na temelju GPT arhitekture s izmjenama, BLOOM postiže konkurentne performanse na referentnim vrijednostima.
KljuÄne prednosti BLOOM-a:
- Otvoreni pristup: BLOOM-ov model, kod i podaci o obuci su besplatno dostupni, demokratizirajuÄi pristup snažnim jeziÄnim modelima i omoguÄujuÄi otvoreno istraživanje.
- Poznavanje viÅ”e jezika: ObuÄen na podacima koji obuhvaÄaju 46 prirodnih jezika i 13 programskih jezika, BLOOM ima opsežne viÅ”ejeziÄne moguÄnosti.
- Svestrane jeziÄne vjeÅ”tine: Od generiranja teksta do odgovaranja na pitanja, sažimanja, prevoÄenja i generiranja koda, BLOOM se istiÄe u raznim jeziÄnim zadacima.
- Odgovorni razvoj umjetne inteligencije: BLOOM je razvijen s fokusom na odgovorne prakse umjetne inteligencije i objavljen je pod licencom koja zabranjuje sluÄajeve zlonamjerne upotrebe.
- Jednostavna implementacija: Programeri mogu pristupiti BLOOM-u putem biblioteke Hugging Face Transformers i implementirati ga pomoÄu Accelerate.
GledajuÄi unaprijed, BigScience tim planira proÅ”iriti BLOOM na viÅ”e jezika, komprimirati model i koristiti ga kao polaziÅ”te za naprednije arhitekture. BLOOM predstavlja veliki korak u izradi velikih jeziÄnih modela transparentnijim i dostupnijim svima.
3. MPT-7B
Zaklade MosaicML dale su znaÄajan doprinos ovom prostoru uvoÄenjem MPT-7B, njihovog najnovijeg LLM-a otvorenog koda. MPT-7B, akronim za MosaicML Pretrained Transformer, je GPT model transformatora samo s dekoderom. Ovaj se model može pohvaliti s nekoliko poboljÅ”anja, ukljuÄujuÄi implementacije slojeva optimizirane za performanse i arhitektonske promjene koje osiguravaju veÄu stabilnost treninga.
Izuzetna znaÄajka MPT-7B je njegova obuka na opsežnom skupu podataka koji se sastoji od 1 bilijuna tokena teksta i koda. Ova rigorozna obuka provedena je na platformi MosaicML u rasponu od 9.5 dana.
Priroda otvorenog koda MPT-7B pozicionira ga kao vrijedan alat za komercijalne primjene. Ima potencijal znaÄajnog utjecaja na prediktivnu analitiku i procese donoÅ”enja odluka u tvrtkama i organizacijama.
Uz osnovni model, MosaicML Foundations takoÄer objavljuje specijalizirane modele prilagoÄene specifiÄnim zadacima, kao Å”to su MPT-7B-Instruct za praÄenje kratkih uputa, MPT-7B-Chat za generiranje dijaloga i MPT-7B-StoryWriter-65k+ za stvaranje duge priÄe.
Razvojni put MPT-7B bio je sveobuhvatan, s MosaicML timom koji je upravljao svim fazama od pripreme podataka do implementacije u roku od nekoliko tjedana. Podaci su prikupljeni iz razliÄitih repozitorija, a tim je koristio alate kao Å”to su EleutherAI GPT-NeoX i 20B tokenizer kako bi osigurao raznoliku i sveobuhvatnu kombinaciju treninga.
Pregled kljuÄnih znaÄajki MPT-7B:
- Komercijalno licenciranje: MPT-7B je licenciran za komercijalnu upotrebu, Å”to ga Äini vrijednim sredstvom za tvrtke.
- Opsežni podaci o obuci: Model se može pohvaliti obukom na ogromnom skupu podataka od 1 trilijuna tokena.
- Dugo rukovanje unosom: MPT-7B dizajniran je za obradu iznimno dugih ulaza bez kompromisa.
- Brzina i uÄinkovitost: Model je optimiziran za brzu obuku i zakljuÄivanje, osiguravajuÄi pravovremene rezultate.
- Otvoreni kod: MPT-7B dolazi s uÄinkovitim open-source kodom za obuku, promiÄuÄi transparentnost i jednostavnost koriÅ”tenja.
- Komparativna izvrsnost: MPT-7B je pokazao superiornost u odnosu na druge modele otvorenog koda u rasponu 7B-20B, svojom kvalitetom koja odgovara LLaMA-7B.
4. Falcon 2
*Video o Falconu 180B, prethodniku Falcona 2
Falcon 2 je najnovija generacija modela velikog jezika otvorenog koda Instituta za tehnoloÅ”ke inovacije (TII) u Abu Dhabiju, koji se oslanja na uspjeh njihovih ranijih modela Falcon 7B, 40B i 180B objavljenih 2023. Serija Falcon 2 trenutno ukljuÄuje :
- Falcon 2 11B: Model samo uzroÄnog dekodera od 11 milijardi parametara koji nadmaÅ”uje Metin LLaMA 3 8B i ima jednake performanse s Googleovim modelom Gemma 7B na standardnim mjerilima, Å”to je potvrÄeno na ljestvici Hugging Face.
- Falcon 2 11B VLM: Revolucionarna multimodalna verzija Falcona 2 11B s moguÄnostima vizije u jezik, Å”to ga Äini jednim od rijetkih modela otvorenog koda koji nudi ovu funkcionalnost.

Izvor: TII
Modeli Falcon 2 potpuno su otvorenog koda pod dopuÅ”tenom licencom TII Falcon License 2.0, temeljenom na Apacheu 2.0, ali s prihvatljivom politikom koriÅ”tenja za promicanje odgovornog razvoja umjetne inteligencije. To omoguÄuje besplatnu upotrebu modela za istraživanje i veÄinu komercijalnih aplikacija.
Modeli Falcon 2 trenirani su na viÅ”e od 5 trilijuna tokena iz poboljÅ”anog skupa podataka RefinedWeb, koji ukljuÄuje raznoliku mjeÅ”avinu visokokvalitetnih web podataka, knjiga, tehniÄkog pisma, koda i razgovora. Za izdvajanje najboljih podataka koriÅ”tene su opsežne tehnike filtriranja i deduplikacije. Iako je i dalje prvenstveno usmjeren na engleski, dio podataka o obuci pokriva druge jezike poput njemaÄkog, Å”panjolskog, francuskog i talijanskog, postavljajuÄi temelj za buduÄe viÅ”ejeziÄne modele.
Falcon 2 koristi optimiziranu transformatorsku arhitekturu samo za dekoder koja omoguÄuje snažnu izvedbu u manjoj mjeri u usporedbi s drugim otvorenim modelima. TII planira dodatno poveÄati uÄinkovitost koristeÄi tehnike kao Å”to je kombinacija struÄnjaka u nadolazeÄim izdanjima.
Å to se tiÄe sirovih moguÄnosti, Falcon 2 11B istiÄe se u Å”irokom rasponu zadataka prirodnog jezika, ukljuÄujuÄi:
- Generiranje teksta koherentnog dugog sadržaja poput priÄa i Älanaka
- ZnalaÄki odgovori na pitanja povezivanjem informacija o razliÄitim temama
- Visokokvalitetno sažimanje dugih Älanaka ili ÄinjeniÄnog sadržaja
- ToÄno praÄenje uputa nakon finog podeÅ”avanja
- Solidna izvedba na referentnim vrijednostima kodiranja i razmiŔljanja
Falcon 2 11B VLM varijanta dodaje jedinstvenu sposobnost razumijevanja slika i generiranja teksta na temelju vizualnih i jeziÄnih unosa. To omoguÄuje snažne multimodalne sluÄajeve upotrebe kao Å”to su vizualni odgovori na pitanja, opisi slika i razmiÅ”ljanje vizije u jezik.
GledajuÄi unaprijed, TII je podijelio planove za proÅ”irenje serije Falcon 2 s veÄim veliÄinama modela, zadržavajuÄi fokus na uÄinkovitost i otvoreni pristup. Tehnike kao Å”to je mix-of-experts koristit Äe se za poveÄanje moguÄnosti bez drastiÄnog poveÄanja raÄunalnih zahtjeva.
5. ViÄuna-13B
LMSYS ORG je ostavio znaÄajan trag u podruÄju LLM-a otvorenog koda s Vicuna-13B. Ovaj open-source chatbot pomno je treniran finim podeÅ”avanjem LLaMA-e na oko 70 razgovora koje dijele korisnici izvorno s ShareGPT.com koristeÄi javne API-je. Kako bi se osigurala kvaliteta podataka, razgovori su pretvoreni iz HTML-a natrag u markdown i filtrirani kako bi se uklonili neprikladni uzorci ili uzorci niske kvalitete. Dugi razgovori takoÄer su podijeljeni u manje segmente koji odgovaraju maksimalnoj duljini konteksta modela.
Preliminarne ocjene, s GPT-4 kao sucem, pokazale su da je Vicuna-13B postigao viÅ”e od 90% kvalitete u odnosu na renomirane modele kao Å”to su OpenAI ChatGPT i Google Bard. Impresivno, Vicuna-13B nadmaÅ”ila je druge znaÄajne modele kao Å”to su LLaMA i Stanford Alpaca u viÅ”e od 90% sluÄajeva u to vrijeme. Cjelokupni proces obuke za Vicuna-13B izvrÅ”en je po cijeni od približno 300 dolara, koristeÄi tehnike kao Å”to su instance na licu mjesta, gradijent kontrolne toÄke i brza pozornost kako bi se optimizirala upotreba memorije i smanjili troÅ”kovi. Za one koji su zainteresirani za istraživanje njegovih moguÄnosti, kod, težine i online demonstracija javno su dostupni u nekomercijalne svrhe.
Recept za treniranje Vicune temelji se na Stanfordovom modelu Alpaca s nekoliko kljuÄnih poboljÅ”anja:
- ViÅ”estruki razgovori: Gubitak uvježbavanja prilagoÄen je kako bi se uzeli u obzir viÅ”estruki razgovori, raÄunajuÄi gubitak finog podeÅ”avanja iskljuÄivo na izlazu chatbota.
- Optimizacije memorije: Maksimalna duljina konteksta proÅ”irena je s 512 u Alpaci na 2048 u Vicuni, Å”to omoguÄuje razumijevanje duljeg konteksta po cijenu poveÄanih zahtjeva za GPU memorijom. Ovo se rjeÅ”ava putem gradijentnih kontrolnih toÄaka i bljeskalice.
- Smanjenje troÅ”kova: 40x veÄi skup podataka i 4x duljina niza predstavljali su izazove za troÅ”kove obuke, ali koriÅ”tenje upravljanih spot instanci putem SkyPilota znaÄajno je smanjilo troÅ”kove ā sa 82K$ na 140$ za model 7B i sa 135K$ na 300$ za model 13B.
Za opsluživanje Vicune izgraÄen je distribuirani sustav posluživanja koji može rukovati s viÅ”e modela s radnicima koji se mogu fleksibilno prikljuÄiti iz lokalnih klastera ili oblaka. KoriÅ”tenje kontrolera otpornih na pogreÅ”ke i upravljanih spot instanci omoguÄuje ovom sustavu da dobro radi s jeftinijim spot instancama iz viÅ”e oblaka kako bi se smanjili troÅ”kovi posluživanja. Iako je trenutno lagana implementacija, u tijeku je rad na integraciji najnovijih istraživanja kako bi se dodatno unaprijedila infrastruktura posluživanja.
KljuÄne karakteristike Vicuna-13B:
- Priroda otvorenog koda: Vicuna-13B je dostupan za javni pristup, promiÄuÄi transparentnost i ukljuÄenost zajednice.
- Opsežni podaci o obuci: Model je uvježban na 70 razgovora koje dijele korisnici, osiguravajuÄi sveobuhvatno razumijevanje razliÄitih interakcija.
- Isplativa obuka: Tehnike poput upravljanih instanci na licu mjesta, gradijentnih kontrolnih toÄaka i brze pažnje omoguÄile su isplativu obuku od oko 300 USD za model 13B.
- Recept za poboljŔani trening: Vicuna se nadovezuje na recept Alpaca s poboljŔanjima za viŔestruko upravljanje razgovorima, optimizaciju memorije i smanjenje troŔkova.
- Infrastruktura distribuiranog posluživanja: Fleksibilan i isplativ distribuirani sustav posluživanja izgraÄen je kako bi Vicuna postao javno dostupan.
- Dostupnost online demonstracije: Korisnicima je dostupna interaktivna online demonstracija za testiranje i iskustvo moguÄnosti Vicuna-13B.
Važno je napomenuti da se analiza temeljila na preliminarnim neznanstvenim procjenama pomoÄu GPT-4. I dalje je potrebna stroga evaluacija.