Povežite se s nama

Umjetna inteligencija

Qwen2 – Alibabin najnoviji višejezični jezični model izaziva SOTA-u poput Llame 3

mm
Ažurirano on
evolucija od Qwen1.5 do Qwen2

Nakon mjeseci iščekivanja, Alibabin Qwen tim konačno je predstavio Qwen2 – sljedeća evolucija njihove moćne serije jezičnih modela. Qwen2 predstavlja značajan korak naprijed, hvaleći se vrhunskim poboljšanjima koja bi ga potencijalno mogla pozicionirati kao najbolju alternativu Metinom proslavljenom Lama 3 model. U ovom detaljnom tehničkom poniranju, istražit ćemo ključne značajke, referentne vrijednosti performansi i inovativne tehnike koje čine Qwen2 nevjerojatnim konkurentom u području velikih jezičnih modela (LLM).

Proširivanje: Predstavljanje Qwen2 modela

U srži Qwen2 nalazi se raznolika linija modela skrojenih za ispunjavanje različitih računalnih zahtjeva. Serija obuhvaća pet različitih veličina modela: Qwen2-0.5B, Qwen2-1.5B, Qwen2-7B, Qwen2-57B-A14B i vodeći Qwen2-72B. Ovaj raspon opcija služi širokom spektru korisnika, od onih sa skromnim hardverskim resursima do onih s pristupom najsuvremenijoj računalnoj infrastrukturi.

Jedna od Qwen2 značajki koje se ističu su njegove višejezične mogućnosti. Dok je prethodni Qwen1.5 model koji je izvrsno govorio engleski i kineski, Qwen2 je obučen na podacima koji obuhvaćaju impresivnih 27 dodatnih jezika. Ovaj višejezični režim obuke uključuje jezike iz različitih regija kao što su zapadna Europa, istočna i srednja Europa, Bliski istok, istočna Azija i južna Azija.

Tablica s popisom jezika koje podržavaju Qwen2 modeli, kategorizirani po regijama

Jezici koje podržavaju Qwen2 modeli, kategorizirani prema geografskim regijama

Proširujući svoj lingvistički repertoar, Qwen2 pokazuje iznimnu sposobnost razumijevanja i generiranja sadržaja na širokom rasponu jezika, što ga čini neprocjenjivim alatom za globalne aplikacije i međukulturnu komunikaciju.

 

Tablica koja uspoređuje Qwen2 modele prema parametrima, parametrima bez ugrađivanja, GQA-u, vezanom ugrađivanju i duljini konteksta

Specifikacije Qwen2 modela uključujući parametre, GQA i duljinu konteksta.

Rješavanje promjene koda: višejezični izazov

U višejezičnim kontekstima, fenomen promjene koda – praksa izmjenjivanja različitih jezika unutar jednog razgovora ili iskaza – uobičajena je pojava. Qwen2 je pažljivo obučen za rukovanje scenarijima promjene koda, značajno smanjujući povezane probleme i osiguravajući glatke prijelaze između jezika.

Procjene koje koriste upite koji obično induciraju promjenu koda potvrdile su značajno poboljšanje Qwen2 u ovoj domeni, što je dokaz Alibabine predanosti isporuci istinski višejezičnog jezičnog modela.

Izvrsni u kodiranju i matematici

Qwen2 ima izvanredne mogućnosti u domenama kodiranja i matematike, područjima koja su tradicionalno predstavljala izazov za jezične modele. Iskorištavanjem opsežnih visokokvalitetnih skupova podataka i optimiziranih metodologija obuke, Qwen2-72B-Instruct, varijanta vodećeg modela prilagođena uputama, pokazuje izvanredne performanse u rješavanju matematičkih problema i zadataka kodiranja u različitim programskim jezicima.

Proširivanje razumijevanja konteksta

Jedna od najimpresivnijih značajki Qwen2 je njegova sposobnost razumijevanja i obrade proširenih sekvenci konteksta. Dok se većina jezičnih modela bori s dugim tekstom, modeli Qwen2-7B-Instruct i Qwen2-72B-Instruct projektirani su za rukovanje duljinama konteksta do 128K tokena.

Ova izvanredna mogućnost mijenja pravila igre za aplikacije koje zahtijevaju dubinsko razumijevanje dugih dokumenata, kao što su pravni ugovori, istraživački radovi ili gusti tehnički priručnici. Učinkovitom obradom proširenih konteksta, Qwen2 može pružiti preciznije i sveobuhvatnije odgovore, otključavajući nove granice u obradi prirodnog jezika.

Grafikon koji prikazuje točnost dohvaćanja činjenica Qwen2 modela u različitim duljinama konteksta i dubinama dokumenata

Preciznost Qwen2 modela u dohvaćanju činjenica iz dokumenata u različitim duljinama konteksta i dubinama dokumenata.

Ovaj grafikon pokazuje sposobnost Qwen2 modela da dohvate činjenice iz dokumenata različitih duljina i dubina konteksta.

Arhitektonske inovacije: pozornost na grupne upite i optimizirane ugradnje

Ispod haube Qwen2 uključuje nekoliko arhitektonskih inovacija koje pridonose njegovim iznimnim performansama. Jedna takva inovacija je usvajanje Group Query Attention (GQA) u svim veličinama modela. GQA nudi veće brzine zaključivanja i smanjenu upotrebu memorije, čineći Qwen2 učinkovitijim i dostupnijim za širi raspon hardverskih konfiguracija.

Uz to, Alibaba je optimizirala ugradnje za manje modele u seriji Qwen2. Povezivanjem ugradnji, tim je uspio smanjiti memorijski otisak ovih modela, omogućujući njihovu implementaciju na manje moćnom hardveru uz zadržavanje performansi visoke kvalitete.

Benchmarking Qwen2: nadmašuje vrhunske modele

Qwen2 ima izvanredne performanse u nizu različitih mjerila. Usporedne procjene otkrivaju da Qwen2-72B, najveći model u seriji, nadmašuje vodeće konkurente kao što je Llama-3-70B u kritičnim područjima, uključujući razumijevanje prirodnog jezika, stjecanje znanja, vještinu kodiranja, matematičke vještine i višejezične sposobnosti.

Grafikoni koji uspoređuju Qwen2-72B-Instruct i Llama3-70B-Instruct u kodiranju na nekoliko programskih jezika i matematici na različitim ispitima

Qwen2-72B-Instruct naspram Llama3-70B-Instruct u kodiranju i matematičkoj izvedbi

Unatoč tome što ima manje parametara od svog prethodnika, Qwen1.5-110B, Qwen2-72B pokazuje vrhunske performanse, što je dokaz učinkovitosti Alibabinih pažljivo odabranih skupova podataka i optimiziranih metodologija obuke.

Sigurnost i odgovornost: Usklađivanje s ljudskim vrijednostima

Qwen2-72B-Instruct je rigorozno procijenjen za njegovu sposobnost obrade potencijalno štetnih upita povezanih s ilegalnim aktivnostima, prijevarama, pornografijom i kršenjem privatnosti. Rezultati su ohrabrujući: Qwen2-72B-Instruct radi usporedivo s visoko cijenjenim modelom GPT-4 u smislu sigurnosti, pokazujući znatno niže udjele štetnih reakcija u usporedbi s drugim velikim modelima poput Mistral-8x22B.

Ovo postignuće naglašava Alibabinu predanost razvoju AI sustava koji su u skladu s ljudskim vrijednostima, osiguravajući da Qwen2 nije samo moćan, već i pouzdan i odgovoran.

Licenciranje i predanost otvorenom kodu

U potezu koji dodatno pojačava utjecaj Qwen2, Alibaba je usvojila pristup otvorenog koda licenciranju. Dok Qwen2-72B i njegovi modeli usklađeni s uputama zadržavaju izvornu Qianwen licencu, preostali modeli – Qwen2-0.5B, Qwen2-1.5B, Qwen2-7B i Qwen2-57B-A14B – licencirani su pod dopuštenom licencom Apache 2.0 .

Očekuje se da će ova poboljšana otvorenost ubrzati primjenu i komercijalnu upotrebu Qwen2 modela diljem svijeta, potičući suradnju i inovacije unutar globalne AI zajednice.

Korištenje i implementacija

Korištenje Qwen2 modela je jednostavno, zahvaljujući njihovoj integraciji s popularnim okvirima kao što su Zagrljeno lice. Evo primjera korištenja Qwen2-7B-Chat-beta za zaključivanje:

from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model onto
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen1.5-7B-Chat", device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen1.5-7B-Chat")
prompt = "Give me a short introduction to large language models."
messages = [{"role": "user", "content": prompt}]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
model_inputs = tokenizer([text], return_tensors="pt").to(device)
generated_ids = model.generate(model_inputs.input_ids, max_new_tokens=512, do_sample=True)
generated_ids = [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)

Ovaj isječak koda pokazuje kako postaviti i generirati tekst pomoću modela Qwen2-7B-Chat. Integracija sa Zagrljeno lice čini ga dostupnim i lakim za eksperimentiranje.

Qwen2 protiv Llame 3: Komparativna analiza

Dok Qwen2 i Metina lama 3 su oba sjajni jezični modeli, oni pokazuju različite prednosti i kompromise.

Tablica usporedbe performansi Qwen2-72B, Llama3-70B, Mixtral-8x22B i Qwen1.5-110B na više referentnih vrijednosti

Usporedna tablica performansi Qwen2-72B, Llama3-70B, Mixtral-8x22B i Qwen1.5-110B u različitim mjerilima uključujući MMLU, MMLU-Pro, GPQA i druge.

Evo usporedne analize koja će vam pomoći da shvatite njihove ključne razlike:

Višejezične mogućnosti: Qwen2 ima jasnu prednost u pogledu višejezične podrške. Njegova obuka na podacima koji obuhvaćaju 27 dodatnih jezika, osim engleskog i kineskog, omogućuje Qwen2 da se ističe u međukulturalnoj komunikaciji i višejezičnim scenarijima. Nasuprot tome, višejezične mogućnosti Llame 3 manje su izražene, što potencijalno ograničava njegovu učinkovitost u različitim jezičnim kontekstima.

Poznavanje kodiranja i matematike: I Qwen2 i Lama 3 pokazati impresivne sposobnosti kodiranja i matematike. Međutim, čini se da Qwen2-72B-Instruct ima malu prednost zahvaljujući svojoj rigoroznoj obuci na opsežnim skupovima podataka visoke kvalitete u tim domenama. Alibabin fokus na poboljšanje mogućnosti Qwen2 u tim područjima mogao bi mu dati prednost za specijalizirane aplikacije koje uključuju kodiranje ili rješavanje matematičkih problema.

Dugo razumijevanje konteksta: Qwen2-7B-Instruct i Qwen2-72B-Instruct modeli mogu se pohvaliti impresivnom sposobnošću rukovanja duljinama konteksta do 128K tokena. Ova značajka je osobito vrijedna za aplikacije koje zahtijevaju dubinsko razumijevanje dugih dokumenata ili gustog tehničkog materijala. Llama 3, iako može obraditi duge sekvence, možda neće odgovarati performansama Qwen2 u ovom specifičnom području.

Dok i Qwen2 i Llama 3 pokazuju vrhunske performanse, Qwen2 raznolika linija modela, u rasponu od 0.5B do 72B parametara, nudi veću fleksibilnost i skalabilnost. Ova svestranost omogućuje korisnicima odabir veličine modela koja najbolje odgovara njihovim računalnim resursima i zahtjevima izvedbe. Osim toga, stalni napori Alibabe da proširi Qwen2 na veće modele mogli bi dodatno poboljšati njegove mogućnosti, potencijalno nadmašivši Llamu 3 u budućnosti.

Implementacija i integracija: Pojednostavljenje usvajanja Qwen2

Kako bi olakšao široko prihvaćanje i integraciju Qwen2, Alibaba je poduzela proaktivne korake kako bi osigurala besprijekornu implementaciju na različitim platformama i okvirima. Qwen tim blisko je surađivao s brojnim projektima i organizacijama trećih strana, omogućujući Qwen2 da se koristi u kombinaciji sa širokim rasponom alata i okvira.

Fino podešavanje i kvantizacija: Projekti trećih strana kao što su Axolotl, Llama-Factory, Firefly, Swift i XTuner optimizirani su za podršku finog podešavanja Qwen2 modela, omogućujući korisnicima da modele prilagode svojim specifičnim zadacima i skupovima podataka. Osim toga, alati za kvantizaciju poput AutoGPTQ, AutoAWQ, i Neural Compressor prilagođeni su za rad s Qwen2, olakšavajući učinkovitu implementaciju na uređajima s ograničenim resursima.

Uvođenje i zaključivanje: Qwen2 modeli mogu se implementirati i posluživati ​​pomoću različitih okvira, uključujući vLLM, SGL, SkyPilot, TensorRT-LLM, OpenVinoi TGI. Ovi okviri nude optimizirane cjevovode zaključivanja, omogućujući učinkovitu i skalabilnu implementaciju Qwen2 u proizvodnim okruženjima.

API platforme i lokalno izvršenje: Za programere koji žele integrirati Qwen2 u svoje aplikacije, API platforme kao što su Together, Fireworks i OpenRouter pružaju praktičan pristup mogućnostima modela. Alternativno, lokalno izvršenje je podržano kroz okvire kao što su MLX, Llama.cpp, Ollama, i LM Studio, omogućujući korisnicima pokretanje Qwen2 na njihovim lokalnim računalima uz zadržavanje kontrole nad privatnošću i sigurnošću podataka.

Agent i RAG okviri: Podrška Qwen2 za korištenje alata i sposobnosti agenta je ojačana okvirima kao što su CallIndex, CrewAI i OpenDevin. Ovi okviri omogućuju stvaranje specijaliziranih AI agenata i integraciju Qwen2 u generiranje proširenog dohvaćanja (RAG) cjevovode, proširujući raspon primjena i slučajeva uporabe.

Pogled u budućnost: budući razvoj i prilike

Alibabina vizija za Qwen2 proteže se daleko dalje od trenutnog izdanja. Tim aktivno obučava veće modele za istraživanje granica skaliranja modela, nadopunjenih stalnim naporima za skaliranje podataka. Nadalje, u tijeku su planovi za proširenje Qwen2 na područje multimodalne umjetne inteligencije, omogućujući integraciju sposobnosti razumijevanja vizije i zvuka.

Kako ekosustav umjetne inteligencije otvorenog koda nastavlja napredovati, Qwen2 će igrati ključnu ulogu, služeći kao snažan resurs za istraživače, programere i organizacije koje žele unaprijediti stanje tehnike u obradi prirodnog jezika i umjetnoj inteligenciji.

Proteklih pet godina proveo sam uranjajući u fascinantan svijet strojnog i dubokog učenja. Moja strast i stručnost naveli su me da pridonesem više od 50 različitih projekata softverskog inženjeringa, s posebnim fokusom na AI/ML. Moja stalna znatiželja također me povukla prema obradi prirodnog jezika, polju koje jedva čekam dalje istraživati.