tynkä Qwen2 - Alibaban uusin monikielinen kielimalli haastaa SOTAn kuten Llama 3 - Unite.AI
Liity verkostomme!

Tekoäly

Qwen2 – Alibaban uusin monikielinen kielimalli haastaa SOTAn kuten Llama 3

mm
Päivitetty on
kehitys Qwen1.5:stä Qwen2:ksi

Kuukausien odotuksen jälkeen Alibaban Qwen-tiimi on vihdoin julkistanut Qwen2:n – heidän tehokkaan kielimallisarjansa seuraava kehitys. Qwen2 edustaa merkittävää harppausta eteenpäin ja tarjoaa huippuluokan edistysaskeleita, jotka voisivat mahdollisesti asettaa sen parhaaksi vaihtoehdoksi Metan juhlimalle. Laama 3 malli. Tässä teknisessä syvässä sukelluksessa tutkimme tärkeimpiä ominaisuuksia, suorituskyvyn vertailuarvoja ja innovatiivisia tekniikoita, jotka tekevät Qwen2:sta valtavan haastajan suurten kielimallien (LLM) valtakunnassa.

Skaalaus: Esittelyssä Qwen2-mallisto

Ytimessä Qwen2 tarjoaa monipuolisen valikoiman malleja, jotka on räätälöity vastaamaan vaihteleviin laskentavaatimuksiin. Sarjaan kuuluu viisi eri mallikokoa: Qwen2-0.5B, Qwen2-1.5B, Qwen2-7B, Qwen2-57B-A14B ja lippulaiva Qwen2-72B. Tämä valikoima vaihtoehtoja palvelee laajaa käyttäjien kirjoa vaatimattomista laitteistoresursseista käyttäjiin, joilla on pääsy huippuluokan laskentainfrastruktuuriin.

Yksi Qwen2:n erottuvista ominaisuuksista on sen monikieliset ominaisuudet. Vaikka edellinen Qwen1.5 englannin ja kiinan kielellä loistava malli Qwen2 on koulutettu dataan, joka kattaa vaikuttavat 27 muuta kieltä. Tämä monikielinen koulutusohjelma sisältää kieliä eri alueilta, kuten Länsi-Euroopasta, Itä- ja Keski-Euroopasta, Lähi-idästä, Itä-Aasiasta ja Etelä-Aasiasta.

Taulukko Qwen2-mallien tukemista kielistä alueiden mukaan luokiteltuna

Qwen2-mallien tukemat kielet luokiteltuna maantieteellisten alueiden mukaan

Laajentamalla kielellistä ohjelmistoaan Qwen2 osoittaa poikkeuksellisen kyvyn ymmärtää ja tuottaa sisältöä useilla eri kielillä, mikä tekee siitä korvaamattoman työkalun globaaleihin sovelluksiin ja kulttuurien väliseen viestintään.

 

Taulukko, jossa verrataan Qwen2-malleja parametrien, upottamattomien parametrien, GQA:n, solmitun upotuksen ja kontekstin pituuden mukaan

Qwen2-mallien tekniset tiedot, mukaan lukien parametrit, GQA ja kontekstin pituus.

Koodinvaihdon käsitteleminen: monikielinen haaste

Monikielisissä yhteyksissä koodinvaihdon ilmiö – eri kielten vuorottelu yhden keskustelun tai lausunnon aikana – on yleinen ilmiö. Qwen2 on huolellisesti koulutettu käsittelemään koodinvaihtoskenaarioita, mikä vähentää merkittävästi niihin liittyviä ongelmia ja varmistaa sujuvan siirtymisen kielten välillä.

Arvioinnit, joissa käytetään kehotteita, jotka tyypillisesti aiheuttavat koodinvaihtoa, ovat vahvistaneet Qwen2:n merkittävän parannuksen tällä alalla, mikä on osoitus Alibaban sitoutumisesta aidosti monikielisen kielimallin toimittamiseen.

Erinomainen koodauksessa ja matematiikassa

Qwen2:lla on merkittäviä kykyjä koodauksen ja matematiikan aloilla, jotka ovat perinteisesti asettaneet haasteita kielimalleille. Hyödyntämällä laajoja korkealaatuisia tietojoukkoja ja optimoituja koulutusmenetelmiä, Qwen2-72B-Instruct, lippulaivamallin ohjeistettu muunnos, osoittaa erinomaisen suorituskyvyn matemaattisten ongelmien ratkaisemisessa ja koodaustehtävissä eri ohjelmointikielillä.

Kontekstin ymmärtämisen laajentaminen

Yksi Qwen2:n vaikuttavimmista ominaisuuksista on sen kyky ymmärtää ja käsitellä laajennettuja kontekstisekvenssejä. Vaikka useimmat kielimallit kamppailevat pitkän tekstin kanssa, Qwen2-7B-Instruct- ja Qwen2-72B-Instruct-mallit on suunniteltu käsittelemään jopa 128 XNUMX tokenin kontekstin pituutta.

Tämä merkittävä ominaisuus on pelin muuttaja sovelluksissa, jotka vaativat syvällistä ymmärrystä pitkistä asiakirjoista, kuten juridisista sopimuksista, tutkimuspapereista tai tiheistä teknisistä käsikirjoista. Käsittelemällä tehokkaasti laajennettuja konteksteja, Qwen2 voi tarjota tarkempia ja kattavampia vastauksia, mikä avaa uusia rajoja luonnollisen kielen käsittelyyn.

Kaavio, joka näyttää Qwen2-mallien tiedonhaun tarkkuuden eri kontekstipituuksilla ja asiakirjasyvyyksillä

Qwen2-mallien tarkkuus haettaessa faktoja asiakirjoista vaihtelevan kontekstin pituuden ja asiakirjasyvyyden perusteella.

Tämä kaavio näyttää Qwen2-mallien kyvyn hakea tosiasioita eripituisista ja -syvistä asiakirjoista.

Arkkitehtoniset innovaatiot: ryhmäkyselyn huomio ja optimoidut upotukset

Konepellin alla Qwen2 sisältää useita arkkitehtonisia innovaatioita, jotka edistävät sen poikkeuksellista suorituskykyä. Yksi tällainen innovaatio on Group Query Attention (GQA) -ominaisuuden käyttöönotto kaikissa mallikokoissa. GQA tarjoaa nopeammat päättelynopeudet ja vähemmän muistin käyttöä, mikä tekee Qwen2:sta tehokkaamman ja laajemman laitteistokokoonpanon käytettävissä.

Lisäksi Alibaba on optimoinut upotukset Qwen2-sarjan pienempiin malleihin. Sitomalla upotuksia tiimi on onnistunut vähentämään näiden mallien muistijalanjälkeä, mikä mahdollistaa niiden käyttöönoton vähemmän tehokkailla laitteistoilla säilyttäen samalla korkealaatuisen suorituskyvyn.

Qwen2-vertailu: Huipputehokkaat huippumallit

Qwen2:lla on erinomainen suorituskyky useissa eri vertailuissa. Vertailevat arvioinnit paljastavat, että Qwen2-72B, sarjan suurin malli, ylittää johtavia kilpailijoita, kuten Llama-3-70B:n, kriittisillä alueilla, mukaan lukien luonnollisen kielen ymmärtäminen, tiedon hankkiminen, koodaustaidot, matemaattiset taidot ja monikieliset kyvyt.

Kaaviot, jotka vertaavat Qwen2-72B-Instructia ja Llama3-70B-Instructia koodauksessa useilla ohjelmointikielillä ja matematiikassa eri kokeissa

Qwen2-72B-Instruct vs. Llama3-70B-Instruct koodauksessa ja matemaattisessa suorituskyvyssä

Huolimatta siitä, että Qwen1.5-110B:llä on vähemmän parametreja kuin edeltäjällään, Qwen2-72B, QwenXNUMX-XNUMXB on ylivoimainen suorituskyky, mikä on osoitus Alibaban huolellisesti kuratoitujen tietojoukkojen ja optimoitujen koulutusmenetelmien tehokkuudesta.

Turvallisuus ja vastuu: Yhdessä inhimillisten arvojen kanssa

Qwen2-72B-Instruct on arvioitu tarkasti sen kyvyn suhteen käsitellä mahdollisesti haitallisia kyselyjä, jotka liittyvät laittomaan toimintaan, petokseen, pornografiaan ja yksityisyyden loukkauksiin. Tulokset ovat rohkaisevia: Qwen2-72B-Instruct toimii verrattavissa arvostettuun GPT-4-malliin turvallisuuden suhteen, ja siinä on huomattavasti pienemmät haitalliset vasteet verrattuna muihin suuriin malleihin, kuten Mistral-8x22B.

Tämä saavutus korostaa Alibaban sitoutumista inhimillisten arvojen mukaisten tekoälyjärjestelmien kehittämiseen ja varmistaa, että Qwen2 ei ole vain tehokas vaan myös luotettava ja vastuullinen.

Lisensointi ja avoimen lähdekoodin sitoumus

Alibaba on ottanut käyttöön avoimen lähdekoodin lähestymistavan lisensointiin Qwen2:n vaikutusta entisestään vahvistavassa liikkeessä. Vaikka Qwen2-72B ja sen ohjeistetut mallit säilyttävät alkuperäisen Qianwen-lisenssin, muut mallit - Qwen2-0.5B, Qwen2-1.5B, Qwen2-7B ja Qwen2-57B-A14B - on lisensoitu sallivalla Apache 2.0 -lisenssillä .

Tämän parannetun avoimuuden odotetaan nopeuttavan Qwen2-mallien soveltamista ja kaupallista käyttöä maailmanlaajuisesti, mikä edistää yhteistyötä ja innovaatioita maailmanlaajuisessa tekoälyyhteisössä.

Käyttö ja toteutus

Qwen2-mallien käyttäminen on yksinkertaista, koska ne on integroitu suosittuihin kehyksiin, kuten Halaaminen kasvot. Tässä on esimerkki Qwen2-7B-Chat-betan käyttämisestä päätelmien tekemiseen:

from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model onto
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen1.5-7B-Chat", device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen1.5-7B-Chat")
prompt = "Give me a short introduction to large language models."
messages = [{"role": "user", "content": prompt}]
text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
model_inputs = tokenizer([text], return_tensors="pt").to(device)
generated_ids = model.generate(model_inputs.input_ids, max_new_tokens=512, do_sample=True)
generated_ids = [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)

Tämä koodinpätkä osoittaa, kuinka voit määrittää ja luoda tekstiä Qwen2-7B-Chat-mallilla. Integrointi kanssa Halaaminen kasvot tekee siitä helppokäyttöisen ja helppokäyttöisen kokeilemisen.

Qwen2 vs. Llama 3: Vertaileva analyysi

Vaikka Qwen2 ja Meta's Lama 3 ovat molemmat valtavia kielimalleja, niillä on selkeitä vahvuuksia ja kompromisseja.

Qwen2-72B:n, Llama3-70B:n, Mixtral-8x22B:n ja Qwen1.5-110B:n suorituskykyvertailukaavio useissa vertailuissa

Vertaileva suorituskykykaavio Qwen2-72B:stä, Llama3-70B:stä, Mixtral-8x22B:stä ja Qwen1.5-110B:stä useissa vertailuissa, mukaan lukien MMLU, MMLU-Pro, GPQA ja muut.

Tässä on vertaileva analyysi, joka auttaa sinua ymmärtämään niiden tärkeimmät erot:

Monikieliset ominaisuudet: Qwen2:lla on selvä etu monikielisen tuen suhteen. Sen koulutus 27 lisäkielellä englannin ja kiinan lisäksi antaa Qwen2:lle mahdollisuuden loistaa kulttuurienvälisessä viestinnässä ja monikielisissä skenaarioissa. Sitä vastoin Llama 3:n monikieliset ominaisuudet ovat vähemmän korostuneet, mikä saattaa rajoittaa sen tehokkuutta erilaisissa kielellisissä yhteyksissä.

Koodauksen ja matematiikan taito: Sekä Qwen2 että Laama 3 osoittavat vaikuttavia koodaus- ja matemaattisia kykyjä. Qwen2-72B-Instructilla näyttää kuitenkin olevan hieman etulyöntiasema, koska se on harjoitellut tiukkaa laajoja, korkealaatuisia tietojoukkoja näillä aloilla. Alibaban keskittyminen Qwen2:n ominaisuuksien parantamiseen näillä alueilla voisi antaa sille edun erikoissovelluksissa, joihin liittyy koodausta tai matemaattista ongelmanratkaisua.

Pitkä kontekstin ymmärtäminen: Qwen2-7B-Instruct- ja Qwen2-72B-Instruct-malleilla on vaikuttava kyky käsitellä kontekstin pituuksia jopa 128 3 tunnukseen asti. Tämä ominaisuus on erityisen arvokas sovelluksissa, jotka vaativat pitkien asiakirjojen tai tiheiden teknisten materiaalien syvällistä ymmärtämistä. Vaikka Llama 2 pystyy käsittelemään pitkiä sarjoja, se ei välttämättä vastaa QwenXNUMX:n suorituskykyä tällä tietyllä alueella.

Vaikka sekä Qwen2:ssa että Llama 3:ssa on huippuluokan suorituskyky, Qwen2:n monipuolinen mallivalikoima, joka vaihtelee 0.5B–72B-parametrien välillä, tarjoaa enemmän joustavuutta ja skaalautuvuutta. Tämän monipuolisuuden ansiosta käyttäjät voivat valita mallikoon, joka sopii parhaiten heidän laskentaresursseihinsa ja suorituskykyvaatimuksiinsa. Lisäksi Alibaban jatkuvat pyrkimykset skaalata Qwen2 suurempiin malleihin voivat parantaa sen ominaisuuksia entisestään, mikä saattaa ohittaa Llama 3:n tulevaisuudessa.

Käyttöönotto ja integrointi: Qwen2:n käyttöönoton virtaviivaistaminen

Helpottaakseen Qwen2:n laajaa käyttöönottoa ja integrointia Alibaba on ryhtynyt ennakoiviin toimiin varmistaakseen saumattoman käyttöönoton eri alustoilla ja kehyksissä. Qwen-tiimi on tehnyt tiivistä yhteistyötä lukuisten kolmansien osapuolien projektien ja organisaatioiden kanssa, mikä mahdollistaa Qwen2:n hyödyntämisen yhdessä monenlaisten työkalujen ja kehysten kanssa.

Hienosäätö ja kvantisointi: Kolmannen osapuolen projektit, kuten Axolotl, Llama-Factory, Firefly, Swift ja XTuner, on optimoitu tukemaan Qwen2-mallien hienosäätöä, jolloin käyttäjät voivat räätälöidä mallit omien tehtäviensä ja tietojoukkojensa mukaan. Lisäksi kvantisointityökalut, kuten AutoGPTQ, AutoAWQ, ja Neural Compressor on mukautettu toimimaan Qwen2:n kanssa, mikä helpottaa tehokasta käyttöönottoa resurssirajoitteisissa laitteissa.

Käyttöönotto ja päättely: Qwen2-malleja voidaan ottaa käyttöön ja palvella useilla eri kehyksillä, mukaan lukien vLLM, SGL, SkyPilot, TensorRT-LLM, OpenVinoja TGI. Nämä puitteet tarjoavat optimoituja päättelyputkia, jotka mahdollistavat Qwen2:n tehokkaan ja skaalautuvan käyttöönoton tuotantoympäristöissä.

API-alustat ja paikallinen suoritus: Kehittäjille, jotka haluavat integroida Qwen2:n sovelluksiinsa, API-alustat, kuten Together, Fireworks ja OpenRouter, tarjoavat kätevän pääsyn mallien ominaisuuksiin. Vaihtoehtoisesti paikallista suoritusta tuetaan kehyksillä, kuten MLX, Llama.cpp, Ollamaja LM Studio, jonka avulla käyttäjät voivat käyttää Qwen2:ta paikallisissa koneissaan säilyttäen samalla hallinnan tietojen yksityisyydestä ja turvallisuudesta.

Agentti ja RAG Frameworks: Qwen2:n työkalujen käyttöä ja agenttiominaisuuksia tukevat puitteet, kuten Puheluindeksi, CrewAI ja OpenDevin. Nämä puitteet mahdollistavat erikoistuneiden tekoälyagenttien luomisen ja Qwen2:n integroinnin haulla lisätty sukupolvi (RAG) putkistoja, laajentaen sovellus- ja käyttötapauksia.

Katse eteenpäin: tuleva kehitys ja mahdollisuudet

Alibaban visio Qwen2:sta ulottuu paljon nykyistä julkaisua pidemmälle. Tiimi kouluttaa aktiivisesti suurempia malleja tutkiakseen mallien skaalauksen rajoja, joita täydentävät jatkuvat tiedon skaalaustyöt. Lisäksi suunnitteilla on Qwen2:n laajentaminen multimodaalisen tekoälyn piiriin, mikä mahdollistaa näön ja äänen ymmärtämisen integroinnin.

Kun avoimen lähdekoodin tekoälyn ekosysteemi kukoistaa, Qwen2:lla on keskeinen rooli, ja se toimii tehokkaana resurssina tutkijoille, kehittäjille ja organisaatioille, jotka pyrkivät edistämään luonnollisen kielen käsittelyn ja tekoälyn huippua.

Olen viettänyt viimeiset viisi vuotta uppoutuen koneoppimisen ja syväoppimisen kiehtovaan maailmaan. Intohimoni ja asiantuntemukseni ovat saaneet minut osallistumaan yli 50:een erilaiseen ohjelmistosuunnitteluprojektiin keskittyen erityisesti tekoälyyn/ML:ään. Jatkuva uteliaisuuteni on myös vetänyt minut kohti luonnollisen kielen käsittelyä, alaa, jota olen innokas tutkimaan lisää.