Gdy Meta prezentuje swoje najnowsze dzieło, LLaMA 2 vs GPT-4 zajmuje w tej chwili umysły wielu entuzjastów sztucznej inteligencji. Jednak oszałamiające ogłoszenie Meta dotyczące otwartego pozyskiwania tego budzącego grozę modelu językowego również stało się wiadomością w zaskakującym obrocie wydarzeń.
Ta decyzja natychmiast katapultowała LLaMA 2 do królestwa tytanów AI, przygotowując grunt pod epicką rozgrywkę ze słynnym GPT-4 OpenAI, potęga stojąca za ChatGPT i Microsoft Bing.
LLaMA 2 vs GPT-4 w różnych porównaniach
LLaMA 2-Chat, niezwykłe dzieło, zawdzięcza swoje istnienie dostrajaniu i uczeniu się przez wzmacnianie cenne ludzkie opinie. Proces ten obejmował gromadzenie danych o preferencjach i trenowanie modeli nagradzania, w tym nowatorską technikę znaną jako Uwaga duchów (GAtt). Dodatkowo LLaMA 2-Chat czerpie korzyści z przeszkolenia w zakresie wyjść GPT-4, co jest istotnym czynnikiem w jego rozwoju.
LLaMA 2 vs GPT-4: stopnie
Aby ocenić skuteczność modelu, Meta przeprowadziła badanie na ludziach 4000 monitów, korzystając z „współczynnik wygranych” metryka, podobna do testu porównawczego Vicuna, aby porównać ją zarówno z modelami open source, jak i zamkniętymi źródłami, takimi jak ChatGPT i PaLM, w kontekście monitów jedno- i wieloobrotowych.
Imponujące 70B LLaMA 2 modele działa na równi z GPT-3.5-0301 I przewyższa inne modele, takie jak Falcon, MPT i Vicuna. Modele LLaMA 2-Chat wyróżniają się przydatnością zarówno w monitach jedno-, jak i wieloobrotowych, przewyższając alternatywy typu open source. Z wskaźnik wygranych 36% I stopa remisowa 31,5% w porównaniu do ChatGPT, LLaMA 2-Chat udowadnia swoją siłę.
Ponadto przewyższa on model czatu MPT-7B 60% podpowiedzi. Ogólny wskaźnik wygranych modelu LLaMA 2-Chat 34B wynosi ponad 75% w porównaniu z podobnymi rozmiarami modelami Vicuna-33B i Falcon 40B to imponujący wyczyn. Dodatkowo, Model 70B znacznie przyćmiewa model czatu PaLM-żubr.
LLaMA 2 kontra GPT-4: kodowanie
Jednak jeżeli chodzi o kodowanie między LLaMA 2 a GPT-4, pomimo licznych osiągnięć, LLaMA-2 ma słabość, jeżeli chodzi o kodowanie. Nie dorównuje umiejętnościom kodowania wykazanym przez GPT-3.5 (48.1) I GPT-4 (67). Podczas gdy test porównawczy MMLU pokazuje mocne strony LLaMA-2, HumanEval ujawnia, iż jego możliwości kodowania są nieco niższe w porównaniu z modelami specjalnie zaprojektowanymi do kodowania, takimi jak StarCoder (33,6). Niemniej jednak, biorąc pod uwagę otwarte wagi LLaMA-2, jest wysoce prawdopodobne, iż z czasem ulegnie znacznej poprawie.
LLaMA 2 kontra GPT-4: Pisanie
Jeśli chodzi o pisanie, LLaMA-2 i GPT-4 wykazują wyraźne różnice. Ich podejście do pisanie poezji, na przykład, nie może być bardziej wyraźny. ChatGPT zatrudnia celowy dobór słów, skupiony na fonetyka I A bardziej wyrafinowane słownictwo, podobny do utalentowanego poety z szeroką gamą wyrażeń. Natomiast LLaMA-2 opowiada się za prostszy wybór rymowanych słów, jak wiersz z liceum.
Poprosiłem Lamę-2 i GPT-4 o napisanie wiersza o ich epickiej rywalizacji. Zgadnij, który jest który.
========= Wiersz 1 =========
W wielkim gobelinie splotu technologii,
Gdzie informacje się obracają, a idee rozszczepiają,
Stoją dwie postacie, ich historie się splatają,
GPT i Lama-2,…
— Jim Fan (@DrJimFan) 18 lipca 2023 r
Pomimo trenowania na mniejszą skalę, LLaMA-2 zdobył godne pochwały wyjścia, zgodnie z opiniami kilku użytkowników, którzy mieli dostęp do wersji beta. podejście Meta, początkowo z wykorzystaniem publicznie dostępnych danych I później wzbogacając je o wysokiej jakości dane, ma udowodniona skuteczność w osiąganiu lepszych wyników przy mniejszej liczbie przykładów. Zaobserwowano, iż dane wyjściowe modelu są porównywalne z adnotacjami ludzkimi, co świadczy o skrupulatnym charakterze jego rozwoju.
LLaMA 2 vs GPT-4: Wyniki z tym samym monitem
Należy zauważyć, iż porównanie tych dwóch modeli w całości może nie być całkowicie uczciwe, biorąc pod uwagę, iż mamy dostęp tylko do wersji demonstracyjnej Lamy 2. Jednak użycie tego samego monitu zarówno dla GPT-4, jak i Lamy 2 da nam trochę interesujące spostrzeżenia do swoich możliwości i tendencji stylistycznych.
Monit: “Napisz mi długi na 100 słów fragment o znaczeniu chatbotów.”
- GPT-4:
Wygląda na to, iż odpowiedź GPT-4, choć krótsza i zwięzła 93 słowa, z powodzeniem zapewnia dokładna informacja.
- Demo Lamy 2:
Z drugiej strony, Llama 2 skłania się ku bardziej kompleksowej odpowiedzi 122 słowa. Mimo iż jest nieco bardziej gadatliwy, biorąc pod uwagę podany monit, oferuje godne pochwały szczegółowe informacje.
Tło LLaMA 2
Podróż LLaMA rozpoczęła się w lutym, wzbudzając emocje w społeczności badawczej AI. Przeciek tuż po ogłoszeniu tylko dodał intrygę. Teraz, wraz z wydaniem LLaMA 2 jako modelu open source, jego potencjalna publiczność ma rozszerzony wykładniczo. Z ponad 100 000 wniosków otrzymany dla początkowego modelu LLaMA, wpływ LLaMA 2 ma być jeszcze głębszy.
Podczas Wydarzenie Microsoft InspireMeta nie tylko zaprezentowała swoje niezachwiane wsparcie dla platform Microsoft Azure i Windows, ale także zrzuciła bombę udostępniając bezpłatnie LLaMA 2 zarówno do celów komercyjnych, jak i badawczych. To posunięcie było kamieniem milowym, ponieważ otworzyło przed firmami, startupami i naukowcami szeroki wachlarz możliwości wykorzystania potencjału tego przełomowego modelu językowego.
W porównaniu do swojego poprzednika, LLaMA 2 przeszedł znaczne ulepszenia. przeszkolony na 40 procent więcej danych, łącznie z publicznie dostępnymi źródłami internetowymi, LLaMA 2 wykazała doskonałą wydajność w obszarach takich jak rozumowanie, kodowanie, biegłość i testy wiedzy, przewyższając inne duże modele językowe, takie jak Falcon i MPT.
Priorytetowe traktowanie bezpieczeństwa i przejrzystości
Meta wykazała swoje zaangażowanie w bezpieczeństwo i przejrzystość, poddając LLaMA 2 rygorystycznym testom „czerwony zespół” I strojenie poprzez kontradyktoryjne podpowiedzi. Dzięki tym wysiłkom LLaMA 2 spełnia najwyższe standardy bezpieczeństwa i umożliwia naukowcom i programistom uzyskanie jasnego zrozumienia jego działania dzięki przejrzystym procesom oceny.
Dostępność na różnych platformach
Zgodnie ze swoim zaangażowaniem w zasady otwartego oprogramowania, Meta zapewniła dostępność LLaMA 2 na wielu platformach. Początkowo dostępne za pośrednictwem Microsoft Azure, LLaMA 2 niedługo trafi na inne platformy, takie jak AWS, przytulająca twarz, I inni. To integracyjne podejście zachęca do powszechnego przyjmowania i współpracy między programistami i badaczami, napędzając rozwój aplikacji AI.
Siła otwartego podejścia do sztucznej inteligencji
Strategia Meta o otwartym kodzie źródłowym jest dostosowana do gwałtownie zmieniającego się krajobrazu technologii generatywnej sztucznej inteligencji. Demokratyzując dostęp do najnowocześniejszych modeli, takich jak LLaMA 2, Meta sprzyja współpracująca społeczność programistów i badaczy którzy mogą wspólnie przetestować model w warunkach skrajnych, zidentyfikować potencjalne problemy i przyspieszyć rozwiązania, ostatecznie napędzając innowacje AI.
LLaMA 2 vs GPT-4 i PaLM 2
Chociaż LLaMA 2 może być nieco mniej wydajny niż jego konkurenci, GPT-4 i PaLM 2, jego charakter open source i nacisk Meta na bezpieczeństwo i przejrzystość są kluczowe wyróżniki. LLaMA 2 był szkolony dwa miliony tokenów, mniej niż PaLM 2 3,6 miliona tokenów, I obsługuje 20 języków, ciągnąc się za sobą 100 języków PaLM 2 i 26 języków GPT-4. Jednak siła współpracy open source i rozwoju kierowanego przez społeczność może zniwelować te różnice i doprowadzić do szybkiego postępu.
Kluczowy moment dla rozwoju sztucznej inteligencji
Decyzja Meta o udostępnieniu znaków LLaMA 2 na licencji open source punkt zwrotny w krajobrazie sztucznej inteligencji. Tworząc ten potężny model językowy swobodnie dostępne, Meta umożliwia programistom i badaczom przekraczanie granic innowacji w zakresie sztucznej inteligencji, zapewniając jednocześnie bezpieczeństwo i przejrzystość na pierwszym planie. kooperacja z Microsoftu I Qualcomm dodatkowo cementuje świetlaną przyszłość aplikacji AI, obiecując bezproblemową integrację na różnych platformach i urządzeniach.
Ponieważ programiści i badacze wyruszają w tę podróż z LLaMA 2, a rywalizacja LLaMA 2 kontra GPT-4 trwa, możemy spodziewać się pojawi się fala transformacyjnych narzędzi opartych na sztucznej inteligencji, przekształcając nasze interakcje z technologią. Zaangażowanie Meta w otwartość ustanawia precedens dla wspólnego udoskonalania i wykorzystywania modeli sztucznej inteligencji, torując drogę dla nowej generacji innowacji w zakresie sztucznej inteligencji, które ukształtują przyszłość sztucznej inteligencji.
Przedstawiony obraz: Kredyt
Source: LLaMA 2 vs GPT-4: Jak konkurencyjna jest Meta w wyścigu AI? • TechKrótko