उपयोगकर्ता आमतौर पर एपीआई के माध्यम से यूजर इंटरफेस के उपयोग के माध्यम से बड़े भाषा मॉडल (एलएलएम) तक पहुंचते हैं। हालांकि कई फायदे प्रदान करते हुए, एपीआई का उपयोग सीमाएं भी पेश करता है, जैसे निरंतर इंटरनेट की आवश्यकता कनेक्शन, सीमित अनुकूलन, संभावित सुरक्षा मुद्दे और कंपनियां मॉडल क्षमताओं को सीमित कर रही हैं पेवॉल.

मात्राबद्ध एलएलएम अब हगिंगफेस पर उपलब्ध हैं, और एआई इकोसिस्टम जैसे एच20, टेक्स्ट जेन और जीपीटी4ऑल आपको अपने कंप्यूटर पर एलएलएम भार लोड करने की अनुमति देते हुए, अब आपके पास मुफ़्त, लचीला और सुरक्षित विकल्प है ऐ.

आरंभ करने के लिए, यहां सात सर्वोत्तम स्थानीय/ऑफ़लाइन एलएलएम हैं जिनका आप अभी उपयोग कर सकते हैं!

1. हर्मीस GPTQ

नूस रिसर्च द्वारा 300,000 निर्देशों के डेटा सेट का उपयोग करके अत्याधुनिक भाषा मॉडल को परिष्कृत किया गया। हर्मीस मेटा के LlaMA2 LLM पर आधारित है और इसे ज्यादातर सिंथेटिक GPT-4 आउटपुट का उपयोग करके ठीक किया गया था।

नमूना

हर्मीस 13बी जीपीटीक्यू

मॉडल का आकार

7.26 जीबी

पैरामीटर

13 अरब

परिमाणीकरण

4-बिट

प्रकार

LlaMA2

लाइसेंस

जीपीएल 3

अपने बेस मॉडल के रूप में LlaMA2 का उपयोग हर्मीस को संदर्भ आकार को दोगुना करने या अधिकतम टोकन आकार 4,096 करने की अनुमति देता है। लंबे संदर्भ आकार और एक एनकोडर आर्किटेक्चर को जोड़ते हुए, हर्मीस को लंबी प्रतिक्रियाएं और कम मतिभ्रम दर देने के लिए जाना जाता है। यह हर्मीस को विभिन्न के लिए एक महान मॉडल बनाता है

प्राकृतिक भाषा प्रसंस्करण (एनएलपी) कार्य, जैसे कोड लिखना, सामग्री निर्माण और चैटबॉट बनना।

नए हर्मीस जीपीटीक्यू के कई परिमाणीकरण और संस्करण हैं। हम अनुशंसा करेंगे कि आप पहले हर्मीस-लामा2 13बी-जीपीटीक्यू मॉडल को आज़माएँ, क्योंकि यह बेहतरीन प्रदर्शन के साथ-साथ तैनात करने का सबसे आसान संस्करण है।

2. फाल्कन निर्देश GPTQ

छवि क्रेडिट: जॉन श्नोब्रिच/unsplash

फाल्कन का यह परिमाणित संस्करण टीआईआई के कच्चे फ्लैकॉन -7 बी मॉडल के शीर्ष पर डिकोडर-केवल आर्किटेक्चर पर आधारित है। बेस फाल्कन मॉडल को सार्वजनिक इंटरनेट पर प्राप्त उत्कृष्ट 1.5 ट्रिलियन टोकन का उपयोग करके प्रशिक्षित किया गया था। अपाचे 2 के तहत लाइसेंस प्राप्त एक निर्देश-आधारित डिकोडर-केवल मॉडल के रूप में, फाल्कन इंस्ट्रक्ट उन छोटे व्यवसायों के लिए एकदम सही है जो भाषा अनुवाद और डेटा प्रविष्टि के लिए उपयोग करने के लिए एक मॉडल की तलाश में हैं।

नमूना

फाल्कन-7बी-निर्देश

मॉडल का आकार

7.58 जीबी

पैरामीटर

7 अरब

परिमाणीकरण

4-बिट

प्रकार

फाल्कन

लाइसेंस

अपाचे 2.0

हालाँकि, फाल्कन का यह संस्करण फाइन-ट्यूनिंग के लिए आदर्श नहीं है और केवल अनुमान लगाने के लिए है। यदि आप फाल्कन को फाइन-ट्यून करना चाहते हैं, तो आपको कच्चे मॉडल का उपयोग करना होगा, जिसके लिए एनवीआईडीआईए डीजीएक्स या एंटरप्राइज़-ग्रेड प्रशिक्षण हार्डवेयर तक पहुंच की आवश्यकता हो सकती है। एएमडी इंस्टिंक्ट एआई एक्सेलेरेटर.

3.GPT4ALL-J ग्रूवी

छवि क्रेडिट: न्यूबेलसन फर्नांडीस/खोलो

GPT4All-J ग्रूवी एक डिकोडर-केवल मॉडल है जिसे नॉमिक एआई द्वारा फाइन-ट्यून किया गया है और अपाचे 2.0 के तहत लाइसेंस प्राप्त है। GPT4ALL-J ग्रूवी मूल GPT-J मॉडल पर आधारित है, जिसे टेक्स्ट जेनरेशन में बेहतरीन माना जाता है संकेतों से. GPT4ALL -J ग्रूवी को एक चैट मॉडल के रूप में ठीक से ट्यून किया गया है, जो तेज़ और रचनात्मक टेक्स्ट जेनरेशन अनुप्रयोगों के लिए बहुत अच्छा है। यह GPT4All-J ग्रूवी को सामग्री रचनाकारों के लिए लेखन और रचनात्मक कार्यों में सहायता करने के लिए आदर्श बनाता है, चाहे वह कविता, संगीत या कहानियाँ हों।

नमूना

GPT4ALL-जे ग्रूवी

मॉडल का आकार

3.53 जीबी

पैरामीटर

7 अरब

परिमाणीकरण

4-बिट

प्रकार

जीपीटी-जे

लाइसेंस

अपाचे 2.0

दुर्भाग्य से, बेस GPT-J मॉडल को केवल अंग्रेजी डेटासेट पर प्रशिक्षित किया गया था, जिसका अर्थ है कि यह फाइन-ट्यून GPT4ALL-J मॉडल केवल अंग्रेजी में चैट और टेक्स्ट जेनरेशन एप्लिकेशन निष्पादित कर सकता है।

4.विज़ार्डकोडर-15बी-जीपीटीक्यू

छवि क्रेडिट: जेम्स हैरिसन/unsplash

कोडिंग के लिए विशेष रूप से परिष्कृत मॉडल की तलाश है? अपने काफी छोटे आकार के बावजूद, विज़ार्डकोडर को LlaMA-65B, InstructCodeT5+ और CodeGeeX जैसे अन्य मॉडलों को पीछे छोड़ते हुए सबसे अच्छे कोडिंग मॉडल में से एक माना जाता है। इस मॉडल को कोडिंग-विशिष्ट इवोल-इंस्ट्रक्ट विधि का उपयोग करके प्रशिक्षित किया गया था, जो स्वचालित रूप से आपके संकेतों को अधिक प्रभावी कोडिंग-संबंधित संकेत के रूप में संपादित करता है जिसे मॉडल बेहतर ढंग से समझ सकता है।

नमूना

विज़ार्डकोडर-15बी-जीपीटीक्यू

मॉडल का आकार

7.58 जीबी

पैरामीटर

15 अरब

परिमाणीकरण

4-बिट

प्रकार

लामा

लाइसेंस

बिगकोड-ओपनरेल-एम

4-बिट मॉडल में परिमाणित होने के कारण, विज़ार्डकोडर का उपयोग अब नियमित पीसी पर किया जा सकता है, जहां व्यक्ति इसे प्रयोग के लिए और सरल कार्यक्रमों और स्क्रिप्ट के लिए कोडिंग सहायक के रूप में उपयोग कर सकते हैं।

5. विज़ार्ड विकुना अनसेंसर्ड-जीपीटीक्यू

विज़ार्ड-विकुना GPTQ, LlaMA मॉडल पर आधारित विज़ार्ड विकुना का एक परिमाणित संस्करण है। जनता के लिए जारी किए गए अधिकांश एलएलएम के विपरीत, विजार्ड-विकुना एक बिना सेंसर वाला मॉडल है जिसका संरेखण हटा दिया गया है। इसका मतलब यह है कि मॉडल में अधिकांश मॉडलों के समान सुरक्षा और नैतिक मानक नहीं हैं।

नमूना

विज़ार्ड-विकुना-30बी-बिना सेंसर किया हुआ-जीपीटीक्यू

मॉडल का आकार

16.94 जीबी

पैरामीटर

30 अरब

परिमाणीकरण

4-बिट

प्रकार

लामा

लाइसेंस

जीपीएल 3

हालाँकि संभवतः एक पोज़ दे रहा हूँ एआई संरेखण नियंत्रण समस्या, बिना सेंसर एलएलएम होने से बिना किसी बाधा के उत्तर देने की अनुमति मिलने से मॉडल का सर्वश्रेष्ठ भी सामने आता है। यह उपयोगकर्ताओं को अपने कस्टम संरेखण को जोड़ने की भी अनुमति देता है कि किसी दिए गए संकेत के आधार पर एआई को कैसे कार्य करना चाहिए या उत्तर देना चाहिए।

6. ओर्का मिनी-जीपीटीक्यू

छवि क्रेडिट: एलेक्स कोंड्रैटिएव/unsplash

क्या आप एक अद्वितीय शिक्षण पद्धति पर प्रशिक्षित मॉडल के साथ प्रयोग करना चाहते हैं? ओर्का मिनी माइक्रोसॉफ्ट के ओर्का शोध पत्रों का एक अनौपचारिक मॉडल कार्यान्वयन है। इसे शिक्षक-छात्र सीखने की पद्धति का उपयोग करके प्रशिक्षित किया गया था, जहां डेटासेट केवल संकेतों और प्रतिक्रियाओं के बजाय स्पष्टीकरण से भरा था। सिद्धांत रूप में, इसका परिणाम एक होशियार छात्र होना चाहिए, जहां मॉडल केवल इनपुट और आउटपुट जोड़े की तलाश करने के बजाय समस्या को समझ सकता है जैसे कि सामान्य एलएलएम कैसे काम करते हैं।

नमूना

ओर्का मिनी-जीपीटीक्यू

मॉडल का आकार

8.11 जीबी

पैरामीटर

तीन अरब

परिमाणीकरण

4-बिट

प्रकार

लामा

लाइसेंस

एमआईटी

केवल तीन अरब मापदंडों के साथ, ओर्का मिनी जीपीटीक्यू को कम शक्तिशाली सिस्टम पर भी चलाना आसान है। हालाँकि, इस मॉडल का उपयोग किसी भी पेशेवर चीज़ के लिए नहीं किया जाना चाहिए क्योंकि यह गलत जानकारी, पक्षपातपूर्ण और आक्रामक प्रतिक्रियाएँ उत्पन्न करता है। इस मॉडल का उपयोग ओर्का और इसकी विधियों को सीखने और प्रयोग करने के लिए किया जाना चाहिए।

7.LlaMA 2 चैट GPTQ

LlaMA 2 मूल LlaMA LLM का उत्तराधिकारी है, जिसने इस सूची में अधिकांश मॉडलों को जन्म दिया। LlaMA 2 कई एलएलएम का एक संग्रह है, प्रत्येक को 7-70 बिलियन मापदंडों का उपयोग करके प्रशिक्षित किया जाता है। कुल मिलाकर, LlaMA 2 को सार्वजनिक रूप से उपलब्ध निर्देश डेटासेट से लिए गए 2 ट्रिलियन टोकन डेटा का उपयोग करके पूर्व-प्रशिक्षित किया गया था।

नमूना

फाल्कन-40बी-निर्देश-जीपीटीक्यू

मॉडल का आकार

7.26 जीबी

पैरामीटर

तीन अरब

परिमाणीकरण

4-बिट

प्रकार

ओपनलामा

लाइसेंस

EULA (मेटा लाइसेंस)

LlaMA 2 का उपयोग वाणिज्यिक और अनुसंधान उपयोग के लिए किया जाना है। इस प्रकार, विशिष्ट कार्यों पर बेहतर प्रदर्शन के लिए फाइन-ट्यूनिंग के बाद इस मॉडल का सबसे अच्छा उपयोग किया जाता है। इस विशिष्ट LlaMA 2 चैट GPTQ मॉडल को अंग्रेजी संवाद के लिए ठीक-ठीक और अनुकूलित किया गया है, जिससे यह बना है बिना किसी अतिरिक्त प्रशिक्षण के कंपनियों और संगठनों के लिए चैटबॉट के रूप में आदर्श मॉडल आवश्यक। शर्तों के अनुसार, 700 मिलियन से कम उपयोगकर्ता वाली कंपनियां मेटा या माइक्रोसॉफ्ट से किसी भी लाइसेंस शुल्क का भुगतान किए बिना LlaMA 2 का उपयोग कर सकती हैं।

स्थानीय बड़े भाषा मॉडल आज ही आज़माएँ

ऊपर सूचीबद्ध कुछ मॉडलों में मापदंडों के संदर्भ में कई संस्करण हैं। सामान्य तौर पर, उच्च पैरामीटर संस्करण बेहतर परिणाम देते हैं लेकिन अधिक शक्तिशाली हार्डवेयर की आवश्यकता होती है, जबकि कम पैरामीटर संस्करण कम गुणवत्ता वाले परिणाम उत्पन्न करेंगे लेकिन निचले स्तर के हार्डवेयर पर चल सकते हैं। यदि आप अनिश्चित हैं कि आपका पीसी मॉडल चला सकता है या नहीं, तो पहले निचले पैरामीटर संस्करण के लिए जाने का प्रयास करें, फिर तब तक जारी रखें जब तक आपको यह न लगे कि प्रदर्शन में गिरावट अब स्वीकार्य नहीं है।

चूँकि इस सूची में परिमाणित मॉडल केवल कुछ गीगाबाइट स्थान और GPT4All जैसे मॉडल परिनियोजन प्लेटफ़ॉर्म लेते हैं टेक्स्ट-जेनरेशन-वेबयूआई को उनके एक-क्लिक इंस्टॉलर के माध्यम से आसानी से इंस्टॉल किया जा सकता है, कई मॉडलों और मॉडल संस्करणों को आज़माने की ज़रूरत नहीं है बहुत समय और प्रयास.

तो आप किस बात की प्रतीक्षा कर रहे हैं? आज ही एक स्थानीय मॉडल आज़माएँ!