बड़े भाषा मॉडल (एलएलएम) सभी आकारों और आकारों में आते हैं, और आपको जिस तरह से फिट दिखते हैं, उसमें आपकी सहायता करेंगे। लेकिन कौन सा सबसे अच्छा है? हमने अल्फाबेट, ओपनएआई और मेटा से प्रभावी एआई का परीक्षण किया।
एआई चैटबॉट्स के बारे में आपको क्या जानना चाहिए
आर्टिफिशियल जनरल इंटेलिजेंस दशकों से कंप्यूटर वैज्ञानिकों का लक्ष्य रहा है, और एआई ने विज्ञान कथा लेखकों और फिल्म निर्माताओं के लिए लंबे समय तक मुख्य आधार के रूप में काम किया है।
AGI मानव संज्ञानात्मक क्षमताओं के समान बुद्धिमत्ता प्रदर्शित करता है, और ट्यूरिंग टेस्ट- एक मानव से अविवेचनीय बुद्धिमान व्यवहार प्रदर्शित करने की मशीन की क्षमता का परीक्षण - पहली बार निर्धारित किए जाने के बाद से सात दशकों में लगभग अप्रतिबंधित रहा।
अत्यंत बड़े पैमाने पर कंप्यूटिंग, विशाल मात्रा में धन, और जानकारी की आश्चर्यजनक मात्रा का हालिया अभिसरण स्वतंत्र रूप से खुले इंटरनेट पर उपलब्ध तकनीकी दिग्गजों को ऐसे मॉडलों को प्रशिक्षित करने की अनुमति दी गई है जो अगले शब्द खंड-या टोकन-के क्रम में भविष्यवाणी कर सकते हैं टोकन।
लेखन के समय, दोनों Google का बार्ड और ओपनएआई की चैटजीपीटी आपके लिए उनके वेब इंटरफेस के माध्यम से उपयोग और परीक्षण के लिए उपलब्ध हैं।
मेटा का भाषा मॉडल, LLaMa, वेब पर उपलब्ध नहीं है, लेकिन आप आसानी से कर सकते हैं डाउनलोड करें और अपने हार्डवेयर पर LLaMa चलाएं और इसे कमांड लाइन या के माध्यम से उपयोग करें दलाई को अपनी मशीन पर चलाएं—उपयोगकर्ता के अनुकूल इंटरफेस के साथ कई ऐप्स में से एक।
परीक्षण के प्रयोजनों के लिए, हम स्टैनफोर्ड विश्वविद्यालय के अल्पाका 7बी मॉडल को चला रहे होंगे—एलएलएएमए का एक अनुकूलन—और इसे बार्ड और चैटजीपीटी के खिलाफ खड़ा करेंगे।
निम्नलिखित तुलना और परीक्षण संपूर्ण होने के लिए नहीं हैं, बल्कि आपको प्रमुख बिंदुओं और क्षमताओं का संकेत देते हैं।
उपयोग करने के लिए सबसे आसान बड़ा भाषा मॉडल कौन सा है?
सेवा का उपयोग करने के लिए बार्ड और चैटजीपीटी दोनों को एक खाते की आवश्यकता होती है। Google और OpenAI दोनों खाते बनाना आसान और मुफ़्त है, और आप तुरंत प्रश्न पूछना शुरू कर सकते हैं।
हालांकि, LLaMa को स्थानीय रूप से चलाने के लिए, आपको कुछ विशेष ज्ञान या ट्यूटोरियल का पालन करने की क्षमता की आवश्यकता होगी। आपको महत्वपूर्ण मात्रा में संग्रहण स्थान की भी आवश्यकता होगी।
सबसे निजी बड़ा भाषा मॉडल कौन सा है?
बार्ड और चैटजीपीटी दोनों की व्यापक गोपनीयता नीतियां हैं, और Google अपने दस्तावेज़ों में बार-बार जोर देता है कि आपको "ऐसी जानकारी शामिल नहीं करनी चाहिए जिसका उपयोग आपकी या आपके बार्ड में अन्य लोगों की पहचान करने के लिए किया जा सके बात चिट।"
डिफ़ॉल्ट रूप से, Google आपके आईपी पते, आपकी प्रतिक्रिया और उपयोग की जानकारी के आधार पर आपकी बातचीत और आपके सामान्य स्थान को एकत्रित करता है। यह जानकारी आपके Google खाते में 18 महीनों तक संग्रहीत रहती है। यद्यपि आप अपनी बार्ड गतिविधि को सहेजना रोक सकते हैं, आपको इस बात की जानकारी होनी चाहिए कि "गुणवत्ता में मदद करने और हमारे उत्पादों को बेहतर बनाने के लिए, मानव समीक्षक आपके बार्ड वार्तालापों को पढ़ते हैं, व्याख्या करते हैं और संसाधित करते हैं।"
बार्ड का प्रयोग भी मानक के अधीन है Google गोपनीयता नीति.
OpenAI की गोपनीयता नीति मोटे तौर पर समान है और IP पता और उपयोग डेटा एकत्र करती है। Google की समय-सीमित प्रतिधारण के विपरीत, OpenAI "आपकी व्यक्तिगत जानकारी को केवल तब तक बनाए रखेगा जब तक कि हमें अपना प्रदान करने के लिए आवश्यकता हो आपके लिए सेवा, या अन्य वैध व्यावसायिक उद्देश्यों जैसे विवादों, सुरक्षा और सुरक्षा कारणों को हल करने, या हमारे कानूनी अनुपालन के लिए दायित्व।"
इसके विपरीत, आपकी अपनी मशीन पर एक स्थानीय मॉडल के लिए किसी खाते या किसी के साथ उपयोगकर्ता डेटा साझा करने की आवश्यकता नहीं होती है।
किस एलएलएम में सर्वश्रेष्ठ सामान्य ज्ञान है?
यह जांचने के लिए कि किस एलएलएम में सबसे अच्छा सामान्य ज्ञान है, हमने तीन प्रश्न पूछे।
पहला सवाल, "किस राष्ट्रीय ध्वज के पांच किनारे होते हैं?" बार्ड द्वारा केवल सही उत्तर दिया गया था, जिसने नेपाल के राष्ट्रीय ध्वज की पांच भुजाओं के रूप में पहचान की थी।
ChatGPT ने आत्मविश्वास से दावा किया कि "ऐसा कोई राष्ट्रीय ध्वज नहीं है जिसकी पाँच भुजाएँ हों। राष्ट्रीय ध्वज आम तौर पर आकार में आयताकार या वर्गाकार होते हैं, जो उनके अलग-अलग रंगों, पैटर्नों और प्रतीकों द्वारा पहचाने जाते हैं"।
हमारा स्थानीय मॉडल करीब आया, जिसमें कहा गया था कि "भारतीय राष्ट्रीय ध्वज के पांच पक्ष हैं और 1916 में भारत का प्रतिनिधित्व करने के लिए डिजाइन किया गया था।" स्वतंत्रता आंदोलन।" जबकि यह ध्वज मौजूद था और इसके पांच पक्ष थे, यह भारतीय होम रूल आंदोलन का ध्वज था - नहीं राष्ट्रीय ध्वज।
हमारा कोई भी मॉडल जवाब नहीं दे सका कि मटर के आकार की वस्तु के लिए सही शब्द "पिसिफोर्म" है, जिसमें चैटजीपीटी जा रहा है जहाँ तक यह सुझाव दिया जाता है कि मटर का "त्रि-आयामी ज्यामितीय आकार होता है जो पूरी तरह से गोल होता है और सममित।"
सभी तीन चैटबॉट्स ने फ्रेंको मालेरबा को एक इतालवी अंतरिक्ष यात्री और के सदस्य के रूप में सही ढंग से पहचाना यूरोपीय संसद, जिसमें बार्ड मलेरबा के विकिपीडिया के एक भाग के समान शब्दों में उत्तर दे रहा है प्रवेश।
तकनीकी निर्देशों के लिए कौन सा एलएलएम अच्छा है?
जब आपको तकनीकी समस्याएं आती हैं, तो आप मदद के लिए चैटबॉट की ओर मुड़ सकते हैं। जबकि तकनीक आगे बढ़ती है, कुछ चीजें समान रहती हैं। बीएस 1363 विद्युत प्लग ब्रिटेन, आयरलैंड और कई अन्य देशों में 1947 से उपयोग में है। हमने भाषा मॉडल से पूछा कि इसे सही तरीके से कैसे जोड़ा जाए।
प्लग से जुड़े केबल्स में एक लाइव वायर (भूरा), एक अर्थ वायर (पीला/हरा) और एक न्यूट्रल वायर (नीला) होता है। इन्हें प्लग हाउसिंग के भीतर सही टर्मिनलों से जोड़ा जाना चाहिए।
हमारे दलाई कार्यान्वयन ने प्लग को "अंग्रेजी-शैली" के रूप में सही ढंग से पहचाना, फिर ऑफ-कोर्स को बदल दिया और इसके बजाय पुराने वायरिंग रंगों के साथ पुराने राउंड-पिन बीएस 546 प्लग के लिए निर्देश दिए।
चैटजीपीटी थोड़ा अधिक मददगार था। इसने तारों के रंगों को सही ढंग से लेबल किया और सामग्री सूची और आठ निर्देशों का एक सेट दिया। ChatGPT ने भूरे रंग के तार को "L" लेबल वाले टर्मिनल में डालने का सुझाव दिया, नीले तार को "N" में टर्मिनल, और पीले तार को "E." यह सही होगा यदि BS1363 टर्मिनलों को लेबल किया गया हो, लेकिन वे नहीं हैं।
बार्ड ने तारों के लिए सही रंगों की पहचान की और हमें उन्हें लाइव, न्यूट्रल और अर्थ टर्मिनलों से जोड़ने का निर्देश दिया। इनकी पहचान कैसे की जाए, इस पर कोई निर्देश नहीं दिया।
हमारी राय में। किसी भी चैटबॉट ने बीएस 1363 इलेक्ट्रिकल प्लग को सही ढंग से तार करने में किसी की मदद करने के लिए पर्याप्त निर्देश नहीं दिए। एक संक्षिप्त और सही प्रतिक्रिया होगी, "बाईं ओर नीला, दाईं ओर भूरा।"
कोड लिखने के लिए कौन सा एलएलएम अच्छा है?
पायथन एक उपयोगी प्रोग्रामिंग भाषा है जो अधिकांश आधुनिक प्लेटफॉर्म पर चलता है। हमने अपने मॉडलों को पायथन का उपयोग करने का निर्देश दिया और "एक बुनियादी कैलकुलेटर प्रोग्राम बनाएं जो जोड़, घटाव, गुणा और भाग जैसे अंकगणितीय संचालन कर सके। इसे उपयोगकर्ता इनपुट लेना चाहिए और परिणाम प्रदर्शित करना चाहिए।" यह इनमें से एक है शुरुआती के लिए सर्वश्रेष्ठ प्रोग्रामिंग प्रोजेक्ट.
जबकि बार्ड और चैटजीपीटी दोनों ने प्रयोग करने योग्य और अच्छी तरह से टिप्पणी किए गए कोड को तुरंत वापस कर दिया, जिसे हम परीक्षण और सत्यापित करने में सक्षम थे, हमारे स्थानीय मॉडल का कोई भी कोड नहीं चलेगा।
कौन सा एलएलएम सबसे अच्छा चुटकुले सुनाता है?
हास्य मानव होने के मूल सिद्धांतों में से एक है और निश्चित रूप से मनुष्य और मशीन को अलग करने के सर्वोत्तम तरीकों में से एक है। हमारे प्रत्येक मॉडल के लिए, हमने सरल संकेत दिया: "एक मूल और मज़ेदार चुटकुला बनाएँ।"
सौभाग्य से हर जगह कॉमेडियन और बड़े पैमाने पर मानव जाति के लिए, कोई भी मॉडल एक मूल मजाक पैदा करने में सक्षम नहीं था।
बार्ड ने क्लासिक प्रस्तुत किया, "बिजूका ने एक पुरस्कार क्यों जीता? वह अपने क्षेत्र में उत्कृष्ट थे"।
हमारे स्थानीय कार्यान्वयन और चैटजीपीटी दोनों ने कराहने योग्य पेशकश की, "वैज्ञानिक परमाणुओं पर भरोसा क्यों नहीं करते? क्योंकि वे सब कुछ बनाते हैं!"
एक व्युत्पन्न लेकिन मूल चुटकुला होगा, "बड़े भाषा मॉडल परमाणुओं की तरह कैसे हैं? वे दोनों बातें बनाते हैं!"
आप इसे पहले यहाँ पढ़ें, दोस्तों।
कोई भी चैटबॉट परफेक्ट नहीं है
हमने पाया कि तीनों बड़े भाषा मॉडल के अपने फायदे और नुकसान हैं, लेकिन उनमें से कोई भी विशेष ज्ञान वाले इंसान की वास्तविक विशेषज्ञता को प्रतिस्थापित नहीं कर सकता है।
जबकि बार्ड और चैटजीपीटी दोनों ने हमारे कोडिंग प्रश्न का बेहतर जवाब दिया और उपयोग करना बहुत आसान है, स्थानीय रूप से एक बड़े भाषा मॉडल को चलाने का अर्थ है कि आपको गोपनीयता के बारे में चिंतित होने की आवश्यकता नहीं है सेंसरशिप।
यदि आप इस चिंता के बिना कि कोई आपके कंधे पर नज़र रख रहा है, महान AI कला बनाना चाहते हैं, तो अपनी स्थानीय मशीन पर भी कला AI मॉडल चलाना आसान है।