GPT-4 आ गया है, और ये नई विशेषताएं हैं जिन्हें आपको देखना चाहिए।
OpenAI ने आखिरकार अपना बहुप्रतीक्षित GPT अपडेट, GPT-4 लॉन्च कर दिया है। द लार्ज लैंग्वेज मॉडल (एलएलएम) कुछ शक्तिशाली नई सुविधाओं और क्षमताओं के साथ आता है, जिन्होंने दुनिया भर के उपयोगकर्ताओं को पहले ही चौंका दिया है।
GPT-3.5 से उल्लेखनीय रूप से बेहतर होने के अलावा, मौजूदा LLM जो OpenAI के वायरल चैटबॉट ChatGPT, GPT-4 को शक्ति प्रदान करता है अधिक जटिल इनपुट को समझते हैं, एक बहुत बड़ी वर्ण इनपुट सीमा है, इसमें मल्टीमॉडल क्षमताएं हैं, और कथित तौर पर सुरक्षित है उपयोग।
1. GPT-4 अधिक जटिल निविष्टियों को समझ सकता है
GPT-4 की सबसे बड़ी नई विशेषताओं में से एक इसकी अधिक जटिल और सूक्ष्म संकेतों को समझने की क्षमता है। के अनुसार ओपनएआई, GPT-4 "विभिन्न पेशेवर और शैक्षणिक बेंचमार्क पर मानव-स्तर के प्रदर्शन को प्रदर्शित करता है।"
यह GPT-4 को कई मानव-स्तरीय परीक्षाओं और SAT, BAR, और GRE जैसे मानकीकृत परीक्षणों के माध्यम से बिना किसी विशिष्ट प्रशिक्षण के प्रदर्शित करके प्रदर्शित किया गया था। GTP-4 ने न केवल बोर्ड भर में अपेक्षाकृत उच्च स्कोर के साथ इन परीक्षणों को समझा और हल किया, बल्कि इसने अपने पूर्ववर्ती, GPT-3.5 को भी हर बार मात दी।
अधिक सूक्ष्म इनपुट संकेतों को समझने की क्षमता भी इस तथ्य से सहायता प्राप्त है कि GPT-4 की शब्द सीमा बहुत बड़ी है। नया मॉडल 25,000 शब्दों तक के इनपुट संकेतों को संभाल सकता है (संदर्भ के लिए, GPT-3.5 8,000 शब्दों तक सीमित था)। यह सीधे उन विवरणों को प्रभावित करेगा जिन्हें उपयोगकर्ता अपने संकेतों में निचोड़ सकते हैं, इसलिए मॉडल को लंबे आउटपुट के साथ काम करने और उत्पादन करने के लिए और अधिक जानकारी मिलती है।
GPT-4 भी 26 से अधिक भाषाओं का समर्थन करता है, जिनमें कम संसाधन वाली भाषाएँ जैसे लातवियाई, वेल्श और स्वाहिली शामिल हैं। MMLU बेंचमार्क पर तीन-शॉट सटीकता पर बेंचमार्क किए जाने पर, GPT-4 ने GPT-3.5 के साथ-साथ अन्य प्रमुख LLM जैसे PaLM और चिनचिला को 24 भाषाओं में अंग्रेजी भाषा के प्रदर्शन के मामले में पीछे छोड़ दिया।
2. मल्टीमॉडल क्षमताएं
का पिछला संस्करण चैटजीपीटी केवल पाठ संकेतों तक ही सीमित था. इसके विपरीत, GPT-4 की नवीनतम विशेषताओं में से एक इसकी मल्टीमॉडल क्षमताएं हैं। मॉडल पाठ और छवि दोनों संकेतों को स्वीकार कर सकता है।
इसका मतलब यह है कि एआई एक छवि को इनपुट के रूप में स्वीकार कर सकता है और इसे टेक्स्ट प्रॉम्प्ट की तरह ही व्याख्या और समझ सकता है। यह क्षमता छवियों और पाठ के सभी आकारों और प्रकारों तक फैली हुई है, जिसमें दो संयोजन वाले दस्तावेज़, हाथ से तैयार किए गए रेखाचित्र और यहां तक कि स्क्रीनशॉट भी शामिल हैं।
हालाँकि, GPT-4 की छवि पढ़ने की क्षमता केवल उनकी व्याख्या करने से परे है। OpenAI ने इसे अपने डेवलपर स्ट्रीम (ऊपर) में प्रदर्शित किया, जहां उन्होंने GPT-4 को एक चुटकुला वेबसाइट के हाथ से तैयार किए गए मॉकअप के साथ प्रदान किया। मॉडल को चुटकुलों को वास्तविक के साथ बदलते हुए मॉकअप को वेबसाइट में बदलने के लिए HTML और जावास्क्रिप्ट कोड लिखने का काम सौंपा गया था।
GPT-4 ने मॉकअप में निर्दिष्ट लेआउट का उपयोग करते हुए कोड लिखा। परीक्षण करने पर, कोड ने एक कार्यशील साइट का निर्माण किया, जैसा कि आप अनुमान लगा सकते हैं, वास्तविक चुटकुले। क्या यह मतलब है एआई की प्रगति का मतलब प्रोग्रामिंग का अंत होगा? बिल्कुल नहीं, लेकिन यह अभी भी एक विशेषता है जो प्रोग्रामर्स की सहायता करने में काम आएगी।
जैसा कि यह सुविधा आशाजनक प्रतीत होती है, यह अभी भी अनुसंधान पूर्वावलोकन में है और सार्वजनिक रूप से उपलब्ध नहीं है। इसके अतिरिक्त, मॉडल को विज़ुअल इनपुट को संसाधित करने में बहुत समय लगता है, साथ ही OpenAI ने खुद कहा है कि इसे तेज होने में काम और समय लग सकता है।
3. अधिक स्थिरता
OpenAI का यह भी दावा है कि GPT-4 में उच्च स्तर की स्थिरता है। इसने एआई के लिए चरित्र को तोड़ना भी कठिन बना दिया है, जिसका अर्थ है कि एक निश्चित चरित्र को निभाने के लिए ऐप में लागू होने पर इसके विफल होने की संभावना कम है।
डेवलपर्स "सिस्टम" संदेश में दिशा का वर्णन करके अपने एआई की शैली और कार्य निर्धारित कर सकते हैं। ये संदेश एपीआई उपयोगकर्ताओं को कुछ सीमा के भीतर उपयोगकर्ता अनुभव को भारी रूप से अनुकूलित करने की अनुमति देते हैं। चूंकि ये संदेश मॉडल को "जेलब्रेक" करने का सबसे आसान तरीका भी हैं, इसलिए वे उन्हें और अधिक सुरक्षित बनाने पर भी काम कर रहे हैं। GPT-4 के लिए डेमो ने एक उपयोगकर्ता को GPT-4 को सुकराती ट्यूटर बनने से रोकने और उनकी क्वेरी का उत्तर देने की कोशिश करके इस बिंदु पर घर कर लिया। हालांकि, मॉडल ने चरित्र को तोड़ने से इनकार कर दिया।
4. सुरक्षा
OpenAI ने GPT-4 बनाने में छह महीने लगाए सुरक्षित और अधिक संरेखित. कंपनी का दावा है कि अनुपयुक्त या अन्यथा अस्वीकृत सामग्री के अनुरोधों का जवाब देने की संभावना 82% कम है, 29% अधिक संभावना है संवेदनशील अनुरोधों के लिए OpenAI की नीतियों के अनुसार प्रतिक्रिया दें, और वास्तविक प्रतिक्रियाओं की तुलना में 40% अधिक होने की संभावना है जीपीटी-3.5।
यह सही नहीं है, और आप अभी भी समय-समय पर "मतिभ्रम" की उम्मीद कर सकते हैं और इसकी भविष्यवाणियों में गलत हो सकते हैं। ज़रूर, GPT-4 में बेहतर धारणा और भविष्यवाणी शक्ति है, लेकिन आपको अभी भी AI पर आँख बंद करके भरोसा नहीं करना चाहिए।
5. कार्य में सुधार
मानव परीक्षाओं पर मॉडल के प्रदर्शन का मूल्यांकन करने के अलावा, OpenAI ने मशीन लर्निंग मॉडल के लिए डिज़ाइन किए गए पारंपरिक बेंचमार्क पर बॉट का मूल्यांकन भी किया।
यह दावा करता है कि GPT-4 "मौजूदा एलएलएम और" सबसे अत्याधुनिक मॉडल "काफी बेहतर प्रदर्शन करता है।" इन बेंचमार्क में शामिल हैं उपरोक्त MMLU, AI2 रीज़निंग चैलेंज (ARC), विनोग्रांडे, ह्यूमनएवल और ड्रॉप, ये सभी व्यक्तिगत क्षमताओं का परीक्षण करते हैं।
अकादमिक विजन बेंचमार्क पर प्रदर्शन की तुलना करने पर आपको समान परिणाम मिलेंगे। टेस्ट रन में VQAv2, TextVQA, चार्टQA, AI2 डायग्राम (AI2D), DocVQA, इन्फोग्राफिक VQA, TVQA, और LSMDC शामिल हैं, जिनमें से सभी GPT-4 में सबसे ऊपर हैं। हालाँकि, OpenAI ने कहा है कि इन परीक्षणों में GPT-4 के परिणाम "पूरी तरह से इसकी क्षमताओं की सीमा का प्रतिनिधित्व नहीं करते हैं" क्योंकि शोधकर्ता नई और अधिक चुनौतीपूर्ण चीजें ढूंढते रहते हैं जिनसे मॉडल निपट सकता है।
GPT-4 के लिए छोटा कदम, AI के लिए विशाल छलांग
अधिक सटीकता, उपयोग की सुरक्षा और उन्नत क्षमताओं के साथ, GPT-4 को जनता के लिए ChatGPT+ मासिक सदस्यता योजना के माध्यम से जारी किया गया है जिसकी लागत 20 प्रति माह है। इसके अतिरिक्त, OpenAI ने GPT-4 के साथ उपभोक्ता-उन्मुख उत्पादों का निर्माण शुरू करने के लिए विभिन्न संगठनों के साथ भागीदारी की है। माइक्रोसॉफ्ट बिंग, डुओलिंगो, स्ट्राइप, बी माई आइज़ और खान एकेडमी, अन्य लोगों के साथ-साथ, पहले ही अपने उत्पादों में जीपीटी-4 लागू कर चुके हैं।
GPT-4 GPT-3.5 पर एक वृद्धिशील अद्यतन हो सकता है, लेकिन कुल मिलाकर यह AI के लिए एक बड़ी जीत है। चूंकि मॉडल अपने एपीआई के माध्यम से औसत उपयोगकर्ता और डेवलपर्स दोनों के लिए अधिक सुलभ हो जाता है, ऐसा लगता है कि यह एलएलएम कार्यान्वयन के लिए सभी क्षेत्रों में एक अच्छा मामला बना देगा।