Human-level performance ChatGPT: OpenAI ने अपने उत्पादों में GPT-4 को एकीकृत करने के लिए डुओलिंगो, स्ट्राइप और खान अकादमी सहित कई कंपनियों के साथ भागीदारी की है।
OpenAI ने आधिकारिक तौर पर अपने नवीनतम AI भाषा मॉडल, GPT-4 को जारी करने की घोषणा की है। कंपनी का दावा है कि यह मॉडल “पहले से कहीं अधिक रचनात्मक और सहयोगी है” और अपने पूर्ववर्तियों की तुलना में कठिन समस्याओं को अधिक सटीकता के साथ हल करने में सक्षम है। GPT-4 पाठ और छवि इनपुट दोनों को पार्स कर सकता है, हालाँकि यह केवल पाठ के माध्यम से प्रतिक्रिया दे सकता है।

यह ध्यान रखना महत्वपूर्ण है
GPT-4 पहले के भाषा मॉडल जैसी ही कई समस्याओं को बरकरार रखता है, जिसमें जानकारी बनाने की क्षमता (या “भ्रम”) शामिल है। OpenAI ने चेतावनी दी है कि मॉडल में अभी भी सितंबर 2021 के बाद होने वाली घटनाओं के बारे में ज्ञान का अभाव है।
OpenAI के सीईओ सैम अल्टमैन ने GPT-4 की घोषणा करते हुए ट्विटर पर लिखा, “यह अभी भी त्रुटिपूर्ण है, अभी भी सीमित है, और यह अभी भी आपके द्वारा इसके साथ अधिक समय बिताने के बाद पहले उपयोग पर अधिक प्रभावशाली लगता है।”
जबकि OpenAI ने अपनी वेबसाइट पर कहा,
“GPT-4 एक बड़ा मल्टीमॉडल मॉडल है (इमेज और टेक्स्ट इनपुट स्वीकार करते हुए, टेक्स्ट आउटपुट उत्सर्जित करते हुए) जो कई वास्तविक दुनिया के परिदृश्यों में मनुष्यों की तुलना में कम सक्षम है, विभिन्न पेशेवर और मानव-स्तरीय प्रदर्शन प्रदर्शित करता है। अकादमिक बेंचमार्क।”
इन सीमाओं के बावजूद, OpenAI ने अपने उत्पादों में GPT-4 को एकीकृत करने के लिए डुओलिंगो, स्ट्राइप और खान अकादमी सहित कई कंपनियों के साथ भागीदारी की है। नवीनतम मॉडल को वे लोग एक्सेस कर सकते हैं जिनके पास ChatGPT Plus, OpenAI का $20 मासिक ChatGPT सब्सक्रिप्शन है। यह माइक्रोसॉफ्ट के बिंग चैटबॉट को भी सशक्त कर रहा है और डेवलपर्स के निर्माण के लिए एपीआई के रूप में पहुंच योग्य होगा।
OpenAI सुझाव देता है
GPT-4 और इसके पूर्ववर्ती GPT-3.5 के बीच का अंतर रोजमर्रा की बातचीत में आसानी से ध्यान देने योग्य नहीं है। कंपनी का दावा है कि GPT-4 के सुधार यूनिफ़ॉर्म बार परीक्षा, LSAT, SAT गणित और SAT साक्ष्य-आधारित पठन और लेखन परीक्षाओं जैसे विभिन्न परीक्षणों और बेंचमार्क पर इसके प्रदर्शन में स्पष्ट हैं। GPT-4 ने इन परीक्षाओं में 88वां प्रतिशतक या इससे अधिक अंक प्राप्त किए।
GPT-4 वास्तव में मल्टीमॉडल है, लेकिन यह केवल टेक्स्ट और इमेज इनपुट स्वीकार कर सकता है और टेक्स्ट आउटपुट उत्सर्जित कर सकता है। हालांकि, पाठ और छवियों को एक साथ पार्स करने की मॉडल की क्षमता इसे और अधिक जटिल इनपुट की व्याख्या करने की अनुमति देती है।