हर बार चैटबोट कुछ गलत करता है, अधिकांश उपयोगकर्ताओं की पहली वृत्ति यह पूछना है कि गलती क्यों हुई। लेकिन भाषा मॉडल के साथ, वास्तविक लोगों के विपरीत, यह मदद नहीं करेगा। वे बस अपनी गलतियों का विश्लेषण नहीं कर सकते। सूचना पोर्ट arstechnica.com विवरण बोलनाक्यों।

पहली समस्या अवधारणा है। जब आप एक चैटबॉट से बात करते हैं, तो आप कुछ लोगों या स्थायी प्रकृति के साथ संवाद नहीं करते हैं। हां, चैट, क्लाउड, ग्रोक या फटकार तकनीकी रूप से नामित, लेकिन वे जानकार के योग्य नहीं हैं – यह सिर्फ संवाद इंटरफ़ेस द्वारा बनाया गया एक भ्रम है। वास्तव में, आप पाठ के आंकड़ों को नियंत्रित करते हैं, उपयोगकर्ता की आवश्यकताओं के आधार पर परिणाम प्रदान करते हैं।
दूसरे शब्दों में, कोई चैट या ग्रोक नहीं है। एक व्यक्ति एक प्रणाली के साथ बातचीत करता है जो डेटाबेस (आमतौर पर पुराना) में पाए गए नमूनों के आधार पर एक पूर्ण ऑडियो पाठ बनाता है। इस प्रणाली का अपना आत्म -समझ या सिस्टम ज्ञान नहीं है, साथ ही साथ खुद को याद रखने की क्षमता भी है।
एक भाषा मॉडल का अध्ययन करने के बाद, इसमें बहुत समय और संसाधन लगते हैं, दुनिया के बारे में इसका बुनियादी ज्ञान एक तंत्रिका नेटवर्क में सील हो जाता है और इसे शायद ही कभी संशोधित किया जाता है। कोई भी बाहरी जानकारी वास्तविक समय में डेटा खोजने के लिए BOT आवश्यकताओं, उपयोगकर्ता उपकरण या सॉफ़्टवेयर से आती है।
उदाहरण के लिए, यदि आप ग्रोक लेते हैं, तो उत्तर के लिए जानकारी का मुख्य स्रोत सोशल नेटवर्क पर हाल के पदों से एक दूसरे के विपरीत हो सकता है। ज्ञान नहीं, जैसा कि सभी के मामले में। और अगर यह जानकारी पर्याप्त नहीं है, तो मॉडल पाठ की भविष्यवाणी करने की क्षमता के कारण बस कुछ देगा।
नंबर दो – जो कई कारणों से अपनी क्षमताओं को नहीं समझ सकते हैं। एक नियम के रूप में, उनके पास डेटा नहीं है कि वे कैसे शोध करते हैं, आसपास के सिस्टम आर्किटेक्चर उनके लिए उपलब्ध नहीं है, वे अपने प्रदर्शन की सीमाओं को निर्धारित नहीं कर सकते हैं। यदि आप चैटबॉट से पूछते हैं कि वह क्या कर सकता है और क्या नहीं है, तो वह पिछले भाषा मॉडल की सीमाओं के बारे में वे क्या कहते हैं, इसके आधार पर प्रतिक्रिया देंगे। वास्तव में, वह बस एक अनुमान के साथ जवाब देगा, और अपने बारे में व्यावहारिक जानकारी नहीं।
2024 में अनुसंधान ने एक प्रयोग की मदद से इस बारीकियों को साबित किया। यद्यपि मॉडल II को प्रशिक्षित किया जा सकता है ताकि वे सरल कार्यों में अपने स्वयं के व्यवहार की भविष्यवाणी कर सकें, वे लगातार अधिक जटिल कार्यों में विफल हो जाते हैं। उसी तरह, वाइकिंग के पुनरावर्ती परिचय पर शोध से पता चलता है कि बाहर से कोई प्रतिक्रिया नहीं है, जो मॉडल की उत्पादकता में कमी के लिए अपनी गलतियों को ठीक करने की कोशिश करता है। अर्थात्, एआई का आत्म -एस्टीम बदतर है, बेहतर नहीं है।
कभी -कभी यह विरोधाभासी स्थितियों की ओर जाता है। मॉडल आत्मविश्वास से कह सकता है कि यह कार्यों को पूरा नहीं कर सकता है, लेकिन वास्तव में, उसके कंधे पर और इसके विपरीत, उपयोगकर्ताओं को आश्वासन देता है कि वह वही कर सकता है जो असंभव है। हमें यह नहीं भूलना चाहिए कि, किसी से यह पूछने के बारे में कि उसने गलती की है, उपयोगकर्ताओं को बनाए गए पाठ का एक और हिस्सा प्राप्त होगा और त्रुटि का वास्तविक विश्लेषण नहीं।
भाषा मॉडल का नकारात्मक पक्ष यह है कि उनके पास एक स्थिर और सस्ती ज्ञान का आधार नहीं है जिसे आप हमेशा संपर्क कर सकते हैं। उनका ज्ञान केवल विशिष्ट आवश्यकताओं को पूरा करने के लिए खुद को व्यक्त करता है; प्रत्येक उपयोगकर्ता का अनुरोध एक पता प्रकार की भूमिका निभाता है जो डेटाबेस के विभिन्न भागों को संदर्भित करता है जिसे वह प्रशिक्षित करता है। यह वही है जो विरोधाभासी उत्तरों की ओर जाता है।
लेकिन यहां तक कि अगर II को अपने स्वयं के तंत्र के बारे में एक आदर्श ज्ञान है, तो अनुप्रयोगों के बॉट चैट की अन्य परतें घुसने में सक्षम नहीं हो सकती हैं। इसलिए, आधुनिक Aisstros, जैसे कि TATGPT, एक भी मॉडल नहीं है, बल्कि विभिन्न मॉडल सहित बड़े सिस्टम एक साथ काम करते हैं। उनमें से प्रत्येक, अधिकांश, दूसरों के अस्तित्व के बारे में नहीं जानता है। इसलिए, किसी को भी त्रुटियों के बारे में पूछना जैसे कि एक बड़ी कंपनी का एक हिस्सा पूछना कि दूसरे हिस्से में क्या हो रहा है, उन्होंने कभी संपर्क नहीं किया।
अंत में, सबसे महत्वपूर्ण बिंदु यह है कि उपयोगकर्ता लगभग हमेशा किसी के उत्तर को प्रभावित करता है – कोई फर्क नहीं पड़ता कि वे जानते हैं या नहीं। यदि आप हॉरर में चैटबॉट से पूछते हैं, क्या उसने कार्यक्रम के रिकॉर्ड या कोड को नष्ट कर दिया है, तो वह उस हां का जवाब देगा, क्योंकि यह विकल्प अनुरोध के भावनात्मक संदर्भ के लिए उपयुक्त है।