पिछले छह दशकों में, अभिकलनात्मक भाषाविदों ने भाषा को मॉडल करने के लिए विभिन्न तरीकों का पता लगाया है, हाल ही में चैटजीपीटी जैसे बड़े भाषा मॉडल (एलएलएम) का उपयोग करके संभावित उत्तर पाए गए हैं। प्रारंभिक दृष्टिकोणों ने नोम चॉम्स्की के औपचारिक व्याकरण और कठोर शब्दार्थ का उपयोग किया, जिसने अर्थ की तरल प्रकृति के साथ संघर्ष किया। 1990 के दशक में, एन-ग्राम पर आधारित सांख्यिकीय मॉडल पेश किए गए, जो शब्दों के सह-अस्तित्व की संभावनाओं के माध्यम से भाषा का वर्णन करते हैं। उदाहरण के लिए, "io vedo" [मैं देखता हूं] "io casa" [मैं घर] से अधिक बार होता है। इन मॉडलों ने भाषाई विश्लेषण को स्वचालित किया, लेकिन अर्थ को शब्द निकटता तक कम कर दिया। ट्रांसफॉर्मर नेटवर्क पर आधारित एलएलएम के आगमन ने एक क्रांति ला दी। एलएलएम एक वाक्य में अगले शब्द की भविष्यवाणी करके सीखते हैं, एक प्रक्रिया जो पूरे वेब टेक्स्ट में दोहराई जाती है। यह उन्हें शब्दों की भविष्यवाणी करने और पाठ निरंतरता उत्पन्न करने में सक्षम बनाता है। एलएलएम ने शब्द आवृत्तियों के बड़े पैमाने पर सांख्यिकीय विश्लेषण को सुगम बनाया है, जिससे भाषा की फ्रैक्टल प्रकृति का पता चला है। फ्रैक्टल की तरह, भाषा विभिन्न पैमानों पर स्व-समानता प्रदर्शित करती है, जिसमें सुसंगतता जैसे गुण शब्दों, वाक्यों और पूरे ग्रंथों में दिखाई देते हैं। लंबी दूरी के सहसंबंध दूर के शब्दों या पैराग्राफों को अर्थपूर्ण रूप से जोड़ते हैं। एलएलएम स्थानीय जानकारी को सामान्य बनाने और माइकल पोलानी द्वारा परिभाषित अनुभव के माध्यम से प्राप्त मौन ज्ञान को मॉडल करने की क्षमता के कारण सफल होते हैं। भाषाविद् अब मानव भाषा को एक अराजक, जटिल घटना के रूप में पहचानते हैं, एलएलएम इसकी जटिलताओं का अध्ययन करने के लिए उपकरण के रूप में काम करते हैं।
चैटजीपीटी मॉडल मानव भाषा की फ्रैक्टल प्रकृति को उजागर करते हैं
द्वारा संपादित: Vera Mo
इस विषय पर और अधिक समाचार पढ़ें:
क्या आपने कोई गलती या अशुद्धि पाई?
हम जल्द ही आपकी टिप्पणियों पर विचार करेंगे।