कंप्यूटर कोड
कंप्यूटर में डेटा अक्षर, विशेष वर्ण और अंकों में हो सकता है। इसलिए, उन्हें अल्फ़ान्यूमेरिक डेटा कहा जाता है। डेटा में प्रत्येक अक्षर, प्रतीक या अंक को एक विशेष कोड द्वारा दर्शाया जाता है।
बाइनरी कोडेड दशमलव (BCD – Binary Coded Decimal)
इसमें पूरे दशमलव संख्या को बाइनरी में बदलने के बजाय, दशमलव संख्या के प्रत्येक अंक को उसके चार अंकों के बाइनरी समकक्ष में बदल दिया जाता है (रेटिंग)से बदलो (प्रतिस्थापित)पूरा हो गया है। इसे 4 बिट बीसीडी कोड कहते हैं।
ASCII (ASCII – सूचना विनिमय के लिए अमेरिकी मानक कोड)
ASCII 1963 में ANSI (अमेरिकन नेशनल स्टैंडर्ड इंस्टीट्यूट) द्वारा शुरू किया गया एक लोकप्रिय कोडिंग सिस्टम है। इसमें एक कैरेक्टर के लिए 8 बिट्स और तेजी से प्रतिनिधित्व के लिए हेक्साडेसिमल नंबर सिस्टम का उपयोग किया गया था। कंप्यूटर के कीबोर्ड में इस्तेमाल होने वाले हर कैरेक्टर को एक विशेष ASCII कोड दिया जाता है। इसमें एक कैरेक्टर के लिए 8 बिट का इस्तेमाल किया जाता है।
यूनिकोड-यूनिवर्सल कोड
कंप्यूटर के बढ़ते उपयोग और विभिन्न भाषाओं में कंप्यूटर के उपयोग ने एक सार्वजनिक कोड की आवश्यकता को जन्म दिया जिसमें दुनिया में प्रत्येक वर्ण के लिए एक अलग कोड निर्धारित किया गया है ताकि इसे हर भाषा, हर कार्यक्रम और में इस्तेमाल किया जा सके। हर सॉफ्टवेयर। इसके लिए यूनिकोड की व्यवस्था की गई थी, जो एक लाख वर्णों का प्रतिनिधित्व करने की क्षमता रखता है।
यूनिकोड विश्व की सभी भाषाओं में प्रयुक्त होने वाले पहले 256 वर्णों का प्रतिनिधित्व ASCII कोड के समान ही है। इसमें प्रत्येक वर्ण को 32 बिट्स में दर्शाया जाता है। यूनिकोड में तीन प्रकार की व्यवस्था का प्रयोग किया जाता है।
i. UTF-8 (UTF-8-यूनिकोड परिवर्तन प्रारूप-8)
यूटीएफ -8 प्रारूप में सभी यूनिकोड वर्ण एक, दो, तीन या चार बाइट्स के कोड में परिवर्तित हो जाते हैं।
ii. UTF-16 (UTF-16)
इस प्रारूप में, यूनिकोड वर्णों को एक या दो शब्दों (1 शब्द = 16 बिट) के कोड में परिवर्तित किया जाता है। इसलिए इसे Word Oriented Format भी कहते हैं।
iii. UTF-32 (UTF-32)
इस कोड में सभी अक्षरों को दो शब्दों यानी 32 बिट यूनिकोड में बदल दिया जाता है।
Originally posted 2022-01-06 16:04:00.