क्या AI भी करता है भेदभाव? जानिए कैसे डेटा बना रहा है इसे पक्षपाती

आर्टिफिशियल इंटेलिजेंस (AI) का उपयोग आज बैंकिंग, शिक्षा, रोजगार और कई अन्य क्षेत्रों में तेजी से बढ़ रहा है, लेकिन इसके साथ एक गंभीर चिंता भी सामने आ रही है। विशेषज्ञों का कहना है कि AI पूरी तरह निष्पक्ष नहीं होता, बल्कि यह भी इंसानों की तरह पक्षपाती हो सकता है। इसकी मुख्य वजह है वह डेटा, जिस पर AI को प्रशिक्षित किया जाता है।

दरअसल, AI सिस्टम इंटरनेट और ऐतिहासिक आंकड़ों से सीखते हैं। यदि इन आंकड़ों में पहले से किसी तरह का भेदभाव मौजूद है, तो AI भी उसी पैटर्न को दोहराने लगता है। उदाहरण के तौर पर, अगर किसी जॉब रिक्रूटमेंट सिस्टम को ऐसे डेटा पर ट्रेन किया गया है, जिसमें पुरुषों का वर्चस्व रहा हो, तो यह महिलाओं के रिज्यूमे को कम प्राथमिकता दे सकता है।

इसी तरह बैंकिंग सेक्टर में भी AI आधारित लोन या क्रेडिट स्कोरिंग सिस्टम में पक्षपात देखने को मिल सकता है। यदि पुराने डेटा में पिछड़ी जातियों या कमजोर वर्गों की आय कम दिखाई गई है, तो AI उन्हें जोखिमपूर्ण ग्राहक मानकर लोन देने से इनकार कर सकता है या ऊंची ब्याज दर लागू कर सकता है।

भाषाई पक्षपात भी एक बड़ी चुनौती है। अधिकांश AI मॉडल अंग्रेज़ी डेटा पर आधारित होते हैं, जिससे हिंदी या अन्य भारतीय भाषाओं में दिए गए सवालों के जवाब कई बार गलत या अधूरे हो सकते हैं। इसके अलावा, सोशल मीडिया एल्गोरिद्म विवादित और तीखे विचारों को अधिक बढ़ावा देते हैं, जिससे AI गलत धारणाओं को भी सच मानकर प्रस्तुत कर सकता है।

विशेषज्ञों का मानना है कि इस समस्या का समाधान विविध और समावेशी डेटा में छिपा है। अलग-अलग समुदायों, भाषाओं और क्षेत्रों से डेटा इकट्ठा करना बेहद जरूरी है। साथ ही, भारत जैसे देश के लिए स्थानीय जरूरतों को ध्यान में रखते हुए AI टूल्स का विकास भी अनिवार्य हो गया है।

खासतौर पर न्यायपालिका जैसे संवेदनशील क्षेत्रों में AI के उपयोग के लिए पारदर्शिता और विश्वसनीयता बेहद जरूरी है। जब तक सिस्टम पारदर्शी नहीं होगा, तब तक निष्पक्ष निर्णय की उम्मीद करना मुश्किल है। ऐसे में AI को समाज के लिए उपयोगी बनाने के लिए संतुलित, समावेशी और पारदर्शी डेटा सबसे महत्वपूर्ण भूमिका निभाएगा।

 

Leave A Reply

Your email address will not be published.