डिजिटल उपकरण और सॉफ्टवेयर रंग और लिंग भेद करते हैं?!

पूर्व-पश्चिम का भेद एक बात। भारत में तो सॉफ्टवेयर/आर्टीफीशियल इण्टेलिजेंस; सवर्ण-वंचित, पुरुष-महिला, गरीब-अमीर, शहरी-ग्रामीण आदि में भेदभाव के घटकों से भारत के समाज को आगे और बांटने वाला बन सकता है (अगर समाज इस विभेद को भांप पाये, तो)।


आर्टीफीशियल इण्टेलिजेंस (मशीनी बुद्धि) का युग शुरू हो रहा है। उत्तरोत्तर कार्य आदमी से हट कर डिजिटल सॉफ्टवेयर जनित बुद्धिमत्ता के हिस्से आता जायेगा। इसलिये कार्य करने के तरीके भी उसी प्रकार के लोगों से प्रभावित होंगे जो मशीनी बुद्धि के जनक हैं।

द इकॉनॉमिस्ट के ताजा अंक में लेख है कि विश्व के उपकरणों का डिजाइन गोरे आदमी के इर्दगिर्द हुआ है। मसलन पल्स ऑक्सीमीटर (जिसका कोरोना काल में बहुत प्रयोग हो रहा है) लगभग 12% बार काले आदमी में गोरे की अपेक्षा ऑक्सीजन का स्तर अधिक बताता है। यह त्वचा से प्रकाश के गुजरने के आधार पर तय होता है। चूंकि ऑक्सीमीटर के आंकड़े आधार पर लोगों को अस्पताल में भर्ती किये जाने का निर्णय किया जाता है, इसलिये गोरे आदमी को अस्पताल में जगह मिलने की सम्भावना बढ़ जाती है। और इसके भयानक परिणाम हो सकते हैं – सुपात्र अस्पताल में भर्ती होने से वंचित हो सकता है।

और भी उदाहरण हैं इंफॉर्मेशन टेक्नॉलॉजी के डोमेन में रंग भेद के। मसलन गोरे व्यक्ति को लीगल सॉफ्टवेयर काले की अपेक्षा कम सजा प्रस्तावित करता है।

इसी प्रकार लिंग भेद के भी उदाहरण हैं यंत्रों के डिजाइन में। कार की सीटबेल्ट का डिजाइन बहुधा आदमी को ध्यान में रख कर किया जाता है, औरत को ध्यान में रख कर नहीं।

लेख में अन्य उदाहरण इस प्रकार हैं –

  • चिकित्सा के एलगॉरिथ्म मैडिकल पर खर्च के विगत के आंकड़ों के आधार पर आगे की सुविधायें डिजाइन करते हैं। पर यह भी सत्य है कि काले लोग गोरों की अपेक्षा स्वास्थ्य पर काम खर्च करते हैं। इसलिये ये सॉफ्टवेयर उनके साथ बाई-डिजाइन भेदभाव करते हैं।
  • क्लिनिकल ट्रायल बहुधा गोरे आदमी के पक्ष में झुके होते हैं। औरतों को कम शामिल करने का तर्क यह होता है कि अगर वे ट्रायल के दौरान गर्भवती हो गयीं तो ट्रायल उसके भ्रूण को हानि पंहुचा सकता है। वे क्लिनिकल ट्रायल को और व्यापक बना कर इस घटक को अप्रभावी बना सकते हैं; पर वैसा किया नहीं जाता। अत: इन ट्रायल के परिणाम भेदभाव युक्त होते हैं।
  • मैडीकल उपकरणों की खरीद के सॉफ्टवेयर गोरों और पुरुषों के पक्ष में झुके हुये हैं। वे इस बात को ध्यान में रख कर डिजाइन नहीं किये जाते कि अस्पतालों में या डाक्टर के वेटिंग रूम में भीड़ किनकी होती है।
Photo by Nikita Krasnov on Pexels.com

उपभोक्ता सामग्री के सॉफ्टवेयर तो अंतत: बाजार की प्रतिस्पर्धा से सुधर जायेंगे। पर पॉलिसी तय करने के या लीगल सॉफ्टवेयर में यह अनुचित झुकाव चलेगा और उसके लिये शायद कालों और महिलाओं को, भविष्य में, अपनी आवाज उठानी पड़े।

तकनीकी विकास भी लोगों को आंदोलनों के मुद्दे प्रदान करता रहेगा। 😀

[…]

द इकॉनॉमिस्ट का यह लेख तो सम्भवत: अमेरिका या पश्चिम की ओर झुका हुआ है और वह कालों और महिलाओं से भेदभाव की ही बात करता है। पर, उसका तर्क आगे बढ़ाते हुये, यह भी कहा जा सकता है कि ग्लोबल डिजाइन और सॉफ्टवेयर पश्चिम-पूर्व का भी भेद करता है। सॉफ्टवेयर मुख्यत: पश्चिमी मानसिकता से बनाया जाता है – और भले ही भारत में वह बेंगलुरु में बना हो, उसमें पश्चिमोन्मुखी मानसिकता का ही बोलबाला होना स्वाभाविक (?) है।

पूर्व-पश्चिम का भेद एक बात। भारत में तो सॉफ्टवेयर/आर्टीफीशियल इण्टेलिजेंस; सवर्ण-वंचित, पुरुष-महिला, गरीब-अमीर, शहरी-ग्रामीण आदि में भेदभाव के घटकों से भारत के समाज को आगे और बांटने वाला बन सकता है (अगर समाज इस विभेद को भांप पाये, तो)।

आर्टीफीशियल इण्टेलिजेंस पर बहुत कुछ लिखा, कहा जायेगा। केवल तकनीकी लोगों द्वारा ही नहीं, समाजशास्त्रियों, मनोवैज्ञानिकों, कलाकारों, दार्शनिकों, इतिहासकारों, पुरातत्वविदों, अधिवक्ताओं, ऑकल्ट में दखल रखने वालों, ज्योतिषियों आदि सभी द्वारा कहा जायेगा। मेरी तो जिंदगी अपनी क्रियात्मकता के शिखर पर नहीं है, पर #गांवदेहात के एकांत में बैठे मुझ को भी यह क्षेत्र बहुत रोचक लगता है। जो जवान हैं, उनके लिये तो न केवल यह रोचक है; वरन बहुत चैलेंज और बहुत सम्भावनायें भी खोलता है!