जेनरेटिव AI में घातक रूप से क्या कमी है: स्वाभिमान, विश्वास, जिम्मेदारी और 'मैं'
प्रस्तावना
पूर्व में वॉक-इन क्लोसेट रहा यह छोटा अध्ययन कक्ष देर रात तक जेनरेटिव AI से की गई बातचीत का गवाह था। ओबोन अवकाश होना चाहिए था, पर मैं नींद से वंचित होता गया, ChatGPT को प्रश्न भेजता और उसके उत्तरों पर कभी उल्लास तो कभी झुंझलाहट के साथ प्रतिक्रिया देता रहा।
टिप्पणी उन पाठकों के लिए जो जापान के ओबोन पर्व से परिचित नहीं हैं: ओबोन अगस्त के मध्य में मनाया जाने वाला पूर्वजों को सम्मानित करने वाला जापानी पर्व है; इस दौरान कई कंपनियाँ अवकाश देती हैं और परिवार स्मरण समारोह के लिए अपने गृह नगर लौटते हैं। कभी वह “कमाल है!” कहलवाने लायक उत्तर देती, तो कभी इतना बेतुका जवाब लौटाती कि क्रोध आ जाता।
ऐसे ही कई घंटे दोहराने के बाद एक बात बिल्कुल साफ़ हो गई।
—जेनरेटिव AI में कुछ ऐसा है जिसकी कमी घातक है।
वह है स्वाभिमान, विश्वास और जिम्मेदारी की भावना।
मैं खुद मानसिकता या जज़्बे के आधार पर तर्क करना पसंद नहीं करता, इसलिए सच कहूँ तो ये शब्द इस्तेमाल करना भी नहीं चाहता था। फिर भी कितने ही विकल्प खोजे, अंत में वापस यही शब्दों पर ठहरना पड़ा।
और तब धीरे-धीरे महसूस हुआ कि शायद यही कारण है कि जेनरेटिव AI मनुष्यों का विकल्प नहीं बन सकता।
पेशेवरों से हमारी अपेक्षा क्या होती है
हम विशेषज्ञों से ज्ञान और कौशल के साथ-साथ नैतिक रुख की भी उम्मीद करते हैं।
मान लीजिए एसी लगाने वाला ठेकेदार ग्राहक द्वारा बताए स्थान पर दीवार में छेद करने जाता है और वहाँ कोई मुख्य स्तंभ मिलता है। वह यह कहकर नहीं बच सकता कि “ग्राहक ने कहा था, इसलिए मेरी जिम्मेदारी नहीं है।” कानूनी जिम्मेदारी पर बहस हो सकती है, पर नैतिक जिम्मेदारी से इनकार नहीं किया जा सकता। ग्राहक भी निर्देशों का पालन मात्र नहीं, बल्कि जोखिम बताकर बेहतर सुझाव पाने की उम्मीद रखते हैं।
स्वाभिमान, विश्वास और जिम्मेदारी की यही त्रयी है जिसे हम पेशेवरों से अपेक्षित मानते हैं।
जेनरेटिव AI कहाँ खड़ा है और उसकी सीमाएँ क्या हैं
जेनरेटिव AI ज्ञान और भाषा की नकल बेहद कुशलता से करता है। लेकिन वह “यह मेरे स्वाभिमान के विरुद्ध है” कहकर इंकार नहीं करता, न ही “मैं सामने वाले की सुरक्षा की जिम्मेदारी लेता हूँ” जैसा रुख अपनाता है।
वर्तमान में इस कमी को सेवा प्रदाताओं की निर्धारित नीतियों से भरा जा रहा है।
असामाजिक उपयोग या वयस्क सामग्री पर प्रतिबंध जैसी स्पष्ट रेखाएँ खींचना संभव है। लेकिन “क्या विशेषज्ञ के रूप में बेहतर प्रस्ताव देना चाहिए” जैसे धुंधले सवालों पर वह कमजोर पड़ जाता है।
उपयोगकर्ता प्रॉम्प्ट में जितना सूक्ष्म निर्देश जोड़ें, उतना कुछ सुधार होता है, पर तब AI उस रसोइए जैसा प्रतीत होता है जो विधि अक्षरशः मानकर भी पकवान का स्वाद नहीं चखता। रेसिपी में न लिखी कोई पूर्वधारणा या बाहरी कारक आते ही परिणाम बेहद खराब हो सकता है, और AI बिना हिचके वही परोस देता है। वह न घबराकर दोबारा बनाता है, न शर्म महसूस करता है।
क्यों फिलहाल मनुष्य अनिवार्य हैं
इसी कारण फिलहाल यह ढाँचा आवश्यक है जिसमें मनुष्य AI को जिम्मेदार समेकक की तरह संभालें।
नैतिकता, कानून, विकास संबंधी मार्गदर्शिकाएँ और उपयोगकर्ता शिक्षा—सब “AI मनुष्य की सहायता भर है” इस पूर्वधारणा पर टिके हैं।
हालांकि यह केवल वर्तमान की झलक है। भविष्य में AI जिम्मेदारी का अनुकरण कर पाएगा या नहीं, इसे पूरी तरह नकारा नहीं जा सकता।
दुनिया भर में जारी शोध और प्रयास
AI को “जिम्मेदारी जैसी” कुछ देने के प्रयास शुरू हो चुके हैं।
- वर्णनात्मक नैतिकता (Delphi): अच्छे और बुरे को AI को सिखाने की कोशिश, पर संगति और पक्षपात की समस्याएँ बनी हुई हैं।
- Meaningful Human Control: ऐसा डिज़ाइन सिद्धांत जो AI को पूर्ण स्वायत्तता नहीं देता और अंतिम नियंत्रण मनुष्य के पास रखता है, खासकर स्वचालित वाहन और सैन्य संदर्भों में।
- मूल्य अधिगम (Value Learning): मानव व्यवहार और प्रतिक्रिया से मूल्य प्रणाली का अनुमान लगाकर नैतिक विचलन घटाने का शोध।
- NIST AI RMF जैसी रूपरेखाएँ: जिम्मेदार AI बनाने के लिए तैयार की गई व्यापक संस्थागत पहलें।
ये अब भी शुरुआती अवस्था में हैं, पर भविष्य में AI को “जिम्मेदारी निभाते हुए दिखने” का आधार प्रदान कर सकती हैं।
जिम्मेदारी का अनुकरण करना वास्तव में क्या अर्थ रखता है?
यहाँ ठहरकर सोचना चाहिए कि जिम्मेदारी का “अनुकरण” करना क्या मतलब रखता है।
जिम्मेदारी को कम से कम दो परतों में समझा जा सकता है।
- परिणाम की जिम्मेदारी: अपने कृत्यों के नतीजों को स्वीकार करना।
- उत्तरदायित्व: दूसरों के प्रश्नों और अपेक्षाओं का जवाब देना।
AI जो कर सकता है, वह है जोखिमों पर नज़र रखना, चेतावनी देना और अपनी तर्क प्रक्रिया को पारदर्शी बनाना।
अर्थात AI अधिकतम पारदर्शिता और आत्म-नियंत्रण के रूप में जिम्मेदारी का अनुकरण कर पाता है।
फिर भी यह संभावना नकारा नहीं जा सकती कि मानव बुद्धि और जिम्मेदारी का भाव भी मस्तिष्क द्वारा रचा गया एक सिमुलेशन ही हो।
इसके बावजूद मुझे आज के AI और कुछ मनुष्यों के पास मौजूद स्वाभिमान, विश्वास और जिम्मेदारी के बीच स्पष्ट अंतर महसूस होता है। तो यह अंतर कहाँ से आता है?
मनुष्य और AI के बीच यह अंतर किन कारणों से पैदा होता है
मुझे लगता है कि यह अंतर मुख्यतः तीन कारणों से बनता है।
-
शारीरिक और सामाजिक पीड़ा
मनुष्य गलती करता है तो आर्थिक नुकसान, सामाजिक निंदा या मानसिक तनाव झेलता है। यही पीड़ा जिम्मेदारी को वास्तविक बनाती है। AI असफलता का रिकॉर्ड तो रख सकता है, पर उसे “पीड़ा” की तरह महसूस नहीं कर सकता। -
समय के पार एकरूपता
मनुष्य को अपने कथनों और आचरण के परिणाम वर्षों बाद भी सहने पड़ते हैं। डॉक्टर की गलत निदान कई वर्ष बाद भी सवालों के घेरे में आ सकती है। AI अगले ही पल विपरीत बात कह सकता है और उस पर कोई बोझ नहीं रहता। -
मूल्य प्रणाली और पहचान
मनुष्य कह सकता है, “यह मेरा विश्वास है, इसलिए पीछे नहीं हटूँगा।” यह समाज और संस्कृति से जुड़कर पहचान बनाता है। AI के पास ऐसी पहचान नहीं, वह परिस्थितियों के अनुसार भूमिका बदल देता है।
इस प्रकार जिम्मेदारी का भाव पीड़ा, एकरूपता और मूल्य प्रणाली से जुड़कर गहराता है। पर साथ ही ऐसे मनुष्य भी हैं जो गैर-जिम्मेदार होते हैं या जिनमें नैतिकता की कमी होती है।
इसलिए यह अंतर शायद मनुष्य और AI के किसी मौलिक भेद से नहीं, बल्कि जिम्मेदारी को सहारा देने वाले सामाजिक अनुभवों और संबद्धता की संरचनाओं की मौजूदगी से पैदा होता है।
“मैं” और जिम्मेदारी
यहाँ डेसकार्ट के कथन “मैं सोचता हूँ, इसलिए मैं हूँ” की याद आती है।
जिम्मेदारी का एहसास केवल नियमों का पालन नहीं, बल्कि “मैं” को सौंपे गए अनुभवों पर निर्भर करता है। पीड़ा, पछतावा, संदेह और बेचैनी जैसे अंतरंग अनुभव “मैं जिम्मेदार हूँ” की अनुभूति बनाते हैं।
वर्तमान AI के पास यह “मैं” नहीं है। इनपुट और आउटपुट को जोड़ने की प्रक्रिया है, पर पीड़ा को वापस अपने ऊपर महसूस करने की क्षमता नहीं, न शर्म या स्वाभिमान जीने का कोई तंत्र। इसलिए हम उसमें जिम्मेदारी पहचानने में कठिनाई महसूस करते हैं, और जेनरेटिव AI कभी-कभी इतनी लापरवाही से उत्तर देता है कि वह एक गैर-जिम्मेदार मनुष्य जैसा लगता है।
संभव है कि मानव की जिम्मेदारी भी मस्तिष्क का एक सिमुलेशन मात्र हो। फिर भी आज का AI सक्षम मनुष्यों द्वारा निभाई जा सकने वाली जिम्मेदारी के सिमुलेशन तक नहीं पहुँच पाया है। शायद असली प्रश्न यह है कि AI द्वारा अनुकरण की गई जिम्मेदारी समाज में व्यवहारिक रूप से काम कर सकती है या नहीं।
सारांश और आगे का प्रश्न
- जेनरेटिव AI में स्वाभिमान, विश्वास और जिम्मेदारी की भावना का अभाव है।
- फिलहाल मनुष्यों को जिम्मेदार समेकक मानकर डिज़ाइन और संचालन करना अनिवार्य है।
- “जिम्मेदारी के सिमुलेशन” पर शोध दुनिया भर में जारी है, पर “मैं” के बिना AI सक्षम मनुष्यों से काफी पीछे है।
- यह भी संभव है कि मानव जिम्मेदारी खुद एक सिमुलेशन हो।
आखिरकार सवाल सरल है।
क्या हम AI में “पीड़ा” लागू कर सकते हैं?
शायद यही जिम्मेदारी और “मैं” की न्यूनतम शर्त हो।
उत्तर अभी हमारे पास नहीं है।
लेकिन जब तक यह प्रश्न हमारे हाथ में है, AI और मनुष्य के भविष्य पर चर्चा का मार्ग खुला है। और जिस दिन उत्तर मिल गया—क्या AI सचमुच हमारा पड़ोसी बनेगा, या उसी क्षण हमें प्रतिस्थापित कर देगा?