AI के युग मेंभाईचारा

मानव समाज के शांतिपूर्ण साझा जीवन और साझा ज़िम्मेदारी के लिए वैश्विक अपील

रोम, 12 सितंबर, 2025


परम पवित्र महामहिम पोप लियो XIV के लिए
सभी वैश्विक लीडर्स के लिए
सभी सद्भावना रखने वाले लोगों के लिए

हिन्दी संस्करण (इन भाषाओं में भी उपलब्ध है العربية-الإمارات, Deutsch, English , Español-España, Français-Canada, Français, עברית-ישראל, हिन्दी-भारत, Italiano, 日本語, 한국어, Magyar, Português-Brasil, Svenska, 简体中文)

इंसानों द्वारा समाज और फ़ैसलों को दिशा देने वाले भविष्य की आकांक्षा से प्रेरित होकर, हम, यानी अलग-अलग देशों और पृष्ठभूमियों से आए विशेषज्ञों, तकनीकी लीडर्स, वैचारिक लीडर्स और विद्वानों की यह स्वतंत्र गोलमेज सभा, यह आग्रह करती है कि AI का विकास हमेशा लोगों के द्वारा और लोगों के हित में ज़िम्मेदारी से किया जाए।

AI के विषय में हम आज जो भी फ़ैसले लेंगे, उन्हीं की बुनियाद पर यह तय होगा कि हम आने वाली पीढ़ियों को विरासत में कैसी दुनिया सौंपकर जाएँगे। AI पहले से ही काफ़ी नुकसान पहुँचा रहा है, असमानताओं को बढ़ा रहा है, कुछ लोगों के हाथों में ताकत को केंद्रित कर रहा है और पर्यावरण को नुकसान पहुँचा रहा है। इंसानी बुद्धिमत्ता से आगे निकलने की संभावना रखने वाली इन एजेंटिक टेक्नोलॉजीज़ के विकास पर लगातार और बहुत ज़्यादा मात्रा में धनराशि खर्च की जा रही है, जिन्हें AI शोध समुदाय से जुड़े कई लोग “सुपर इंटेलिजेंस” का नाम देते हैं। इन चुनौतियों की वजह से नैतिकता की बाग-डोर संभालना और तत्काल ठोस कदम उठाना ज़रूरी हो गया है।

आर्टिफ़िशियल इंटेलिजेंस वैज्ञानिक खोज और इंसानों की पारस्परिक समझ को आगे ले जाने, हेल्थकेयर क्षेत्र में बदलाव लाने, गवर्नेंस में सुधार करने और मोटे तौर पर देखा जाए तो, सस्टेनेबल, समावेशी समृद्धि लाने के शानदार अवसर पेश करता है। हालाँकि, जैसा कि AI सुरक्षा पर तैयार की गई अंतरराष्ट्रीय साइंटिफ़िक रिपोर्ट में बताया गया है, आर्टिफ़िशियल इंटेलिजेंस के गंभीर खतरे भी हैं, जिनमें रोज़गार का संकट, व्यक्तिगत स्वतंत्रता में कमी, शक्ति संघर्ष, भ्रामक जानकारी और हेर-फेर, बड़े पैमाने पर निगरानी, पर्यावरण पर दुष्प्रभाव और मानव कल्याण की राह में आने वाले खतरे शामिल हैं।

लागतों और जोखिमों को कम करते हुए, किसी भी तरह के जायज़ और संभावित अवसरों कालाभ उठाने के लिए, इंसानों के फलने-फूलने के लिए एक ठोस बुनियाद बनाना और ऐसी सीमाएँ निर्धारित करना ज़रूरी है, जिनकी बुनियाद गरिमा, समुदाय, इंसान और पर्यावरण के अधिकारों और जवाबदेही पर आधारित हो।

भाईचारे, आशा और सावधानी की भावना के साथ, हम आपके नेताओं से आह्वान करते हैं कि वे नीचे दिए गए सिद्धांतों और सीमा-रेखाओं को ध्यान में रखते हुए इस विषय पर चर्चा को बढ़ावा दें और मनन करें कि AI पूरे मानव समाज की सबसे अच्छी तरह सेवा कैसे कर सकता है :

  • मानव जीवन और गरिमा : AI का विकास या इस्तेमाल कभी भी ऐसे तरीकों से नहीं किया जाना चाहिए, जो मानव जीवन, उनकी गरिमा या उनके मौलिक अधिकारों को खतरे में डालें, उन्हें खोखला करें या उनसे वंचित करें। इंसानी बुद्धिमत्ता – यानी हमारे विवेक, नैतिक तर्कशक्ति और सत्य व सौंदर्य के प्रति झुकाव को आर्टिफ़िशियल प्रोसेसिंग द्वारा, चाहे वह कितनी भी जटिल क्यों न हो, कभी भी कमतर नहीं आँका जाना चाहिए।
  • AI का इस्तेमाल एक टूल के रूप में किया जाना चाहिए, अथॉरिटी की तरह नहीं : AI पर हमेशा इंसानों का नियंत्रण बना रहना चाहिए। नियंत्रित न किए जा सकने वाली प्रणालियाँ बनाना या आर्टिफ़िशियल इंटेलिजेंस पर फ़ैसले लेने का ज़रूरत से ज़्यादा बोझ डालना नैतिक रूप से अस्वीकार्य है और इस पर कानूनी प्रतिबंध लगाया जाना चाहिए। इसलिए, सुपर इंटेलिजेंस (जैसा कि ऊपर बताया गया है) AI तकनीकों के विकास की तब तक अनुमति नहीं दी जानी चाहिए, जब तक कि वैज्ञानिक समुदाय की इस पर व्यापक सहमति न हो कि ऐसा सुरक्षित रूप से और नियंत्रण में रहकर किया जाएगा और साथ ही आम जनता की ओर से भी इस पर स्पष्ट और व्यापक सहमति मिलनी चाहिए।
  • जवाबदेही : नैतिक और कानूनी जवाबदेही का अधिकार सिर्फ़ इंसानों के पास है। AI प्रणालियाँ हमेशा केवल एक साधन और कानूनी वस्तु रहेंगी, लेकिन उन्हें कभी भी कर्ता बनने का अधिकार नहीं दिया जा सकता। ज़िम्मेदारी और दायित्व डेवलपर्स, विक्रेताओं, कंपनियों, डिप्लॉयर, उपयोगकर्ताओं, संस्थानों और सरकारों का है। AI को लीगल पर्सनहुड (कानूनन इंसानी रुतबा) या “अधिकार” नहीं दिए जा सकते।
  • ज़िंदगी और मौत के फ़ैसले : AI प्रणालियों को कभी भी ज़िंदगी और मौत के फ़ैसले लेने का अधिकार नहीं दिया जाना चाहिए, खास तौर पर सशस्त्र संघर्ष के दौरान सैन्य कार्रवाइयों में या शांति काल, कानूनी प्रवर्तन, सीमा नियंत्रण, हेल्थकेयर या
  • सुरक्षित और नैतिक विकास : डेवलपर्स को चाहिए कि वे AI को सुरक्षा, पारदर्शिता और नैतिकता की भावना के साथ डिज़ाइन करें और इस पर पहले से विचार करें न कि बाद में। डिप्लॉयर्स को इसके इस्तेमाल के संदर्भ और संभावित नुकसानों पर विचार करना चाहिए और उन पर भी सुरक्षा और नैतिकता के वही सिद्धांत लागू होते हैं, जो डेवलपर्स पर होते हैं। तैनाती से पहले और इसके पूरे जीवनकाल में, आर्टिफ़िशियल इंटेलिजेंस की स्वतंत्र टेस्टिंग और इससे जुड़े जोखिमों का पर्याप्त आकलन किया जाना चाहिए।
  • नैतिक ज़िम्मेदारी : सरकारों, कॉरपोरेशन्स और किसी भी अन्य व्यक्ति को वर्चस्व हासिल करने, अवैध आक्रामक युद्ध लड़ने, बहलाने-फुसलाने, छल-कपट करने, सोशल स्कोरिंग या बड़े पैमाने पर अनचाही निगरानी के लिए AI को हथियारबंद नहीं किया जाना चाहिए।
  • ज़िम्मेदारीपूर्ण डिज़ाइन : AI को डिज़ाइन करके उसका स्वतंत्र मूल्यांकन किया जाना चाहिए, ताकि इंसानों और समाज को इसके गैर-इरादतन और विनाशकारी प्रभावों से सुरक्षित रखा जा सके, उदाहरण के लिए, धोखेबाज़ी, भ्रम में डालने, लत लगाने या स्वायत्तता छीनने के इरादे से तैयार किया गया डिज़ाइन। 
  • AI पर एकाधिकार नहीं : AI के फ़ायदों – चाहे वे आर्थिक हों, चिकित्सा से जुड़े हों, वैज्ञानिक हों या सामाजिक – पर किसी का एकाधिकार नहीं होना चाहिए।
  • इंसानों का अवमूल्यन नहीं : AI का डिज़ाइन और तैनाती इस तरह होनी चाहिए कि यह लोगों को उनके चुने हुए कामों को अच्छी तरह आगे बढ़ाने में मदद करे। इन्हें ऐसा नहीं होना चाहिए कि वे मानवता को अप्रासंगिक बनाएँ, उसके अधिकार छीन लें, उसे कमतर बनाएँ या उसकी जगह ले लें।
  • पारिस्थितिक ज़िम्मेदारी : हमारे द्वारा AI के किए जाने वाले इस्तेमाल से हमारी दुनिया और इकोसिस्टम्स को खतरा नहीं होना चाहिए। इसकी ऊर्जा, पानी और दुर्लभ खनिज की भारी माँग को पूरी आपूर्ति शृंखला में ज़िम्मेदारी और इको-फ़्रेंडली तरीके से मैनेज किया जाना चाहिए।
  • गैर-ज़िम्मेदाराना वैश्विक प्रतिस्पर्धा नहीं : ज़्यादा शक्तिशाली AI बनाने की होड़ में कॉर्पोरेशन्स और देशों के बीच गैर-ज़िम्मेदाराना प्रतिस्पर्धा नहीं होनी चाहिए।

इन सिद्धांतों का पालन करना आसान नहीं होगा। इसके लिए नैतिक साहस, जवाबदेही की सार्थक प्रणालियों, समाज के हर क्षेत्र से दूरदर्शी लीडरशिप, सीमाएँ तय करने वाले बाध्यकारी अंतरराष्ट्रीय समझौते और प्रवर्तन के अधिकारों से संपन्न एक स्वतंत्र पर्यवेक्षक संस्थान की ज़रूरत होगी। इसीलिए हम AI के युग में नैतिक लीडरशिप का आह्वान कर रहे हैं। चूँकि AI से होने वाले खतरे अकसर अप्रत्यक्ष होते हैं, इसलिए हम वैज्ञानिकों, नागरिक सभा और अधिकार समूहों तथा अन्य हितधारकों से आह्वान करते हैं कि वे AI की सीमाओं और खतरों को स्पष्ट करने और लोगों के बीच जागरूकता बढ़ाने के लिए आगे आएँ। हम वैज्ञानिकों, तकनीकी उद्योग के लीडर्स और नीति निर्माताओं से आह्वान करते हैं कि वे डेटा कर्मचारियों और AI की (भौतिक) लागतों का बोझ सहने वाले समुदायों और लोगों की आवाज़, अनुभवों और शोध पर गौर करें और अपना काम सबसे कमज़ोर वर्ग की सुरक्षा और फ़ायदे पर केंद्रित करें। क्योंकि किसी समाज में नैतिक और कानूनी नियमों की वैधता इस पर ही टिकी होती है कि सबसे कमज़ोर तबके के लोगों के साथ कैसा व्यवहार किया जाता है।

हम वैज्ञानिकों, नागरिक सभा समूहों और स्वतंत्र लेखा परीक्षकों से भी अपील करते हैं कि वे लर्निंग एल्गोरिद्म्स को सिर्फ़ कार्य प्रदर्शन और सहभागिता की कसौटी पर ही नहीं, बल्कि उनके पूरे जीवन-चक्र में, सत्यनिष्ठा, संतुलन और इंसान की भलाई के संदर्भ में भी उसे प्रशिक्षित व अनुकूलित करें और उसका मूल्यांकन करने के लिए नए उद्देश्य और मानदंड विकसित करें।

हम नीति निर्माताओं, तकनीकी उद्योग के लीडर्स और वैश्विक समुदायों को AI के गवर्नेंस के लिए विस्तृत फ़्रेमवर्क विकसित करने के लिए आपस में सहयोग करने के लिए प्रोत्साहित करते हैं, ताकि इससे सबका भला हो सके। इसमें इंसानों के लिए AI से मुक्त रहकर जीने का अधिकार भी शामिल है। आर्टिफ़िशियल इंटेलिजेंस के युग में सच्चे इंसानी भाईचारे की तरक्की के लिए सार्वभौमिक नैतिक और कानूनी मानक स्थापित करने की ज़रूरत है।

अंत में, हम सभी सद्भावना रखने वाले लोगों से आग्रह करते हैं : आइए हम एकजुट होकर सुनिश्चित करें कि AI सिर्फ़ मुट्ठी भर लोगों की नहीं, बल्कि पूरी मानवता की सेवा करे।

राष्ट्रों, संस्कृतियों और मान्यताओं की सीमाओं के परे जाकर और प्रतिस्पर्धा से ज़्यादा संवाद को अहमियत देकर, हम एक ऐसे भविष्य को आकार दे सकते हैं, जो मानव गरिमा को ऊँचा उठाए और एक अधिक न्यायपूर्ण व शांतिपूर्ण दुनिया का निर्माण करे।

हम नागरिकों, वैज्ञानिकों, व्यापारिक लीडर्स, पंथ प्रमुखों, समुदाय के प्रतिनिधियों और नीति निर्माताओं सहित सभी हितधारकों से इस पहल में भाग लेने का आग्रह करते हैं। सामूहिक रूप से, हम इस आवश्यक सिद्धांत को दुहराते हैं कि मशीनों को मानवता के हित में काम करने के लिए बनाया गया है।


वैश्विक अपील का मसौदा तैयार करने वाले कार्यदल के सदस्य

1. Paolo Benanti (वैज्ञानिक संयोजक)

2. Yoshua Bengio

3. Ernesto Belisario

4. Abeba Birhane

5. Cornelius Boersch

6. Yuval Noah Harari

7. Geoffrey Hinton

8. Lorena Jaume-Palasí

9. Antal Kuthy

10. Riccardo Luna (संयोजक)

11. Nnenna Nwakanma

12. Valerie Pisano

13. Stuart Russell

14. Max Tegmark

15. Marco Trombetti

16. Jimena Sofía Viveros Álvarez

17. Alexander Waibel

18. will.i.am

इनके द्वारा भी हस्ताक्षरित

● Miguel Benasayag

● Giorgio Parisi

● Maria Ressa