التضامن الإنساني في زمن الذكاء الاصطناعي

نداؤنا العالمي من أجل التعايش الإنساني السلمي والمسؤولية المشتركة

روما، 12 سبتمبر 2025


إلى قداسة البابا ليو الرابع عشر
إلى جميع القادة العالميين
إلى جميع الأشخاص من ذوي النوايا الحسنة

النسخة العربية (English, Deutsch, Español‑España, Français‑Canada, Français, עברית-ישראל, हिन्दी-भारत, Italiano, 日本語, 한국어, Português‑Brasil,, Magyar, Svenska, 简体中文)

انطلاقًا من الرغبة العميقة في بناء مستقبل يشكّل فيه البشر المجتمع ويتخذون القرارات، فإننا، هيئة حوارية مستقلّة تتألف من الخبراء وقادة التكنولوجيا وقادة الفكر والعلماء من العديد من الدول والخلفيات والأديان المختلفة، نوجّه النداء التالي من أجل مستقبل يتمّ فيه تطوير الذكاء الاصطناعي بشكل مسؤول من قبل الناس ومن أجلهم.

بشكل أساسي، ستشكّل الخيارات التي نتخذها حاليًا بشأن الذكاء الاصطناعي العالم الذي نتركه للأجيال القادمة. وبالفعل، يتسبب الذكاء الاصطناعي حاليًا بأضرار جسيمة، مع توسيع فجوة عدم المساواة، وتركيز السلطة في أيدي قِلة من الناس، وإلحاق الضرر بالبيئة. ويتم تخصيص مبالغ ضخمة ومتزايدة بسرعة لإنشاء تقنيات فاعلة لديها القدرة على تجاوز الذكاء البشري – وهو ما يشير إليه الكثيرون في مجتمع أبحاث الذكاء الاصطناعي باسم “الذكاء الفائق”. وتتطلّب هذه التحديات قيادة أخلاقية وإجراءات ملموسة عاجلة.

يوفّر الذكاء الاصطناعي فرصًا كبيرة لتعزيز الاكتشاف العلمي والتفاهم البشري المتبادل، والارتقاء بالرعاية الصحية، وتحسين الحوكمة، وعلى نطاق أوسع، تعزيز الرخاء المستدام والشامل. ومع ذلك، فهو يشكل أيضًا تهديدًا بالخطر كما ذُكر في التقرير العلمي الدولي حول سلامة الذكاء الاصطناعي، بما في ذلك فقدان الوظائف، والحد من الحريات الفردية، وحرب القوة، والتضليل والتلاعب، والمراقبة الجماعية، والآثار البيئية، والتهديدات لرفاهية الإنسان.

للاستفادة من أي فرص مشروعة ومحتملة مع التخفيف من التكاليف والمخاطر، من الضروري إرساء أسس الازدهار البشري فضلاً عن الحدود المضبوطة جيدًا والمتجذّرة في احترام الكرامة والمجتمع وحقوق الإنسان والبيئة والمساءلة.

ندعو قيادتكم، من منطلق روح الأخوة والأمل والحذر هذه، إلى التمسك بالمبادئ والخطوط الحمراء التالية لتعزيز الحوار والتفكير بأفضل السبل التي يمكن بها للذكاء الاصطناعي أن يخدم البشرية بأكملها على أفضل وجه:

  • حياة الإنسان وكرامته: لا يجوز على الإطلاق تطوير الذكاء الاصطناعي أو استخدامه بطرق تهدّد، أو تقلل، أو تحرم الإنسان من حياته أو كرامته أو حقوقه الأساسية. ولا يجب الاستهانة بقيمة الذكاء البشري – قدرتنا على الحكمة والتفكير الأخلاقي والتوجه نحو الحقيقة والجمال – من خلال المعالجة الاصطناعية، مهما كانت متطورة. 
  • يجب استخدام الذكاء الاصطناعي كأداة، وليس كسلطة: يجب أن يظل الذكاء الاصطناعي تحت السيطرة البشرية. إن بناء أنظمة لا يمكن السيطرة عليها أو الإفراط في تفويض القرارات أمر غير مقبول أخلاقيًا ويجب حظره قانونيًا. ولذلك، لا ينبغي السماح بتطوير تقنيات الذكاء الاصطناعي الفائق (كما هو مذكور أعلاه) إلا بعد تحقيق إجماع علمي واسع على أن ذلك سيتم بأمان وبشكل خاضع للسيطرة، مع وجود موافقة عامة واضحة وواسعة النطاق.
  • المساءلة: البشر فقط هم من يتمتعون بالقدرة الأخلاقية والقانونية، وأنظمة الذكاء الاصطناعي هي أشياء قانونية ويجب أن تظل كذلك، وليست مجرد مواضيع فقط. وتقع المسؤولية والالتزامات القانونية على عاتق المطورين والبائعين والشركات والمنفذين والمستخدمين والمؤسسات والحكومات. لا يمكن منح الذكاء الاصطناعي الشخصية القانونية أو “الحقوق”. 
  • قرارات الحياة والموت: يجب ألا يُسمح لأنظمة الذكاء الاصطناعي أبدًا باتخاذ قرارات تتعلق بالحياة أو الموت، خاصة في التطبيقات العسكرية أثناء النزاع المسلح أو وقت السلم، أو إنفاذ القانون، أو مراقبة الحدود، أو الرعاية الصحية، أو القرارات القضائية.
  • التطوير الآمن والأخلاقي: يجب على المطورين تصميم الذكاء الاصطناعي مع وضع السلامة والشفافية والأخلاقيات في صميمه، وليس كإضافة لاحقة. ويجب على المنفّذين مراعاة سياق الاستخدام والأضرار المحتملة وهم خاضعون لنفس مبادئ السلامة والأخلاق التي يخضع لها المطورون. ويجب إجراء اختبارات مستقلة وتقييم مناسب للمخاطر قبل النشر وطوال دورة الحياة بأكملها.
  • الأمانة: لا ينبغي للحكومات والشركات وأي شخص آخر استخدام الذكاء الاصطناعي كسلاح لأي نوع من الهيمنة، أو حروب العدوان غير القانونية، أو الإكراه، أو التلاعب، أو الرصد الاجتماعي، أو المراقبة الجماعية غير المبررة. 
  • التصميم المسؤول: يجب تصميم الذكاء الاصطناعي وتقييمه بشكل مستقل لتجنب الآثار غير المقصودة والكارثية على البشر والمجتمع، على سبيل المثال من خلال التصميم الذي يؤدي إلى الخداع أو الوهم أو الإدمان أو فقدان الاستقلالية.  
  • لا لاحتكار الذكاء الاصطناعي: لا ينبغي احتكار فوائد الذكاء الاصطناعي – الاقتصادية والطبية والعلمية والاجتماعية. 
  • لا للتقليل من قيمة البشر: يجب أن يؤدي تصميم ونشر الذكاء الاصطناعي إلى ازدهار البشر في مساعيهم المختارة، وليس جعل البشرية زائدة عن الحاجة أو محرومة من حقوقها أو التقليل من قيمتها أو جعلها قابلة للاستبدال. 
  • المسؤولية البيئية: يجب ألا يعرّض استخدامنا للذكاء الاصطناعي كوكبنا وأنظمتنا البيئية للخطر. ولابد من إدارة متطلباته الهائلة من الطاقة والمياه والمعادن النادرة بمسؤولية واستدامة عبر سلسلة التوريد بأكملها.
  • لا للمنافسة العالمية غير المسؤولة: يتعين علينا تجنب السباق غير المسؤول بين الشركات والدول نحو الذكاء الاصطناعي الأقوى أكثر من أي وقت مضى.

لن يكون من السهل التمسك بهذه المبادئ. فالأمر يتطلب شجاعة أخلاقية، وآليات مساءلة ذات معنى، وقيادة بعيدة النظر من جميع قطاعات المجتمع، ومعاهدة دولية ملزمة تحدد الخطوط الحمراء، ومؤسسة رقابية مستقلة تتمتع بسلطات الإنفاذ. ولذلك فإننا ندعو إلى وجود قيادة أخلاقية في عصر الذكاء الاصطناعي. وبما أن المخاطر التي يمثلها الذكاء الاصطناعي غالبًا ما تكون غير مباشرة، فإننا ندعو العلماء والمجتمع المدني والجماعات الحقوقية وأصحاب المصلحة الآخرين إلى بذل المزيد من الجهد للتعبير عن حدود الذكاء الاصطناعي ومخاطره وتعزيز الوعي العام بها. وندعو العلماء وقادة صناعة التكنولوجيا وصانعي السياسات إلى الاستماع إلى آراء وتجارب وأبحاث العاملين في مجال البيانات والمجتمعات والشعوب التي تعاني من تكاليف (الجانب المادي) الذكاء الاصطناعي وتركيز عملهم على حماية ومساعدة الفئات الأضعف. لأن شرعية القواعد الأخلاقية والقانونية في المجتمع تعتمد على كيفية تعامله مع شعوبه الأكثر ضعفًا.

كما نناشد العلماء ومجموعات المجتمع المدني والمراجعين المستقلين لتطوير واقتراح أهداف ومقاييس جديدة لتدريب خوارزميات التعلم وتحسينها وتقييمها من حيث الصدق والتوازن والصالح الإنساني، طوال دورة الحياة بأكملها، وليس فقط أداء المهام والمشاركة. 

نشجع صانعي السياسات وقادة صناعة التكنولوجيا والمجتمعات العالمية على التعاون في تطوير أطر شاملة لإدارة الذكاء الاصطناعي التي تخدم الصالح العام. ويشمل ذلك حق البشر في حياة خالية من الذكاء الاصطناعي. إن تعزيز الأخوة الإنسانية الحقيقية في عصر الذكاء الاصطناعي يتطلب إرساء معايير أخلاقية وقانونية عالمية.

أخيرًا، نناشد جميع الأشخاص أصحاب النوايا الحسنة: دعونا نتحدّ لضمان أن يخدم الذكاء الاصطناعي البشرية جمعاء وليس قلة قليلة. 

من خلال الاجتماع عبر الدول والثقافات والمعتقدات، وإعطاء الأولوية للحوار على المنافسة، يمكننا تشكيل مستقبل يرفع من كرامة الإنسان ويعزز حياة أكثر عدلاً وسلامًا.

نحن ندعو جميع أصحاب المصلحة – بما في ذلك المواطنين والعلماء وقادة الأعمال والزعماء الدينيين وممثلي المجتمع وصانعي السياسات – إلى المشاركة في هذه المبادرة. ونحن نؤكد بشكل جماعي على المبدأ الأساسي الذي ينص على أهمية أن توضع الآلات في خدمة مصالح البشرية.


أعضاء مجموعة العمل التي صاغت النداء العالمي

Paolo Benanti (المنسق العلمي) .1

Yoshua Bengio .2

Ernesto Belisario .3

Abeba Birhane .4

Cornelius Boersch .5

Yuval Noah Harari .6

Geoffrey Hinton .7

Lorena Jaume-Palasí .8

Antal Kuthy .9

Riccardo Luna (المنسق) .10

Nnenna Nwakanma .11

Valerie Pisano .12

Stuart Russell .13

Max Tegmark .14

Marco Trombetti .15

Jimena Sofía Viveros Álvarez .16

Alexander Waibel .17

will.i.am .18

تم التوقيع عليها أيضًا من

 Miguel Benasayag

Giorgio Parisi

Maria Ressa