人工知能の時代における人類の連帯

人類の平和共存と共同責任のための全世界に向けた呼びかけ

2025年9月12日、ローマ


レオ十四世教皇聖下
すべての世界の指導者の皆様
善意ある市民の皆様

日本語版(他 العربية-الإمارات, Deutsch, English , Español-España, Français-Canada, Français, עברית-ישראל, हिन्दी-भारत, Italiano, 한국어, Magyar, Português-Brasil, Svenska, 简体中文)

多様な国籍、背景、信仰をもつ専門家、技術リーダー、思想的リーダー、そして学者から構成された独立した集まりである私たちは、人間が社会と意思決定を形づくる未来への強い願いに動かされ、人工知能(AI)が人々のために、そして人々自身によって責任ある形で開発されるべき未来のために、ここに以下の訴えを行います。

今日、私たちが人工知能について下す選択は、将来の世代に引き渡す世界のあり方を決定的に形づけるものです。人工知能はすでに深刻な害を引き起こし、格差を拡大させ、権力を一部の者に集中させ、環境にも悪影響を及ぼしています。人工知能研究の分野において「超知能(superintelligence)」と広く称される、人間の知性を超える可能性を秘めたエージェンティック技術の開発に対し、莫大でしかも急速に増大する資金が投じられています。こうした状況にあっては、道義的指導力と、緊急かつ具体的な行動が強く求められています。

人工知能は、科学的発見と人間同士の相互理解の促進、医療の変革、ガバナンスの改善、さらには持続可能で包摂的な繁栄の促進といった重要な機会を提供します。しかし同時に、AI安全性国際科学報告書が指摘するように、雇用喪失、個人の自由の縮小、権力闘争、偽情報や操作、監視の拡大、環境負荷、人類の福祉に対する脅威など深刻な危険性も孕んでいます。

正当かつ潜在的な機会を活かしつつ、費用や危険性を最小化するためには、人間の繁栄の基盤と、人間の尊厳、共同体、人権および環境に関わる権利、そして説明責任を尊重した明確な限界を定めることが不可欠です。

友愛と希望、そして慎重さの精神に基づき、私たちは諸指導者のリーダーシップに訴え、人工知能が人類全体に最善の形で奉仕するために必要な対話と熟慮を促進すべく、以下の原則と越えてはならない一線を守ることを求めます。

  • 人間の生命と尊厳:人工知能は人間の生命・尊厳・基本的権利を脅かす、減じる、あるいは否定するような形で開発・利用されてはなりません。叡智、道徳的判断、真理や美への志向といった人間の知性は、どれほど高度な人工的処理によっても、決して価値を貶められてはなりません。
  • 人工知能は「道具」であって「権威」ではない:人工知能は人間の管理下に置かれなければなりません。制御不能なシステムの構築や、意思決定を過度に委譲することは、道義的に許されず、法的にも禁止されるべきです。したがって、先に言及した「超知能」に該当する人工知能技術の開発は、それが安全かつ制御可能であるとの広範な科学的合意が得られ、さらに明確かつ幅広い市民の同意が得られるまでは、認められるべきではありません。
  • 説明責任:道徳的および法的に責任を負う主体は人間のみであり、人工知能はつねに法的な対象にとどまるべきであって、主体と見なされてはなりません。責任と法的義務は、開発者、提供者、企業、導入者、利用者、研究機関、そして政府に帰属します。人工知能に法的人格や「権利」を与えることは認められません。
  • 生死に関わる決定:人工知能が生死に直結する決定を下すことは、いかなる場合にも許されません。武力紛争下や平時を問わず、特に、軍事利用、法執行、国境管理、医療、あるいは司法判断においては厳格に禁止されるべきです。
  • 安全かつ倫理的な開発:人工知能の開発者は、安全性、透明性、倫理性を設計の中心に据えなければなりません。これは付随的な考慮事項であってはなりません。人工知能を導入する者も、利用状況や潜在的な危険性を十分に考慮し、開発者と同様の安全と倫理の原則に従う必要があります。導入に先立ち、またライフサイクルを通じて、独立した検証と適切なリスク評価が義務づけられる必要があります。
  • 所持者の責任ある管理:政府、企業、あるいはその他の主体は、人工知能をいかなる支配、違法な侵略戦争、強制、操作、社会的評価のスコア化、不当な大規模監視の手段としても武器化してはなりません。
  • 責任ある設計:人工知能は、人間や社会に対して意図せざる壊滅的な影響、例えば欺瞞、妄想、依存、あるいは自律性の喪失といった危険を及ぼすことがないよう設計されなければなりません。
  • 人工知能の独占の禁止:人工知能のもたらす経済的、医療的、科学的、社会的な利益は、独占されてはなりません。
  • 人間の価値を損なうことの禁止:人工知能の設計と利用は、人間を繁栄に導くものであらねばならず、人類を冗長な存在とし、権利を奪い、価値を貶め、あるいは人間の代替とするものであってはなりません。
  • 生態学的責任:人工知能の利用は、地球とその生態系を危険にさらしてはなりません。その膨大なエネルギー、水、希少鉱物の需要は、供給連鎖全体を通じて責任ある持続可能な方法で管理されなければなりません。
  • 無責任な国際競争を避けること:私たちは、より強力な人工知能をめぐって企業や国家が無責任な競争に陥ることを避けなければなりません。

これらの原則を守ることは容易ではありません。それを実現するには、道義的な勇気、実効性ある説明責任の仕組み、社会のあらゆる分野における先見的な指導力、越えてはならない一線の決定、強制力を備えた独立した監督機関を伴う拘束力ある国際条約が求められます。私たちはゆえに、人工知能の時代における道義的指導力を求めます。人工知能がもたらす危険はしばしば間接的であるため、科学者、市民社会、人権団体、そしてその他の関係者に対し、その限界や危険をより明確に示し、公衆の認識を高める努力を求めます。また科学者、技術産業の指導者、政策決定者に対し、データ取扱者や、人工知能の物質的側面による負担を現実に経験している地域社会や人々の声と経験、研究に耳を傾け、最も弱い立場に置かれた人々の保護と利益を中心に据えるよう求めます。なぜなら、社会における道義的および法的規範の正当性は、最も弱い立場の人々がどのように扱われるかにかかっているからです。

さらに科学者、市民社会団体、独立した監査人に対し、学習アルゴリズムを訓練・最適化・評価するにあたり、単に課題の遂行や利用者の関与度だけでなく、真実性、公平性、人間的善を基準とした新たな目標や指標を開発し、提案するよう求めます。

私たちは、政策立案者、テクノロジー業界のリーダー、そして国際社会が協力し、公共の利益に資する包括的な人工知能のガバナンスの枠組みを構築することを強く促します。これには、人間が人工知能を使用せず生きる権利も含まれます。人工知能の時代における真の人類的友愛を進めるためには、普遍的な倫理的・法的基準の確立が不可欠です。

最後に、私たちは善意のあるすべての人々に訴えます。人工知能が一部の者の利益ではなく、人類全体に奉仕することを確実にするために力を合わせましょう。

国、文化、信条を超えて団結し、競争よりも対話を優先することで、人間の尊厳を高め、より公正で平和な世界を育む未来を形作ることができます。

私たちは、市民、科学者、企業の指導者、宗教的指導者、地域の代表、政策立案者を含むすべての関係者に、この取り組みに参加するよう呼びかけます。私たちは集団として、機械は人類の利益に奉仕するために存在するという基本原則を改めて強調します。


グローバルアピールを起草したワーキンググループのメンバー

1. Paolo Benanti(科学コーディネーター)

2. Yoshua Bengio

3. Ernesto Belisario

4. Abeba Birhane

5. Cornelius Boersch

6. Yuval Noah Harari

7. Geoffrey Hinton

8. Lorena Jaume-Palasí

9. Antal Kuthy

10. Riccardo Luna(コーディネーター)

11. Nnenna Nwakanma

12. Valerie Pisano

13. Stuart Russell

14. Max Tegmark

15. Marco Trombetti

16. Jimena Sofía Viveros Álvarez

17. Alexander Waibel

18. will.i.am

共同署名者

● Miguel Benasayag

● Giorgio Parisi

● Maria Ressa