人工智能时代的友爱精神
关于人类和平共处与共同责任的全球呼吁
罗马,2025年9月12日
致教皇利奥十四世陛下
致全球各国领导人
致所有心怀善意的人们
中文版(还提供以下语言版本:العربية-الإمارات, Deutsch, English , Español-España, Français-Canada, Français, עברית-ישראל, हिन्दी-भारत, Italiano, 日本語, 한국어, Magyar, Português-Brasil, Svenska)
未来社会和未来决策应由人类塑造。带着这一深切愿望,来自不同国家/地区和背景、拥有不同信仰的专家、技术领袖、思想领袖和学者齐聚一堂,召开了独立圆桌会议。我们在此呼吁:人工智能(AI)的发展必须由人类负责推动,并最终服务于全人类。
我们今天针对人工智能做出的选择将从根本上塑造后世。人工智能已造成重大伤害:不平等现象加剧,权力集中在少数人手中,并对环境造成破坏。不断增长的巨额资金正快速投入到“智能体技术”的研发中,这类技术有望超越人类智能——在人工智能研究界,许多人称之为“超级智能”。面对这样的挑战,人们亟需道德引导和迫切的具体应对措施。
人工智能为人类带来了重大机遇:推动科学新发现,促进人类相互理解,变革医疗监控体制,改善治理方式,并以可持续、包容的方式实现广泛的繁荣发展。然而,正如《人工智能安全国际科学报告》(International Scientific Report on AI Safety)所述,人工智能也带来了严重风险,包括就业岗位流失、个体自由缩减、权力斗争、虚假信息和信息操控、大规模监控、环境破坏以及对人类福祉的威胁。
要充分利用所有合理的潜在机会,同时降低成本和风险,我们必须为人类繁荣奠定基础,并在维护尊严、尊重社群、尊重人权、尊重环境权利、保证问责制的基础上设定明确界限。
秉持友爱、希望和谨慎的精神,我们呼吁各位领导人坚持以下原则和底线,推进对话和反思,探讨人工智能如何才能最好地服务于全人类:
- 人类生命与尊严:人工智能的开发或使用绝不能以威胁、贬低或剥夺人类生命、尊严或基本权利的方式进行。人类智能,包括我们的智慧、道德推理以及对真理和美的追求,绝不能受到贬损,无论人工智能的处理能力多么复杂精密。
- 人工智能应作为工具,而非权威:人工智能必须始终处于人类的控制之下。研发无法控制的系统,或过度将决策权力交给人工智能,在道德上不可接受,且应通过法律予以禁止。因此,在达成广泛的科学共识,确保人工智能技术的开发将以安全和可控方式进行,并得到广大公众的明确同意之前,不应允许允许研发上述“超级智能”人工智能技术。
- 明确责任归属:唯有人类拥有道德与法律上的行为主体资格,人工智能系统当前是且必须始终是法律客体,而非法律主体。开发者、供应商、公司、部署者、用户、研究机构和政府对此负有责任和义务。人工智能不可被赋予法人资格或“权利”。
- 生死决策由人类做出:人工智能系统不得做出关乎生死的决策,尤其是在军事应用(包括武装冲突时期与和平时期)、执法、边境管控、医疗健康及司法裁判等领域。
- 以安全和道德的方式开发:开发者必须以安全、透明和道德为核心来设计人工智能,而不是将其作为事后考量因素。部署者必须考虑使用环境和潜在危害,并与开发者遵守相同的安全和道德原则。在人工智能系统部署之前和其整个生命周期中,必须有人进行独立测试和充分的风险评估。
- 负责任的治理:政府、公司和其他任何人均不得将人工智能武器化,不得用于任何形式的统治、非法侵略战争、胁迫、操控、社会信用评分或无正当理由的大规模监视。
- 负责任的设计:人工智能的设计和独立评估应避免对人类和社会产生意外和灾难性影响,例如通过设计导致欺骗、妄想、成瘾或丧失自主权。
- 禁止人工智能垄断:人工智能的经济、医疗、科学、社会效益不应被垄断。
- 禁止贬低人类价值:人工智能的设计和部署应帮助人类追求事业并蓬勃发展,而不是使人类变得多余、剥夺人类权利、贬低人类价值或替代人类。
- 生态责任:使用人工智能不得危及我们的地球和生态系统。在整个供应链中,必须负责任、可持续地管理人工智能对能源、水和稀有矿产的巨大需求。
- 禁止不负责任的全球竞争:我们必须避免企业之间和国家/地区之间不负责任地竞相开发更强大的人工智能。
坚持这些原则并非易事,需要道德勇气、切实的问责机制、社会各界领导者的远见卓识以及具有约束力的国际条约,设定底线和具有执法权力的独立监督机构。因此,我们呼吁在人工智能时代发挥道德领导作用。由于人工智能带来的危险往往是间接的,我们呼吁科学家、公民社会和权利团体以及其他利益攸关方做出更大的努力,阐明人工智能的局限性和危险性,并提高公众的认识。我们呼吁科学家、技术行业领导者和政策制定者了解正在承受人工智能代价(物质方面)的数据工作者、社群和民众的意见、经验和研究成果,并将工作重心放在保护和造福最弱势群体上。这是因为,一个社会中道德和法律规则的正当性,取决于该社会如何对待最弱势的群体。
同时,我们呼吁科学家、民间社会团体和独立审计机构制定并提出新的目标和指标,从而在人工智能全生命周期内,从真实性、平衡性和人类利益的角度来训练、优化和评估学习算法,而不仅仅是关注任务执行效果和参与度。
我们鼓励政策制定者、技术行业领袖和全球社群相互合作,共同制定全面的人工智能治理框架,服务于全人类的共同利益,包括人类在生活中不受人工智能影响的权利。在人工智能时代,要发扬真正的人类友爱精神,就必须建立普世性的伦理和法律标准。
最后,我们呼吁所有心怀善意的人们团结起来,确保人工智能服务于全人类,而非少数人。
实现跨越国家/地区、文化和信仰的大团结,以对话为先、竞争为后,我们才能塑造一个彰显人类尊严、推动世界更加公正与和平的未来。
我们呼吁所有利益攸关方,包括公民、科学家、商业领袖、宗教领袖、社群代表和政策制定者,参与到这一倡议中来。我们在此共同重申基本原则:机器的存在,应服务于人类的利益。
起草《全球呼吁》的工作组成员
1. Paolo Benanti (科学协调员)
2. Yoshua Bengio
3. Ernesto Belisario
4. Abeba Birhane
5. Cornelius Boersch
6. Yuval Noah Harari
7. Geoffrey Hinton
8. Lorena Jaume-Palasí
9. Antal Kuthy
10. Riccardo Luna (协调员)
11. Nnenna Nwakanma
12. Valerie Pisano
13. Stuart Russell
14. Max Tegmark
15. Marco Trombetti
16. Jimena Sofía Viveros Álvarez
17. Alexander Waibel
18. will.i.am
其他签署人
● Miguel Benasayag
● Giorgio Parisi
● Maria Ressa