AI 시대의 박애 정신
평화로운 인간 공존과 공동의 책임을 위한 세계 호소문
로마, 2025년 9월 12일
교황 레오 14세께
전 세계 모든 지도자께
모든 선의의 사람들께
한국어 버전(그 외 제공되는 언어: العربية-الإمارات, Deutsch, English , Español-España, Français-Canada, Français, עברית-ישראל, हिन्दी-भारत, Italiano, 日本語, Magyar, Português-Brasil, Svenska, 简体中文)
우리는 다양한 국가, 배경, 종교를 대표하는 전문가, 기술계 지도자, 선도자, 학자들로 이루어진 독립적인 원탁회의 구성원으로서, 인류가 사회를 형성하고 판단 과정을 주도하는 미래를 바라는 깊은 마음으로 AI는 반드시 인간을 위해, 그리고 인간에 의해 책임감 있게 개발되어야 한다고 호소하는 바입니다.
우리가 오늘날 AI와 관련하여 하는 선택은 미래 세대가 이어받을 세상의 토대를 형성할 것입니다. AI는 이미 불평등을 확대하고, 권력을 소수에게 집중시키고, 환경을 훼손하면서 심각한 피해를 야기하고 있습니다. AI 학계에서 ‘초지능‘이라고 부르는, 인간의 지능을 초월할 잠재력을 지닌 에이전틱 기술을 개발하는 데 막대한 자금이 투입되고 있으며 그 액수는 빠르게 증가하는 중입니다. 이러한 시험대 앞에 선 우리에게는 도덕적 지도력과 긴급하고 구체적인 행동이 필요합니다.
인공지능은 과학적 발견을 촉진하고, 인간의 서로에 대한 이해도를 높이고, 보건의료를 혁신하며, 지배구조를 개선하고, 넓은 관점에서 지속 가능하고 차별 없는 번영을 이룰 크나큰 기회를 선사합니다. 그러나 다른 한편으로 인공지능은 AI 안전성에 대한 국제 과학 보고서에서 지적하는 바와 같이 일자리 상실, 개인의 자유 축소, 권력 투쟁, 허위 정보와 조작, 대규모 감시, 환경적 영향, 인간 복리에 대한 위협 등 심각한 위험 요인을 품고 있습니다.
인공지능에 잠재된 정당한 기회를 활용하면서도 비용과 위험을 줄이려면 인간의 존엄성, 공동체, 인권, 환경권, 책무를 바탕으로 인류의 번영을 위한 토대와 명확한 한계를 마련해야 합니다.
우리는 이러한 박애 정신, 희망, 신중함을 담아 AI가 인류라는 가족 전체에게 최선으로 이바지하게 만들 방안에 관한 대화와 성찰을 촉진하기 위해, 다음과 같은 원칙과 한계선을 지지해 주실 것을 호소합니다.
- 인간 생명 및 존엄성: AI는 결코 인간의 생명, 존엄, 근본적 권리를 위협하거나 훼손하거나 부정하는 방식으로 개발되거나 사용되어서는 안 됩니다. 인공지능의 처리 기술은 아무리 정교하게 발전하더라도 인간의 지성, 즉 지혜, 도덕적 판단, 진리와 아름다움을 추구하는 성향의 가치를 훼손해선 안 됩니다.
- AI는 권력이 되어선 안 되며 도구로 사용되어야만 합니다: AI는 반드시 인간의 통제 하에 존재해야 합니다. 통제 불가능한 시스템을 구축하거나 결정을 과도하게 위임하는 것은 도덕적으로 용납될 수 없으며, 법적으로 금지되어야 합니다. 따라서, 위에서 언급된 초지능 AI 기술 개발은 안전하고 통제 가능하게 이루어질 것이라는 광범위한 과학적 합의가 있을 때까지, 그리고 명확하고 광범위한 공공의 동의가 있을 때까지 허용되어서는 안 됩니다.
- 책무: 도덕적 및 법적 행위 주체는 오직 인간이어야 하며, AI 시스템은 법적 주체가 아닌 법적 객체로만 존재해야 합니다. 법적 책임을 비롯한 모든 책임은 개발자, 공급자, 기업, 배포자, 사용자, 기관, 정부에 귀속됩니다. AI에 법적 인격이나 ‘권리’를 부여해서는 안 됩니다.
- 생사 결정: AI는 결코 생사에 관한 결정을 내려서는 안 되며, 특히 무력 충돌 시 또는 평시의 군사적 활용, 법 집행, 국경 관리, 의료, 사법 영역에서 AI에 생사 결정을 맡겨서는 안 됩니다.
- 안전하고 윤리적인 개발: 개발자는 AI를 설계함에 있어 안전성, 투명성, 윤리를 핵심 가치로 두어야 합니다. 배포자는 사용 맥락과 피해 유발 가능성을 고려하고 개발자와 동일한 안전 및 윤리 원칙을 준수해야 합니다. 또한 배포 전 및 전 생애 주기 내내 독립적 검증과 적절한 위험 평가를 의무화해야 합니다.
- 스튜어드십: 정부, 기업을 비롯한 모든 주체는 지배, 불법적 침략 전쟁, 강압, 조작, 사회적 점수 평가, 불필요한 대규모 감시를 위해 AI를 무기화해서는 안 됩니다.
- 책임 설계: AI는 기만, 환상, 중독, 자율성 상실 등 인간과 사회에 의도치 않게 파괴적 영향을 미치지 않도록 설계되고 독립적으로 평가되어야 합니다.
- AI 독점 금지: AI가 가져올 경제적, 의료적, 과학적, 사회적 혜택은 독점되어서는 안 됩니다.
- 인간 가치 훼손 금지: AI의 설계와 배포는 인간이 스스로 선택한 삶에서 번영하도록 해야 하며, 인류를 불필요하거나 배제되거나 가치 없는 존재로 전락시키거나 대체해서는 안 됩니다.
- 생태적 책임: AI 사용으로 인해 지구와 생태계가 위협받아서는 안 됩니다. AI로 인해 발생하는 막대한 에너지, 물, 희귀 광물 수요는 공급망 전반에 걸쳐 책임 있고 지속 가능한 방식으로 관리되어야 합니다.
- 무분별한 국제 경쟁 금지: 기업과 국가는 점점 더 강력한 AI를 위해 무분별한 경쟁을 펼치지 않아야 합니다.
이러한 원칙을 지키는 것은 결코 쉽지 않을 것입니다. 이를 위해서는 도덕적 용기, 의미 있는 책무 메커니즘, 사회 모든 부문의 선견지명 있는 지도자, 구속력을 가지고 한계선을 설정하는 국제 조약, 집행 권한을 가진 독립적 감독 기관이 필요합니다. 이에 따라 우리는 AI 시대의 도덕적 리더십을 촉구합니다. AI가 제시하는 위험은 간접적인 경우가 많으므로 과학자, 시민 사회와 권리 단체, 그 밖의 이해관계자들에게 AI의 한계와 위험을 더 명확히 표현하고 대중 인식을 증폭시키기 위한 더 큰 노력을 기울일 것을 호소합니다. 과학자, 기술 업계 지도자, 정책 입안자들에게 데이터 노동자, AI의 (물질적 측면의) 비용을 경험하는 공동체와 사람들의 목소리, 경험, 연구에 귀 기울이고, 취약계층을 보호하고 이들의 이익을 보장하는 데 우선순위를 둘 것을 촉구합니다. 사회의 도덕적, 법적 규범의 정당성은 취약계층을 어떻게 대우하는가에 달려 있기 때문입니다.
또한 과학자, 시민사회 단체, 독립 감사자들이 새로운 목표와 지표를 마련해서 학습 알고리즘을 단순히 성능과 참여도 뿐만 아니라 진실성, 균형, 인류 공동선의 관점에서 전 생애주기에 걸쳐 시스템을 학습시키고 최적화하고 평가할 것을 촉구합니다.
정책 입안자, 기술 업계 지도자, 지구촌이 협력하여 인류 공동선을 위한 AI 지배구조의 종합적 틀을 마련할 것을 촉구합니다. 인간이 인공지능 없이 살아갈 권리도 그중 하나입니다. 인공지능 시대에 진정으로 박애 정신을 가지기 위해서는 보편적인 윤리적, 법적 기준을 확립해야 합니다.
마지막으로, 모든 선의의 사람들께 호소합니다. AI가 소수에게만 이익을 안겨주지 않고 인류 전체에 이바지하도록 모두가 힘을 모읍시다.
국가, 문화, 종교를 초월하여 대화와 협력을 우선시하면 인간의 존엄성을 고양하며 좀 더 정의롭고 평화로운 세계를 만들어갈 수 있습니다.
시민, 과학자, 기업인, 종교 지도자, 공동체 대표, 정책 입안자를 비롯한 모든 이해관계자에게 이 이니셔티브에 동참할 것을 요청합니다. 우리는 모두 함께 공동으로, 기계가 인류의 이익을 위해 작동해야 한다는 본질적 원칙을 재확인하는 바입니다.
글로벌 호소문 초안 작성에 참여한 실무 그룹 구성원
1. Paolo Benanti (과학 코디네이터)
2. Yoshua Bengio
3. Ernesto Belisario
4. Abeba Birhane
5. Cornelius Boersch
6. Yuval Noah Harari
7. Geoffrey Hinton
8. Lorena Jaume-Palasí
9. Antal Kuthy
10. Riccardo Luna (코디네이터)
11. Nnenna Nwakanma
12. Valerie Pisano
13. Stuart Russell
14. Max Tegmark
15. Marco Trombetti
16. Jimena Sofía Viveros Álvarez
17. Alexander Waibel
18. will.i.am
공동 서명자:
● Miguel Benasayag
● Giorgio Parisi
● Maria Ressa