Fraternidade na era da IA
Nosso apelo global pela coexistência humana pacífica e responsabilidade compartilhada
Roma, 12 de setembro de 2025
à Sua Santidade o Papa Leão XIV
a todos os líderes globais
a todas as pessoas de boa vontade
Versão em Português Brasileiro (também disponível em العربية-الإمارات, Deutsch, English , Español-España, Français-Canada, Français, עברית-ישראל, हिन्दी-भारत, Italiano, 日本語, 한국어, Magyar, Svenska, 简体中文)
Movidos por um profundo anseio de um futuro em que os seres humanos moldem a sociedade e as decisões, nós, um fórum independente composto por especialistas, líderes do setor de tecnologia, formadores de opinião e acadêmicos de diversas nações, origens e credos, lançamos o presente apelo por um futuro em que a IA seja desenvolvida de forma responsável, por e para as pessoas.
As escolhas que fazemos hoje sobre a IA moldarão fundamentalmente o mundo que deixamos para as gerações futuras. A IA já está causando danos significativos, aumentando as desigualdades, concentrando o poder nas mãos de poucos e prejudicando o meio ambiente. Quantias vastas e em rápido crescimento são dedicadas à criação de tecnologias agênticas com o potencial de superar a inteligência humana, o que muitos na comunidade de pesquisa de IA chamam de “superinteligência”. Esses desafios exigem liderança moral e ações concretas urgentes.
A inteligência artificial apresenta oportunidades significativas para promover a descoberta científica e a compreensão humana mútua, transformar o setor de saúde, melhorar a governança e, de forma mais ampla, promover a prosperidade sustentável e inclusiva. No entanto, ela também apresenta sérios riscos, conforme descrito no Relatório Científico Internacional sobre Segurança da IA, como substituição de empregos, redução de liberdades individuais, disputas de poder, desinformação e manipulação, vigilância em massa, impactos ambientais e ameaças ao bem-estar humano.
Para aproveitar as oportunidades legítimas e potenciais, mitigando os custos e riscos, é essencial estabelecer as bases para o florescimento humano, bem como limites clarament definidos, enraizados no respeito à dignidade, à comunidade, aos direitos humanos e ambientais e à responsabilização para com os demais.
Neste espírito de fraternidade, esperança e cautela, apelamos à sua liderança para defender e garantir os seguintes princípios e limites para promover o diálogo e a reflexão sobre como a IA pode servir melhor a toda a nossa família humana:
- Vida e dignidade humanas: a IA jamais deve ser desenvolvida ou usada de modo a ameaçar, diminuir ou negar a vida, a dignidade ou os direitos humanos fundamentais. A inteligência humana, nossa capacidade de sabedoria, raciocínio moral e orientação para a verdade e a beleza, nunca deve ser desvalorizada pelo processamento artificial, por mais sofisticado que este seja.
- A IA deve ser usada como uma ferramenta, não como uma autoridade: a IA deve permanecer sob controle humano. Construir sistemas incontroláveis ou delegar decisões em excesso é moralmente inaceitável e deve ser proibido por lei. Portanto, o desenvolvimento de tecnologias de IA de superinteligência (como mencionado acima) não deve ser permitido até que haja um amplo consenso científico de que isso será feito de forma segura e controlável, e até que haja, igualmente, um consentimento público claro e amplo.
- Responsabilização: apenas os humanos têm agência moral e legal e os sistemas de IA são e devem permanecer objetos legais, nunca sujeitos. A responsabilidade e a obrigação residem nos desenvolvedores, fornecedores, empresas, implantadores, usuários, institutos e governos. A IA não pode receber personalidade jurídica ou “direitos”.
- Decisões de vida ou morte: os sistemas de IA nunca devem ter permissão para tomar decisões de vida ou morte, especialmente em aplicações militares durante conflitos armados ou em tempos de paz, aplicação da lei, controle de fronteiras, cuidados com a saúde ou decisões judiciais.
- Desenvolvimento seguro e ético: os desenvolvedores devem conceber a IA tendo a segurança, a transparência e a ética como elementos centrais, e não como uma preocupação secundária. Os implantadores devem considerar o contexto de uso e os possíveis danos, além de estarem sujeitos aos mesmos princípios éticos e de segurança que os desenvolvedores. Testes independentes e avaliação de risco adequada devem ser exigidos antes da implantação e durante todo o ciclo de vida.
- Administração responsável: governos, corporações e qualquer outra pessoa não devem usar a IA como arma para qualquer tipo de dominação, guerras ilegais de agressão, coerção, manipulação, pontuação social ou vigilância em massa injustificada.
- Design responsável: a IA deve ser concebida e avaliada de forma independente, a fim de evitar efeitos não intencionais e potencialmente catastróficos sobre os seres humanos e a sociedade, por exemplo, quando um design gera engano, ilusão, dependência ou perda de autonomia.
- Sem monopólio da IA: os benefícios da IA (econômicos, médicos, científicos, sociais) não devem ser monopolizados.
- Não à desvalorização humana: o design e a implementação da IA devem promover o florescimento humano em suas escolhas e atividades, e não tornar a humanidade redundante, privada de direitos, desvalorizada ou substituível.
- Responsabilidade ambiental: o uso da IA não deve colocar em risco o nosso planeta e os ecossistemas. Suas vastas demandas por energia, água e minerais raros devem ser geridas de forma responsável e sustentável em toda a cadeia de suprimentos.
- Não à competição global irresponsável: devemos evitar uma corrida imprudente entre corporações e países em direção a sistemas de IA cada vez mais poderosos.
Defender e garantir esses princípios não será fácil. Isso exige coragem moral, mecanismos significativos de responsabilização, liderança perspicaz de todos os setores da sociedade e um tratado internacional vinculante que estabeleça limites em conjunto com uma instituição de supervisão independente com poderes de execução. Portanto, clamamos por liderança moral na era da IA. Como os perigos apresentados pela IA são muitas vezes indiretos, clamamos aos cientistas, à sociedade civil, aos grupos de direitos e às demais partes essenciais para que façam um esforço maior para articular e ampliar a conscientização pública sobre as limitações e os perigos da IA.
Convocamos cientistas, líderes do setor de tecnologia e legisladores a escutarem as vozes, experiências e pesquisas dos trabalhadores de dados, bem como das comunidades e pessoas que enfrentam os custos materiais da IA, colocando no centro de seu trabalho a proteção e o benefício dos mais vulneráveis. Pois a legitimidade das regras morais e legais em uma sociedade depende de como ela trata os seus membros mais vulneráveis. Também clamamos a cientistas, grupos da sociedade civil e auditores independentes para desenvolver e propor novos objetivos e métricas para treinar, otimizar e avaliar algoritmos de aprendizado em termos de veracidade, equilíbrio e bem humano, durante todo o ciclo de vida, não apenas no desempenho das tarefas e no engajamento.
Incentivamos legisladores, líderes do setor de tecnologia e comunidades globais a colaborarem no desenvolvimento de estruturas abrangentes para a governança da IA que promovam o bem comum. Isso inclui o direito dos seres humanos de viverem livres da IA. O avanço da verdadeira fraternidade humana na era da inteligência artificial requer o estabelecimento de padrões éticos e legais universais.
Por fim, clamamos a todas as pessoas de boa vontade: unamo-nos para assegurar que a IA esteja verdadeiramente a serviço de toda a humanidade, e não apenas de uns poucos.
Ao nos unirmos entre nações, culturas e crenças, priorizando o diálogo em vez da competição, podemos moldar um futuro que eleve a dignidade humana e promova um mundo mais justo e pacífico.
Clamamos a todas as partes interessadas, incluindo cidadãos, cientistas, líderes empresariais, líderes religiosos, representantes da comunidade e legisladores, para que participem desta iniciativa. Coletivamente, reiteramos o princípio essencial de que as máquinas devem servir aos interesses da humanidade.
Membros do grupo de trabalho que elaborou o Apelo Global
1. Paolo Benanti (Coordenador Científico)
2. Yoshua Bengio
3. Ernesto Belisario
4. Abeba Birhane
5. Cornelius Boersch
6. Yuval Noah Harari
7. Geoffrey Hinton
8. Lorena Jaume-Palasí
9. Antal Kuthy
10. Riccardo Luna (Coordenador)
11. Nnenna Nwakanma
12. Valerie Pisano
13. Stuart Russell
14. Max Tegmark
15. Marco Trombetti
16. Jimena Sofía Viveros Álvarez
17. Alexander Waibel
18. will.i.am
Também assinado por
● Miguel Benasayag
● Giorgio Parisi
● Maria Ressa