La fraternité à l’ère de l’IA

Notre appel mondial à la coexistence pacifique des humains et à la responsabilité partagée

Roma, 12 Settembre 2025


à Sa Sainteté le Pape Léon XIV
à tous les dirigeants mondiaux
et à toutes les personnes de bonne volonté

Version française (également disponible en العربية-الإمارات, Deutsch, English , Español-España, Français-Canada, עברית-ישראל, हिन्दी-भारत, Italiano, 日本語, 한국어, Magyar, Português-Brasil, Svenska, 简体中文)

Animés par un profond désir de construire un avenir où les humains façonnent la société et les décisions, notre table ronde indépendante composée d’experts, de leaders technologiques, de leaders d’opinion et d’universitaires de nombreux pays, horizons et confessions différents, lance l’appel suivant pour un avenir où l’intelligence artificielle est développée de manière
responsable par et pour les personnes.

Les choix que nous faisons aujourd’hui en matière d’intelligence artificielle auront une influence capitale sur le monde que nous laisserons aux générations futures. L’IA cause déjà des dommages importants, creuse les inégalités, concentre le pouvoir entre les mains de quelques acteurs et nuit à l’environnement. Des sommes considérables et dont le montant ne cesse de croître sont consacrées au développement de technologies agentiques ayant le potentiel de dépasser les capacités cognitives humaines, ce que beaucoup dans la communauté de la recherche en IA appellent la « superintelligence ». Ces défis nécessitent un leadership moral et des actions concrètes urgentes.

L’intelligence artificielle offre des opportunités importantes pour faire progresser la découverte scientifique et la compréhension mutuelle des humains, révolutionner le domaine de la santé, améliorer la gouvernance et, de manière générale, favoriser une prospérité durable et inclusive. Cependant, elle présente également des risques considérables, tels que décrits dans le Rapport scientifique international sur la sécurité de l’IA (notamment le déplacement d’emplois, la réduction des libertés individuelles, les guerres de pouvoir, la désinformation et la manipulation, la surveillance de masse ou les impacts sur l’environnement), et menace le bien-être humain.

Pour tirer parti de toutes les opportunités légitimes et possibles de l’intelligence artificielle tout en atténuant les coûts et les risques, il est essentiel d’établir les bases de l’épanouissement humain ainsi que des limites bien définies, ancrées dans le respect de la dignité, de la communauté, des droits de l’homme et de l’environnement, et fondées sur le principe de responsabilisation.

Dans cet esprit de fraternité, d’espoir et de précaution, nous appelons votre leadership à respecter les principes et les lignes rouges suivants pour favoriser le dialogue et la réflexion sur la manière dont l’IA peut servir au mieux l’ensemble de l’humanité :

Vie et dignité humaines : l’intelligence artificielle ne doit jamais êtredéveloppée ou utilisée de manière à menacer, diminuer ou nier la vie, la dignitéou les droits fondamentaux de l’être humain. L’intelligence humaine, c’est-à-dire notre capacité de jugement, de raisonnement moral et d’orientation vers la vérité et la beauté, ne doit jamais être dévalorisée par un traitement artificiel,aussi sophistiqué soit-il.

L’IA doit être utilisée comme un outil, et non comme une autorité : elle doit rester sous contrôle humain. Construire des systèmes incontrôlables ou déléguer des décisions de manière excessive est moralement inacceptable et doit être légalement interdit. Par conséquent, le développement de technologies de superintelligence (comme mentionné ci-dessus) ne doit pas être autorisé tant qu’il n’y a pas un large consensus scientifique sur le fait que cela peut être effectué de manière sûre et contrôlable, et qu’un consentement public clair et large n’a pas été obtenu.

Responsabilisation : seuls les humains ont une capacité morale et juridique, et les systèmes d’IA sont et doivent rester des objets de droit, jamais des sujets. La responsabilité incombe aux développeurs, aux fournisseurs, aux entreprises, aux déployeurs de systèmes, aux utilisateurs, aux instituts et aux gouvernements. L’IA ne peut pas se voir accorder de personnalité juridique ou de « droits ».

  • Vie et dignité humaines: l’intelligence artificielle ne doit jamais êtredéveloppée ou utilisée de manière à menacer, diminuer ou nier la vie, la dignitéou les droits fondamentaux de l’être humain. L’intelligence humaine, c’est-à-dire notre capacité de jugement, de raisonnement moral et d’orientation vers la vérité et la beauté, ne doit jamais être dévalorisée par un traitement artificiel,aussi sophistiqué soit-il.
  • L’IA doit être utilisée comme un outil, et non comme une autorité: elle doit rester sous contrôle humain. Construire des systèmes incontrôlables ou déléguer des décisions de manière excessive est moralement inacceptable et doit être légalement interdit. Par conséquent, le développement de technologies de superintelligence (comme mentionné ci-dessus) ne doit pas être autorisé tant qu’il n’y a pas un large consensus scientifique sur le fait que cela peut être effectué de manière sûre et contrôlable, et qu’un consentement public clair et large n’a pas été obtenu.
  • Responsabilisation: seuls les humains ont une capacité morale et juridique, et les systèmes d’IA sont et doivent rester des objets de droit, jamais des sujets. La responsabilité incombe aux développeurs, aux fournisseurs, aux entreprises, aux déployeurs de systèmes, aux utilisateurs, aux instituts et aux gouvernements. L’IA ne peut pas se voir accorder de personnalité juridique ou de « droits ».
  • Décisions de vie ou de mort: les systèmes d’intelligence artificielle ne doivent jamais être autorisés à prendre des décisions de vie ou de mort, en particulier dans les applications militaires pendant les conflits armés ou en temps de paix, dans le cadre de l’application de la loi, du contrôle des frontières, de la santé ou des décisions judiciaires.
  • Développement sûr et éthique: les développeurs doivent concevoir l’IA en mettant la sécurité, la transparence et l’éthique au cœur de leurs préoccupations. Ces notions ne doivent pas être considérées comme secondaires. Les déployeurs de systèmes doivent tenir compte du contexte d’utilisation et des dommages potentiels, et se soumettre aux mêmes principes de sécurité et d’éthique que les développeurs. Des tests indépendants et une évaluation adéquate des risques doivent être exigés avant le déploiement et tout au long du cycle de vie.
  • Intendance : les gouvernements, les entreprises et tout autre acteur ne doivent pas utiliser l’IA comme un instrument de domination, de guerre d’agression illégale, de coercition, de manipulation, de notation sociale ou de surveillance de masse injustifiée.
  • Conception responsable: l’IA doit être conçue et évaluée de manière indépendante pour éviter tout effet involontaire et désastreux sur les humains et la société, comme ce pourrait être le cas avec une conception donnant lieu à la tromperie, à l’illusion, à la dépendance ou à la perte d’autonomie.
  • Pas de monopole de l’IA: les avantages de l’intelligence artificielle (économiques, médicaux, scientifiques, sociaux) ne doivent pas être monopolisés. 
  • Pas de dévalorisation humaine: la conception et le déploiement de l’IA doivent permettre aux humains de s’épanouir dans les activités qu’ils ont choisies, et non de rendre l’humanité superflue, privée de ses droits, dévalorisée ou remplaçable.
  • Responsabilité écologique: notre utilisation de l’IA ne doit pas mettre en danger notre planète et nos écosystèmes. Ses vastes besoins en énergie, en eau et en minéraux rares doivent être gérés de manière responsable et durable tout au long de la chaîne d’approvisionnement.
  • Pas de concurrence mondiale irresponsable: nous devons éviter une course irresponsable des entreprises et des pays en vue de bénéficier d’une IA toujours plus puissante.

Il ne sera pas facile de faire respecter ces principes. Cela exige un courage moral, la mise en place de mécanismes de responsabilisation significatifs avec un leadership clairvoyant dans tous les secteurs de la société, ainsi qu’un traité international contraignant établissant des lignes rouges et une institution de supervision indépendante dotée de pouvoirs d’exécution. Nous appelons donc à un leadership moral à l’ère de l’IA. Étant donné que les dangers présentés par l’IA sont souvent indirects, nous appelons les scientifiques, la société civile et les groupes de défense des droits, ainsi que d’autres parties prenantes, à faire un plus grand effort pour définir les limites et dangers de l’IA, et amplifier la sensibilisation du public. Nous appelons les scientifiques, les leaders de l’industrie technologique et les décideurs politiques à écouter les voix, les expériences et les recherches des data workers (ou travailleurs des données), des communautés et des peuples qui subissent les coûts (matériels) de l’IA, et à concentrer leurs efforts sur la protection des plus vulnérables. Parce que la légitimité des règles morales et juridiques dans une société repose sur la façon dont elle traite ses peuples les plus vulnérables.

Nous appelons également les scientifiques, les groupes de la société civile et les auditeurs indépendants à développer et à proposer de nouveaux objectifs et mesures pour former, optimiser et évaluer les algorithmes d’apprentissage en termes de véracité, d’équilibre et de bien humain, tout au long du cycle de vie, et pas seulement en matière de performance et d’engagement.

Nous encourageons les décideurs politiques, les leaders de l’industrie technologique et les communautés mondiales à collaborer à l’élaboration de cadres complets pour la gouvernance de l’IA qui servent le bien commun. Cela inclut le droit des humains à vivre sans l’IA. La formation d’une véritable fraternité humaine à l’ère de l’intelligence artificielle nécessite l’établissement de normes éthiques et juridiques universelles.

Enfin, nous lançons un appel à toutes les personnes de bonne volonté : unissons-nous pour que l’IA serve toute l’humanité plutôt qu’une minorité.

En nous rassemblant à travers les nations, les cultures et les croyances, en donnant la priorité au dialogue plutôt qu’à la concurrence, nous pouvons façonner un avenir qui élève la dignité humaine et favorise un monde plus juste et plus pacifique.

Nous appelons toutes les parties prenantes, y compris les citoyens, les scientifiques, les chefs d’entreprise, les chefs religieux, les représentants des communautés et les décideurs politiques, à participer à cette initiative. Collectivement, nous réaffirmons le principe essentiel selon lequel les machines doivent servir les intérêts de l’humanité.


Membres du groupe de travail qui ont rédigé l’Appel Mondial

1. Paolo Benanti (Coordinateur scientifique)

2. Yoshua Bengio

3. Ernesto Belisario

4. Abeba Birhane

5. Cornelius Boersch

6. Yuval Noah Harari

7. Geoffrey Hinton

8. Lorena Jaume-Palasí

9. Antal Kuthy

10. Riccardo Luna (Coordinateur)

11. Nnenna Nwakanma

12. Valerie Pisano

13. Stuart Russell

14. Max Tegmark

15. Marco Trombetti

16. Jimena Sofía Viveros Álvarez

17. Alexander Waibel

18. will.i.am

Également signé par

● Miguel Benasayag

● Giorgio Parisi

● Maria Ressa