Esplora i nostri principi fondamentali

Un’introduzione ai pilastri del Rome Appeal sull’IA.

Dignità umana

Ogni persona possiede una dignità intrinseca e inalienabile, indipendente da capacità, origine o status. Le tecnologie di IA devono servire la vita umana, non valutarla o classificarla in modi che ne mettano a rischio il valore. Politiche, dati e algoritmi devono prevenire discriminazioni e trattamenti degradanti, proteggere i più vulnerabili e promuovere un uso che rafforzi diritti, libertà e coesione sociale.

L’IA come strumento, non autorità morale

Le macchine non hanno coscienza né responsabilità morale. L’IA è uno strumento che supporta la deliberazione umana e non può sostituirsi al giudizio etico o alle istituzioni legittimate. Le decisioni sensibili restano di competenza umana, con processi chiari di controllo e verifica. Evitare linguaggi e design che attribuiscano agency o autorevolezza ingiustificata ai sistemi.

Supervisione e controllo umano significativi

Gli usi ad alto impatto richiedono supervisione continua, possibilità di intervento e arresto, auditabilità e tracciabilità. Devono essere definiti ruoli e responsabilità; i sistemi devono essere spiegabili per quanto possibile e proporzionati al rischio, con verifica indipendente. Ogni persona deve poter contestare decisioni automatizzate attraverso un ricorso effettivo.

No a manipolazione, disinformazione e sorveglianza di massa

L’IA non deve essere usata per manipolare persone o comunità, diffondere disinformazione sistemica, profilare in modo invasivo o alimentare sorveglianza di massa. Servono salvaguardie per libertà di pensiero, espressione e associazione, e limiti rigorosi a tecniche persuasive e riconoscimento biometrico su larga scala.

Benefici equi, no monopoli

I benefici dell’IA devono essere condivisi e non concentrati in pochi soggetti. Promuovere standard aperti e interoperabilità, accesso responsabile a conoscenza e infrastrutture, sostegno ai Paesi e alle comunità meno avvantaggiate; prevenire nuove forme di colonialismo digitale e pratiche anticoncorrenziali.

Responsabilità ecologica lungo il ciclo di vita

Considerare l’intero ciclo di vita dei sistemi: energia, acqua, materiali, rifiuti. Trasparenza su emissioni e impatti; efficienza ed energia rinnovabile come priorità; progettazione per riuso e riciclo; valutazione delle esternalità ambientali e sociali della filiera dei dati e dell’hardware.

Accountability e tracciabilità (no personalità giuridica all’IA)

La responsabilità giuridica resta umana o istituzionale: alle macchine non va attribuita personalità giuridica. Le catene di responsabilità e la provenienza di dati e modelli devono essere tracciabili; documentazione, versioning e log degli eventi vanno conservati. I danni causati da sistemi di IA devono poter essere accertati e risarciti con meccanismi chiari.

Decisioni di vita o di morte: mai delegate all’IA

Le decisioni che incidono su vita e morte non possono essere delegate a sistemi automatici. In difesa, sicurezza pubblica, sanità e giustizia, l’IA può assistere ma l’ultima parola spetta a persone identificabili e responsabili. Servono divieti espliciti, protocolli operativi, supervisione qualificata e possibilità di interruzione immediata.

Sicurezza, test indipendenti e mitigazione dei rischi

Prima dell’adozione servono test rigorosi e indipendenti; dopo l’implementazione, monitoraggio continuo. Valutazioni d’impatto etico, sociale e sui diritti; misure di sicurezza proporzionate al rischio; difese contro l’uso improprio; piani di incident response e obbligo di segnalazione degli eventi avversi.

Progettazione responsabile: niente inganno o dipendenza

Progettare in modo trasparente e orientato al bene comune: interfacce non ingannevoli, dichiarazione quando si interagisce con macchine, limiti a meccanismi che generano dipendenza o sfruttano l’attenzione. Preservare autonomia e capacità umane; prevedere opt‑out significativi e impostazioni predefinite sicure.

Nessuna svalutazione dell’umano: lavoro e diritti

L’IA deve aumentare la capacità umana, non sostituirla o svalutarla. Politiche per lavoro dignitoso, riqualificazione e protezione sociale; coinvolgimento di lavoratori e rappresentanze nelle scelte tecnologiche; tutela della salute psico‑fisica, del tempo e della vita familiare.

Cooperazione internazionale e quadro vincolante

Le sfide sono globali: occorrono regole comuni e cooperazione tra Stati, istituzioni multilaterali e società civile. Evitare una corsa irresponsabile agli armamenti o alla supremazia tecnologica. Lavorare verso strumenti giuridicamente vincolanti, supervisione indipendente e meccanismi di trasparenza e fiducia reciproca.

Abbraccia oggi la fratellanza in un mondo guidato dall’intelligenza artificiale.

Unisciti al nostro appello globale per promuovere una convivenza umana pacifica e responsabile.

  • Rispetto Universale
  • Responsabilità Condivisa
  • Tecnologia Umanistica
  • Dialogo Aperto
  • Equità Globale