La Dichiarazione di Montréal sullo sviluppo responsabile dell’IA (2018) ha 3 obiettivi primari:
- Sviluppare un quadro etico per lo sviluppo e l’implementazione dell’IA.
- Guidare la transizione digitale in modo che tutti traggano vantaggio dalla rivoluzione tecnologica.
- Avviare un forum di discussione a livello nazionale e internazionale con l’obiettivo di sviluppare l’IA in modo equo, inclusivo ed ecosostenibile.
I principi
Principio di benessere
“Lo sviluppo e l’uso dei sistemi di intelligenza artificiale (IA) devono consentire il miglioramento del benessere di tutti gli esseri senzienti.”
- I sistemi IA devono aiutare le persone a migliorare le proprie condizioni di vita, di salute e di lavoro.
- I sistemi IA devono permettere alle persone di perseguire le proprie attitudini, nella misura in cui non ledano altri esseri senzienti.
- I sistemi IA devono permettere alle persone di mettere in pratica le proprie capacità mentali e fisiche.
- I sistemi IA non devono diventare una fonte di malessere, a meno che questo non preluda al conseguimento di un benessere superiore a quanto si otterrebbe altrimenti.
- L’utilizzo dei sistemi IA non deve aumentare stress, ansia e la sensazione di essere vessati dall’ambiente digitale.
Principio di rispetto per l’autonomia
“I sistemi AIS devono essere sviluppati e utilizzati nel rispetto dell’autonomia delle persone e con l’obiettivo di aumentarne il controllo sulla propria vita e sull’ambiente circostante.”
- I sistemi IA devono permettere alle persone di realizzare i propri obiettivi e la propria concezione di vita degna di essere vissuta.
- I sistemi IA non devono essere sviluppati e utilizzati per imporre alle persone un particolare stile di vita, né direttamente né indirettamente, applicando metodi di sorveglianza oppressiva o meccanismi di valutazione o incentivazione.
- Le pubbliche istituzioni non devono utilizzare i sistemi IA per promuovere o ostacolare una particolare idea di vita buona.
- È fondamentale abituare i cittadini alle tecnologie digitali garantendo l’accesso alle relative forme di conoscenza, favorendo l’apprendimento delle competenze fondamentali (alfabetizzazione digitale e multimediale) e sostenendo lo sviluppo del pensiero critico.
- I sistemi IA non devono essere sviluppati per diffondere informazioni inattendibili, menzognere o di propaganda, e devono essere progettati con l’obiettivo di limitarne la diffusione.
- Lo sviluppo dei sistemi IA non deve creare dipendenza con tecniche capaci di calamitare l’attenzione o imitando le caratteristiche umane (aspetto, voce, ecc.) in un modo che possa causare confusione tra IA ed esseri umani.
Principio di protezione della privacy e della riservatezza
“Privacy e riservatezza devono essere protette dall’intromissione dei sistemi IA e dei sistemi di acquisizione e archiviazione dei dati (AAD).”
- Gli spazi personali in cui le persone non sono soggette a sorveglianza o a valutazione digitale devono essere protetti dall’intromissione dei sistemi IA e AAD.
- La riservatezza di pensieri ed emozioni deve essere rigorosamente protetta dall’utilizzo di sistemi IA e AAD che possano recare danno, in particolare imponendo giudizi morali sulle persona e le relative scelte di vita.
- Gli individui devono sempre mantenere il diritto a scollegare la propria vita privata dai sistemi digitali e i sistemi IA devono offrire esplicitamente l’opzione di disconnessione a intervalli regolari, senza incoraggiare le persone a restare connesse.
- Le persone devono mantenere il controllo completo sulle informazioni relative alla proprie preferenze. I sistemi IA non devono creare profili delle preferenze individuali per influenzare il comportamento delle persone, senza il loro consenso libero e informato.
- I sistemi AAD devono garantire la riservatezza dei dati e l’anonimato del profilo personale.
- Ognuno deve poter esercitare pieno controllo sui propri dati personali, soprattutto in relazione alla loro raccolta, utilizzo e divulgazione. L’accesso delle persone ai sistemi IA e ai servizi digitali non deve essere vincolato alla rinuncia al controllo o alla proprietà dei dati personali.
- Le persone devono essere libere di fornire i propri dati alle organizzazioni di ricerca per contribuire al progresso delle conoscenze.
- Deve essere garantita l’integrità della propria identità personale. I sistemi IA non devono essere utilizzati per imitare o alterare l’aspetto, la voce o altre caratteristiche individuali dell’utente, al f ine di danneggiarne la reputazione o manipolare altre persone.
Principi di solidarietà
“Lo sviluppo dei sistemi IA deve essere compatibile con il mantenimento dei legami di solidarietà tra persone e generazioni.”
- I sistemi IA devono favorire le relazioni umane, riducendo vulnerabilità e isolamento delle persone.
- Devono aiutare gli esseri umani a svolgere compiti complessi e promuovere la collaborazione.
- Non devono sostituire le persone in ambiti che richiedano relazioni umane di qualità, bensì agevolarle.
- I sistemi IA nel settore sanitario devono considerare l’importanza delle relazioni del paziente con familiari e personale sanitario.
- Lo sviluppo dell’IA non deve incoraggiare comportamenti ostili verso i robot che imitano esseri umani o animali.
- Devono contribuire a una società più equa, favorendo una comune distribuzione dei rischi individuali e collettivi.
Principio di partecipazione democratica
“I sistemi IA devono soddisfare i criteri di intelligibilità, giustificabilità e accessibilità, e devono essere soggetti ad attento esame, dibattito e controllo democratico.”
- I processi IA che incidono sulla vita delle persone devono essere chiari a chi li crea.
- Le decisioni prese dai sistemi IA devono essere sempre giustificabili e comprensibili per gli utenti o per coloro che subiscono le conseguenze del loro uso.
- Il codice degli algoritmi pubblici e privati deve essere accessibile alle autorità competenti e ai soggetti interessati per verifica e controllo.
- Gli errori, gli effetti inattesi, le violazioni della sicurezza e le perdite di dati dei sistemi IA devono essere segnalati alle autorità pubbliche competenti e ai soggetti coinvolti.
- Gli algoritmi decisionali utilizzati dalle autorità pubbliche devono essere accessibili a tutti, eccetto quelli che potrebbero causare danni gravi in caso di uso improprio.
- Per i sistemi IA che hanno un impatto significativo sulla vita dei cittadini, deve essere garantita loro la possibilità di decidere i parametri sociali di tali sistemi, i loro obiettivi e limiti d’uso.
- Deve essere sempre possibile verificare che i sistemi IA svolgano le funzioni per cui sono stati programmati.
- Gli utenti devono essere informati se una decisione che li riguarda è stata presa da un sistema IA.
- Gli utenti dei chatbot devono poter identificare chiaramente se l’interazione avviene con un sistema IA o con una persona reale.
- La ricerca sull’intelligenza artificiale deve restare aperta e accessibile a tutti.
Principio di equità
“Lo sviluppo e l’utilizzo dei sistemi IA devono contribuire alla creazione di una società giusta ed equa.”
- I sistemi IA devono essere progettati e addestrati in modo da non creare, rafforzare o produrre discriminazioni in base, tra l’altro, a differenze sociali, sessuali, etniche, culturali o religiose.
- Lo sviluppo dei sistemi IA deve aiutare ad abolire le relazioni di dominio tra gruppi e persone sulla base di disparità di potere, ricchezza o conoscenza.
- Lo sviluppo dei sistemi IA deve produrre vantaggi sociali ed economici per tutti, riducendo le disuguaglianze e le vulnerabilità sociali.
- Lo sviluppo di sistemi IA industriali deve essere compatibile con condizioni di lavoro accettabili in ogni fase del loro ciclo di vita, dall’estrazione delle risorse naturali al riciclo, compreso il trattamento dei dati.
- L’attività digitale degli utenti dei sistemi IA e dei servizi digitali deve essere riconosciuta come lavoro che contribuisce al funzionamento degli algoritmi e crea valore.
- Deve essere garantito a tutti l’accesso a risorse, conoscenze e strumenti digitali fondamentali.
- Dobbiamo sostenere lo sviluppo di algoritmi comuni, e dei dati aperti necessari per effettuarne il training, ed espanderne l’uso, come obiettivo socialmente equo.
Principio di inclusione e diversità
“Lo sviluppo e l’utilizzo dei sistemi IA deve essere compatibile con il mantenimento delle diversità socio-culturali e non devono limitare l’ambito delle scelte di vita o delle esperienze personali.”
- Lo sviluppo e l’utilizzo dei sistemi IA non deve portare all’omogeneizzazione sociale tramite la standardizzazione di comportamenti e opinioni.
- Dal momento in cui gli algoritmi vengono ideati, lo sviluppo e l’applicazione dei sistemi IA deve prendere in considerazione la molteplicità di espressione delle diversità socio-culturali presenti nella società.
- Gli ambienti di sviluppo dei sistemi IA, industriali o di ricerca, devono essere inclusivi e riflettere le diversità dei singoli individui e gruppi della società.
- I sistemi IA non devono utilizzare i dati acquisiti per associare le persone a un profilo utente, stabilirne l’identità personale o isolarle in una bolla di filtraggio, in modo da limitarne e restringerne le possibilità di sviluppo personale, soprattutto negli ambiti della formazione, della giustizia o del business.
- I sistemi IA non devono essere sviluppati o utilizzati per limitare la libera espressione delle idee o la possibilità di sentire opinioni diverse, entrambe condizioni essenziali per una società democratica.
- Per ogni categoria di servizi, l’offerta di sistemi IA deve essere diversificata, in modo da evitare di fatto la formazione di monopoli e la riduzione delle libertà individuali.
Principio di prudenza
“Chiunque sia coinvolto nello sviluppo dei sistemi IA deve prestare attenzione a prevedere nei limiti del possibile le conseguenze negative dell’utilizzo dei sistemi IA e ad adottare misure adeguate a evitarle.”
- È necessario sviluppare meccanismi che tengano in considerazione il duplice utilizzo (benefico e dannoso) della ricerca e dello sviluppo dei sistemi IA, al fine di limitarne l’uso nocivo.
- Se l’utilizzo improprio dei sistemi IA danneggia la salute pubblica o la sicurezza ed è altamente probabile che questo avvenga, è prudente limitare l’accesso libero e la divulgazione pubblica degli algoritmi.
- Prima dell’immissione sul mercato, sia che vengano proposti a titolo gratuito o a pagamento, i sistemi IA devono soddisfare stringenti requisiti di affidabilità, sicurezza e integrità, ed essere soggetti a test che non mettano in pericolo la vita delle persone, la qualità della vita, la reputazione o l’integrità psicologica.
- Lo sviluppo dei sistemi IA deve prevenire i rischi di utilizzo improprio dei dati degli utenti e proteggere l’integrità e la riservatezza delle informazioni personali.
- Errori e difetti individuati nei sistemi IA devono essere divulgati pubblicamente su scala globale dalle istituzioni pubbliche e dalle aziende dei settori interessati, specialmente quando danneggiano in modo rilevante l’integrità personale e la struttura sociale.
Principio di responsabilità
“Lo sviluppo e l’utilizzo dei sistemi IA non devono contribuire a ridurre la responsabilità degli esseri umani di fronte alla necessità di assumere decisioni.”
- Solo gli esseri umani possono essere considerati responsabili delle decisioni derivanti dalle raccomandazioni dei sistemi IA e delle azioni che ne conseguono.
- In tutti gli ambiti in cui devono essere assunte decisioni che incidono sulla vita delle persone, sulla qualità della vita o sulla reputazione degli individui, ove i tempi e le circostanze lo consentano, la decisione definitiva deve essere libera e informata, e presa da un essere umano.
- La decisione di uccidere deve sempre essere presa dagli esseri umani, senza trasferirne la responsabilità ai sistemi IA.
- Chiunque autorizzi i sistemi IA a commettere un crimine o un reato, oppure dimostri omissione consentendo ai sistemi IA di compierli, è responsabile di tale crimine o reato.
- Se sono stati prodotti danni da un sistema IA ritenuto affidabile e utilizzato secondo gli usi previsti, non è ragionevole attribuire la colpa alle persone coinvolte nel suo sviluppo o utilizzo.
Principio di sviluppo sostenibile
“Lo sviluppo e l’utilizzo dei sistemi IA devono essere effettuati in modo da garantire una forte sostenibilità ambientale del pianeta.”
- L’hardware dei sistemi IA, l’infrastruttura digitale e i relativi oggetti su cui si basa, come i centri dati, devono ambire alla massima efficienza energetica e alla riduzione delle emissioni di gas serra durante l’intero ciclo di vita.
- L’hardware dei sistemi IA, l’infrastruttura digitale e i relativi oggetti su cui si basa, devono ambire a generare la minore quantità possibile di rifiuti elettrici ed elettronici, fornendo procedure di manutenzione, riparazione e riciclo secondo i principi dell’economia circolare.
- L’hardware dei sistemi IA, l’infrastruttura digitale e i relativi oggetti su cui si basa, devono ridurre al minimo l’impatto umano sugli ecosistemi e la biodiversità in ogni fase del loro ciclo di vita, soprattutto per quanto riguarda l’estrazione delle risorse e lo smaltimento finale delle apparecchiature.
- Gli attori pubblici e privati devono sostenere lo sviluppo ecosostenibile dei sistemi IA, contrastando lo spreco di risorse naturali e di merci prodotte, generando commercio e catene di fornitura sostenibili e riducendo l’inquinamento globale.