Lo sviluppo dell’IA al servizio dell’umanità e del pianeta deve riflettersi in regolamenti e principi che proteggono le persone – in particolare i deboli e i svantaggiati – e gli ambienti naturali.
L’impegno etico di tutte le parti interessate è un punto di partenza cruciale; per rendere questo futuro una realtà, i valori, i principi, e in alcuni casi, i regolamenti legali, sono assolutamente indispensabili per sostenere, strutturare e guidare questo processo.
Per sviluppare e implementare sistemi di IA a beneficio dell’umanità e del pianeta, mentre agiscono come strumenti per costruire e mantenere la pace internazionale, lo sviluppo dell’IA deve andare di pari passo con robuste misure di sicurezza digitale.
Affinché l’IA possa fungere da strumento per il bene dell’umanità e del pianeta, dobbiamo porre il tema della protezione dei diritti umani nell’era digitale al centro del dibattito pubblico. È giunto il momento di chiedersi se nuove forme di automazione e attività algoritmica richiedano lo sviluppo di responsabilità più forti.
In particolare, sarà fondamentale considerare una qualche forma di “dovere di spiegazione”: dobbiamo pensare a rendere comprensibili non solo i criteri decisionali degli agenti algoritmici basati sull’IA, ma anche il loro scopo e i loro obiettivi.
Questi dispositivi devono essere in grado di offrire agli individui informazioni sulla logica dietro gli algoritmi utilizzati per prendere decisioni. Ciò aumenterà la trasparenza, la tracciabilità e la responsabilità, rendendo più valido il processo decisionale assistito da computer.
Nuove forme di regolamentazione devono essere incoraggiate per promuovere la trasparenza e il rispetto dei principi etici, soprattutto per le tecnologie avanzate che hanno un rischio maggiore di impatto sui diritti umani, come il riconoscimento facciale.
Per raggiungere questi obiettivi, dobbiamo impostare fin dall’inizio dello sviluppo di ogni algoritmo una visione “Algor-etico”, i.e. un approccio di etica del programma. Progettare e pianificare sistemi di IA di cui possiamo fidarci, implica la ricerca di un consenso tra i decisori politici, le agenzie di sistema delle Nazioni Unite e altre organizzazioni intergovernative, i ricercatori, il mondo accademico e i rappresentanti di organizzazioni non governative per quanto riguarda i principi etici che dovrebbero essere incorporati in queste tecnologie.
Per questo motivo, gli sponsor della call esprimono il desiderio di lavorare insieme, in questo contesto e a livello nazionale e internazionale, per promuovere “Algor-ethics”, vale a dire l’uso etico dell’IA come definito dai seguenti principi:
- 1.Trasparenza: in linea di principio, i sistemi di IA devono essere spiegabili;
- 2.Inclusione: i bisogni di tutti gli esseri umani devono essere presi in considerazione in modo che tutti possono beneficiare e tutti gli individui possono offrire le migliori condizioni possibili per esprimersi e svilupparsi;
- 3.Responsabilità: chi progetta e utilizza l’IA deve procedere con responsabilità e trasparenza;
- 4.Imparzialità: non creare o agire secondo pregiudizi, salvaguardando così l’equità e la dignità umana;
- 5.Affidabilità: i sistemi IA devono essere in grado di funzionare in modo affidabile;
- 6.Sicurezza e Privacy: i sistemi di IA devono funzionare in modo sicuro e rispettare la privacy degli utenti.
Questi principi sono elementi fondamentali di una buona innovazione.
*stralcio dal documento “Roma Call for AI Ethics” 28/02/2020