Intelligenza Artificiale e Etica sembrano appartenere a due universi opposti. Da una parte gli algoritmi, dall’altra i valori profondi e morali. In che modo è possibile far collimare questi due mondi?
Come funziona l’Intelligenza Artificiale
L’Intelligenza Artificiale è programmata per svolgere un compito ben preciso in modo veloce ed efficiente, alleggerendo spesso il lavoro dell’uomo, divenendo per lui un utile alleato. Basti pensare al recente lancio di ChatGPT, il sistema in grado di generare automaticamente contenuti di qualsiasi genere, definita da molti come una rivoluzione nel campo dell’AI.
I sistemi intelligenti sono, infatti, in grado di analizzare una ingente mole di informazioni e di documenti, estrapolando da essi i dati essenziali o individuando particolari correlazioni. Ovviamente, anche l’essere umano è in grado di raggiungere questo risultato, ma con maggiore sforzo e tempo impiegato.
L’Intelligenza Artificiale è incentrata su specifici algoritmi, elaborati per fare in modo che un certo incarico venga svolto dal sistema.
Di conseguenza, le macchine intelligenti sono programmate per prendere una decisione utilizzando uno schema ben preciso e basandosi su informazioni chiare e obiettive.
Si aprono dunque diversi interrogativi sulla morale e l’etica dell’Intelligenza Artificiale e su come i sistemi intelligenti possano essere responsabilizzati.
Etica: un concetto sfuggente, non facilmente definibile
L’Intelligenza Artificiale è programmata per risolvere un problema in modo razionale, fornendo una risposta logica attraverso l’elaborazione delle informazioni a disposizione.
Nella vita quotidiana emergono però situazioni che è difficile valutare in modo univoco.
Ci sono concetti che non è semplice razionalizzare, o definire. Ad esempio, è complesso descrivere le caratteristiche che una condotta deve avere per essere ritenuta etica e morale.
L’essere umano affronta spesso l’incertezza affidandosi all’istinto. Al contrario, i sistemi intelligenti si trovano di fronte a un bivio e la soluzione da loro offerta potrebbe risultare erronea, o distorta.
L’Intelligenza Artificiale non è obiettiva
Per le sue capacità e potenzialità, l’Intelligenza Artificiale viene spesso supposta come un sistema infallibile e neutrale.
Questa credenza nasce da una errata convinzione: l’A.I prende le decisioni basandosi su elementi razionali e non su emozioni, quindi le sue scelte sono obiettive.
In realtà, i sistemi intelligenti sono spesso poco trasparenti ed è quindi difficile capire su quale base i dati vengano discriminati.
Le distorsioni dell’Intelligenza Artificiale: discriminazione e razzismo
L’Intelligenza Artificiale è fortemente influenzata dal tipo di informazioni utilizzate per programmare il sistema.
Di conseguenza, se i dati sono affetti da errori (magari legati ai pregiudizi del programmatore), o a distorsioni storiche, culturali o sociali, il sistema prenderà decisioni sbagliate.
Una ricerca del 2017 ha dimostrato come l’Intelligenza Artificiale possa prendere delle decisioni razziste e discriminatorie.
Una premessa: i sistemi intelligenti utilizzano un approccio statistico. Di conseguenza, leggono le parole attribuendo loro un significato positivo o negativo a seconda dei termini che, in genere, accompagnano queste parole.
Nella ricerca è emerso che l’Intelligenza Artificiale associava nomi di persona europei a termini positivi, mentre i nomi africani venivano associati a espressioni negative.
Di conseguenza, nell’ utilizzo dei sistemi intelligenti nei processi di selezione, potrebbe accadere che l’Intelligenza Artificiale (spesso utilizzata per una prima scrematura) finisca per scriminare le candidature a favore dei nomi più europei.
L’Intelligenza Artificiale inizia però ad essere utilizzata anche in ambito bancario. Quindi, per lo stesso principio, il sistema potrebbe essere più propenso a concedere un prestito, o a un mutuo ad una persona con un nome europeo.
Marco Basaldella, informatico e ricercatore nel campo dell’AI, nel suo Ted Talk del 2018 affronta il problema de “L’etica nell’intelligenza artificiale per evitare i pregiudizi”. Porta sul palco il problema emerso sempre con maggiore frequenza negli ultimi anni degli algoritmi razzisti e sessisti, tra cui quelli di Google e Linkedin.
Nel 2015 Google Photos scambia afroamericani per gorilla, nel 2019 FaceApp crea un filtro bellezza che, se utilizzato da persone di colore, rende più chiara la pelle.
Così è stato anche per Linkedin che, al momento della ricerca di un nome femminile, tra i primi risultati faceva comparire utenti uomini. Ma perché questo accade?
Secondo Marco Basaldella : “Se voi utilizzate dei dati sbagliati, “spazzatura”, che contengono pregiudizi per addestrare il vostro algoritmo, l’algoritmo imparerà un ragionamento sbagliato. […] Imparerà i pregiudizi contenuti nei dati”.
I criteri da rispettare per progettare un’Intelligenza Artificiale etica
Secondo Nick Bostrom, professore della facoltà di Filosofia ad Oxford, l’Intelligenza Artificiale per essere etica, deve rispettare alcuni criteri:
-
gli algoritmi devono essere trasparenti, ovvero facilmente ispezionabili. Questo permetterebbe di capire perché l’Intelligenza Artificiale ha preso una determinata decisione dinanzi a una richiesta, o un problema;
-
gli algoritmi devono essere prevedibili, ovvero accompagnati da una chiara spiegazione dei loro risultati;
-
i sistemi intelligenti devono essere sicuri, ovvero non devono essere manipolabili da terzi con intenzioni malevole;
-
definire chiaramente il referente di un certo sistema intelligente, in modo tale da avere un chiaro punto di riferimento al quale rivolgersi in caso di problemi.I principi della Commissione europea per un’Intelligenza Artificiale etica
La Commissione europea ha pubblicato un codice etico per l’Intelligenza Artificiale.
Nel documento si sottolinea la necessità di un approccio antropocentrico all’A.I. Questo significa che i sistemi intelligenti vengono individuati come un mezzo attraverso il quale migliorare il benessere dell’uomo.
Infatti, i sistemi intelligenti vengono identificati come un importante strumento per affrontare sfide attuali e globali, come la salute e i cambiamenti climatici.
A questo proposito, la Commissione europea ha identificato sette principi che l’Intelligenza Artificiale deve rispettare per essere etica e affidabile:
-
azione e sorveglianza umana: i sistemi intelligenti devono supportare l’uomo nella vita quotidiana e non ridurne l’autonomia;
-
robustezza e sicurezza: gli algoritmi devono essere sicuri e affidabili;
-
riservatezza e governance dei dati: i cittadini devono essere consapevoli dei dati condivisi e utilizzati. Bisogna inoltre evitare che queste informazioni vengano utilizzate per lederli;
-
trasparenza: tracciabilità dei sistemi intelligenti;
-
diversità, non discriminazione ed equità: i sistemi intelligenti devono essere accessibili a tutti;
-
benessere sociale e ambientale: l’AI dovrebbe supportare la sostenibilità e la responsabilità ecologica;
-
accountability: ovvero garantire la responsabilità dell’AI e dei risultati prodotti.
Intelligenza artificiale etica per le aziende
Anche IBM ha stilato una vera e propria guida per tutte le aziende che vogliono sviluppare sistemi basati su AI in grado di rispettare valori etici.
Nel report del 2021 “AI Ethics in Action” è stato riscontrato che il 75% dei dirigenti riconosce la sua importanza e ritiene che sia un fattore differenziante in termini di competitività. Inoltre, la reponsabilità per la creazione di un’IA etica è in capo a tutte le divisioni, non solo quelle tecniche.
Per quanto riguarda la guida IBM, essa fornisce delle linee guida e degli spunti per lo sviluppo di un’Intelligenza Artificiale etica, che si articolano in 3 macro-sezioni.
La prima riguarda la Vision e la Strategia aziendale, identificando quelle che sono le pratiche etiche da mettere in atto nel contesto delle organizzazioni.
In secondo luogo viene analizzata l’area di Governance, stabilendo l’approccio gestionale da adottare per lo sviluppo etico dell’AI.
Ed infine, nell’area di Implementazione si definiscono le metodologie concrete per integrare l’intelligenza artificiale nei vari compiti e formare il personale.
Tradurre l’etica in algoritmo: nasce l’Algor-Etica
L’Intelligenza Artificiale è una nuova tecnologia dalle grandi potenzialità e in rapido sviluppo, costretta a scontrarsi con una società che si muove più lentamente.
I sistemi intelligenti sono programmati per prendere le loro decisioni utilizzando valori numerici.
Di conseguenza, bisogna trasformare anche l’etica in qualcosa di comprensibile per l’Intelligenza Artificiale.
Si apre dunque il filone dell’algor-etica, basata sull’idea di poter tradurre valori e principi in linguaggio binario.
Così facendo, in particolari situazioni l’Intelligenza Artificiale potrebbe vacillare e una decisione verrebbe presa grazie all’intervento umano.
Fonti:
Bostrom N. (2011), The Ethics of Artificial Intelligence.
Leggi anche:
- 10+1 imperdibili Ted Talks sull'Intelligenza Artificiale
- Tutela privacy e Intelligenza Artificiale: a che punto siamo?
Vuoi saperne di più su Pigro? Contattaci!