Scienza

L’Intelligenza artificiale e le scelte etiche

Un'automobile controllata dal computer, con alcuni passeggeri a bordo, mentre sta percorrendo una strada sul ciglio di un burrone, si trova improvvisamente davanti un gruppo di pedoni. Quale sarà la reazione del sistema?

Crescono le aspettative nei confronti dei nuovi sistemi di “intelligenza artificiale” (IA). Già, ma potranno mai veramente sostituire gli esseri umani in tutte le loro capacità?
Prendiamo, ad esempio, il caso dei sistemi di IA che dovrebbero controllare le automobili a guida autonoma e immaginiamo uno scenario stradale “complesso”. La nostra automobile controllata dal computer, con alcuni passeggeri a bordo, mentre sta percorrendo una strada sul ciglio di un burrone, si trova improvvisamente davanti un gruppo di pedoni. Quale sarà la reazione del sistema? Si limiterà a frenare, pur valutando ormai del tutto inutile quest’azione (inevitabilmente travolgerà i pedoni), o sterzerà bruscamente dirigendo l’automobile quasi sicuramente nel dirupo (inevitabilmente causerà la morte dei passeggeri)? Con tutta evidenza, siamo di fronte ad una decisione operativa che non è soltanto “tecnica”, bensì una scelta di tipo “morale”, che i sistemi di IA potrebbero fronteggiare solo traducendo in azione le scelte di base (criteri) dei loro progettisti.
Si può dunque parlare – in un certo senso – di “etica” dei sistemi di IA? E come impostare questo tipo di programmazione? Per approfondire la questione, un gruppo di ricercatori del Massachusetts Institute of Technology (Usa), in collaborazione con università di altri paesi, ha realizzato uno studio (pubblicato su “Nature”), basato su un ampio sondaggio on line (per l’appunto denominato “Moral Machine”), che ha ottenuto oltre 40 milioni di risposte da diverse aree del mondo.
Ai partecipanti al sondaggio è stata proposta un’articolata serie di scenari di ipotetici incidenti, chiedendo di indicare quali persone, a loro parere, fosse più giusto salvare e quali sacrificare (per esempio il guidatore e i passeggeri, o i pedoni), tenendo conto di diverse variabili (età, genere, numero di soggetti coinvolti).
I risultati ottenuti hanno evidenziato delle tendenze generali, come la preferenza a risparmiare il maggior numero di vite, il dare priorità agli esseri umani rispetto agli animali, salvaguardare maggiormente i giovani, in particolare i bambini. Ma al tempo stesso, sono anche emerse significative differenze regionali, legate alle culture di appartenenza. Tanto che Iyad Rahwan, coordinatore della ricerca, e i suoi colleghi hanno potuto identificare tre grandi blocchi regionali, caratterizzati – pur con sfumature diverse da paese a paese – da un differente peso morale attribuito a diverse categorie di possibili vittime. Il blocco “occidentale” (comprendente il Nord America e gran parte dei paesi europei), ad esempio, pur confermando le tre tendenze generali appena citate, ha mostrato la tendenza a ridurre al minimo eventuali preferenze accordate a particolari categorie di persone. Al contrario, il blocco “orientale” (che comprende molti paesi dell’Estremo oriente e buona parte dei paesi islamici) ha evidenziato una forte tendenza a risparmiare preferibilmente i pedoni e chi, codice della strada alla mano, è dalla parte della ragione. Ma in questi paesi, decisamente al di sotto della media è la tendenza ad avere “un occhio di riguardo” per i giovani e per le donne. Un’attenzione, quella riservata a queste due categorie, particolarmente presente invece nei paesi del blocco “meridionale” (i paesi dell’America centrale e meridionale, e i territori d’oltremare, passati e attuali, della Francia, oltre alla Francia stessa).
Un altro elemento emerso dallo studio è che, nei paesi dove permangono drammatiche disuguaglianze di reddito (ad es. Perù, Nigeria, Indonesia, ecc…), i partecipanti al sondaggio hanno mostrato una netta propensione a considerare con più frequenza lo status sociale delle potenziali vittime, “sacrificando” più facilmente le persone di ceto sociale più basso. L’insieme dei risultati ottenuti nello studio, sono quindi stati caricati on line (in una pagina interattiva) dai ricercatori, a disposizione delle aziende che progettano algoritmi morali per le auto a guida autonoma e dei decisori politici che devono varare le opportune regole in materia, perché prima di permettere alle automobili di prendere “decisioni etiche” al posto degli esseri umani si possano trovare punti di convergenza su scelte di fondo che – come ha mostrato “Moral Machine” – possono differire da regione a regione.
Ma – la domanda è d’obbligo – è davvero possibile stabilire a priori dei criteri “etici” validi per orientare i sistemi di IA in ogni situazione imprevista?