Dialogando coi robot

L’Intelligenza artificiale promette rivoluzioni. Speriamo che l’umanità…

Macchine e robot dotati di pensiero “senziente”. Per ora, solo progetti futuribili, ma per gli esperti di ingegneria robotica ed informatica è solo questione di tempo: in un futuro, forse neanche troppo distante, avremo a che fare con intelligenze artificiali (AI) capaci di esercitare una qualche forma di “pensiero” e di “provare sensazioni”, con un certo grado di consapevolezza. Va da se che, qualunque forma esse potranno assumere, l’alba della “consapevolezza delle macchine” è destinata con ogni probabilità ad avere un impatto sostanziale sulla società umana. In tempi recenti, anche personalità come Bill Gates, co-fondatore della Microsoft, e il fisico physicist Stephen Hawking hanno pubblicamente lanciato l’allarme sul rischio che, in futuro, robot intelligenti possano diventare troppo potenti per essere controllati dagli umani. Un tema che, del resto, già da decenni la filmografia fantascientifica ha trattato (es. Blade runner, Ex machina, ecc…), proponendolo così all’attenzione del pubblico.

Dunque, fascino per l’innovazione tecnologica e timori per le conseguenze imprevedibili che ne potrebbero derivare continuano a convivere fianco a fianco, in attesa che l’ingegno umano tramuti in realtà ciò che oggi è ancora soltanto visione futuristica.

Nel frattempo, un chirurgo e conferenziere inglese, Hutan Ashrafian, che lavora presso l’Imperial College di Londra (Uk), ha voluto precedere i tempi, proponendo da subito una riflessione (pubblicata sull’ultimo numero di Nature) su alcune questioni di senso e di etica relative alla presenza di robot dotati di AI. Ashrafian rileva come, di solito, le analisi accademiche o della “fiction” sull’AI tendono a focalizzarsi sull’interazione uomo-robot. “Dovremmo invece considerare – osserva Ashrafian – l’interazione degli stessi robot intelligenti tra loro e l’effetto che questi scambi potranno avere sui loro creatori umani. Se, per esempio, si permettesse alle macchine senzienti di commettere ingiustizie le une verso le altre – anche se questi “crimini” non avessero un impatto diretto sul benessere umano – ciò potrebbe comunque riflettersi in modo negativo sulla nostra stessa umanità”. Considerazioni come queste stanno alla base dell’elaborazione del concetto futurista di “diritti delle macchine”. Ma Ashrafian si spinge oltre. “Nel Regno Unito, ad esempio, il Consiglio per le Ricerche sulle Scienze Ingegneristiche, fisiche e delle arti e il Consiglio per le Ricerche Umanistiche hanno già messo a punto un insieme di principi per i disegnatori di robot che rafforzano la posizione secondo cui i robot sono prodotti manufatti, cosicché ‘gli umani, non i robot sono agenti responsabili’. Ma – obietta Ashrafian – gli scienziati, i filosofi, i finanziatori e i politici dovrebbero fare un passo avanti e considerare le interazioni robot-robot e AI-AI. Insieme, essi dovrebbero sviluppare una proposta per una Carta internazionale per le AI, equivalente alla Dichiarazione universale dei diritti umani dell’ONU”. Dunque, è chiara la tesi di Ashrafian: se arriveremo ad avere dei robot “simil-umani”, dovremo preoccuparci di trattarli in modo “simil-umano”, fino a riconoscere loro dei “diritti” ed adoperarci per dare loro un’adeguata “educazione morale”.

Ma non tutti gli scienziati e filosofi della scienza la pensano come lui. Illah Nourbakhsh, ad esempio, professore di robotica alla Carnegie Mellon University (Pittsburgh,Pennsylvania) e direttore del laboratorio Community Robotics, Education, and Technology Empowerment, esprime ben altri timori. “Alcuni, come Elon Musk e Bill Gates, sostengono che le AI potrebbero addirittura cambiare l’equilibrio dei poteri. La mia risposta è che il modo in cui si crea l’AI non è quello che rende noi “smart”. I robot calcolano più velocemente e trovano modelli nei dati, ma ciò che non hanno è la coscienza: fanno ciò per cui sono programmati e tuttavia non possiedono desideri. Non possiedono la loro stessa esistenza. Restano nelle mani delle società per azioni e quindi ciò che si deve temere è che le stesse società sviluppino un proprio sistema di AI e diventino più intelligenti di noi. E perciò imbattibili. Sta già accadendo. Ed è questo il pericolo. Ogni giorno diventano più potenti grazie ai Big Data che gestiscono”. In questo scenario, emerge una questione morale: “Qual è il corretto approccio etico con cui trattare i robot, mentre diventano più intelligenti? Li considereremo come dei subordinati, rischiando di alterare i rapporti tra noi umani? O dovremo concedere loro un senso di rispetto?”. Sarà possibile insegnare loro una forma di moralità? “Certo che sarà possibile, ma poi diventerà via via più difficile trattare i robot. Se li renderemo troppo simili a noi, non ci saranno più utili. Semplicemente sostituiremo noi stessi con loro. L’opzione migliore è ideare robot differenti dagli umani: così sarà più facile istituire con loro rapporti che non siano quelli che regolano le relazioni umane”. Della serie: caro robot intelligente e senziente, rimani al posto tuo!

Pura fantascienza? Disquisizioni solo teoriche? Il futuro è anche questo, meglio arrivarci preparati.