I robot killer intelligenti ma senza coscienza saranno il futuro della guerra? Una campagna per fermarne la follia
Altro che nucleare “tattico”, il pericolo per l’umanità potrebbe più facilmente arrivare dall’evoluzione della “intelligenza” artificiale che non conosce il valore della vita. Dalla correzione automatica agli algoritmi dei social, l’Intelligenza Artificiale (AI) si trova ovunque. Questa tecnologia sta crescendo esponenzialmente – ha la potenzialità di superare presto i livelli umani di intelligenza. Può essere una forza per il bene in tanti modi. Ma cosa succede quando gli eserciti progettano l’AI per uccidere autonomamente? La “Campagna per fermare i robot killer” si è schierata nel solco della prima legge della robotica di Azimov: “Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno». Elon Musk crede che l’Intelligenza Artificiale sia molto più pericolosa per il futuro dell’umanità rispetto alle armi nucleari. Questa posizione sembra discutibile quando si considera le conseguenze distruttive a lungo termine dei bombardamenti di Hiroshima e Nagasaki, ma la situazione cambia quando si tratta di sistemi d’arma basati sull’intelligenza artificiale. Attualmente il futuro dell’umanità dipende precariamente dalla volontà dei leader mondiali di “premere il pulsante”, cioè un’azione che potrebbe portare alla guerra nucleare. La decisione di uccidere milioni di persone rimane in mani umane e ci sono già stati molti incidenti mancati. In ciascun caso, i sentimenti umani del dubbio, della curiosità o del buon senso hanno impedito di prendere quella decisione. La differenza tra un essere umano e un robot è che l’umano può cambiare idea. Quando ci si trova col compito di uccidere un altro umano, l’intelligenza artificiale non possiede quel tipo di umanità. Non è che i robot sono malvagi… semplicemente non sanno cos’è un umano. Non danno valore alla vita umana né capiscono cosa significa distruggere un’anima. Sono fatti di metallo e cavi, un sistema binario on-off che agisce o non agisce. Se l’intelligenza artificiale è programmata per uccidere, non c’è una zona grigia, non c’è spazio per una rivalutazione.
La Campagna per fermare i robot killer
Da questo sfondo distopico emerge la Campagna per fermare i robot killer sul cui sito si legge: “La tecnologia dovrebbe essere utilizzata per responsabilizzare tutte le persone, non per ridurci a stereotipi, etichette, oggetti o solo uno schema di 1 e 0. Con la crescente disumanizzazione digitale, la coalizione Stop Killer Robots lavora per garantire il controllo umano nell’uso della forza. La nostra campagna chiede un nuovo diritto internazionale sull’autonomia nei sistemi d’arma”.
La documentazione
E’ stato lanciato un nuovo sito internet: https://automatedresearch.org/, che fornisce documentazione e aggiornamenti sull’uso della tecnologia di armi robotiche. Per adesso, le forze militari sostengono che questi robot «servono per aiutare gli umani». Jodie Williams, portavoce della Campagna per fermare i robot killer, dà una risposta da brividi: «E poi aiuteranno gli umani a uccidere». Per anni, le forze militari hanno condizionato psicologicamente i soldati a uccidere senza rimorso. Basta leggere The Shortest History of War di Gwynne Dyer. Con tecniche che vanno dall’uso di bersagli di forma umana per le esercitazioni allo sparo, alle marce al ritmo di «Kill. Kill. Kill.», sarebbe ingenuo pensare che le forze militari non considererebbero l’uso di robot killer. Parlando in termini comparativi più corretti, programmare un robot a uccidere probabilmente è più etico di fare il lavaggio del cervello a una persona.