I robot-killer sono una minaccia per l’umanità?

I robot-killer sono una minaccia per l’umanità?



Non è un segreto che, fra tutti i tipi di robot in preparazione, alcuni saranno progettati per uccidere. Le Forse Armate di tutto il mondo stanno cercando di produrre dei robot specializzati per ridurre le perdite umane nelle zone di guerra. Gli Stati Uniti, ad esempio, hanno sostituito più del 30% di aeromobili con i famosi droni, velivoli senza uomini a bordo. Inoltre, la ricerca militare sta sviluppando robot per compiti a terra, come il Boston Dynamics’ Alpha Dog, la torretta automatica della Corea del Sud o il mini tank per spionaggio FirstLook, tanto per fare degli esempi. Con tutti questi rapidi sviluppi in corso è lecito farsi una domanda: dobbiamo ritenerci preoccupati per il prossimo futuro? Potrebbe essere messa a rischio la vita di alcune persone se non di tutti gli esseri umani della Terra? La domanda è legittima ed è stata discussa e vissuta attraverso film e congressi. Alcuni dicono che sarà impossibile, che avremo sempre il controllo sulle macchine, mentre altri dicono che tutto è possibile. L’iniziativa congiunta tra un filosofo, uno scienziato ed un co-fondatore di Skype darà vita prossimamente ad uno studio sul rischio esistenziale presso l’Università di Cambridge. Verrà considerato l’aumento dell’intelligenza artificiale ed il suo potenziale nel creare futuri scenari apocalittici. Anche se non dovrebbe essere un problema a breve, è giusto che la questione sia affrontata ora, dice Huw Price co-fondatore dello studio e professore di filosofia. Come ha detto all’Associated Press: “Non saremo a lungo la “cosa” più intelligente sulla Terra. Sembra una previsione ragionevole che, magari non in questo ma nel prossimo secolo, l’intelligenza artificiale sfuggirà ai vincoli della biologia”. Scopo dello studio è quello di mettere le basi per garantire, almeno nelle intenzioni, un futuro a lungo termine per la nostra specie. Ma la ricerca è così veloce che non sempre potrebbe essere possibile tenere sotto controllo i risultati. Un rapporto di 50 pagine del Human Rights Watch Group sul pericolo del robot-killer chiede di interromperne la produzione e lo sviluppo. Steve Goose, direttore di una divisione del gruppo, ha detto al The Guardian: “Lasciare alle macchine la decisione di chi deve vivere e chi morire sul campo di battaglia potrebbe portare la tecnologia troppo  lontano”. In risposta a questo recente interesse, il Pentagono ha emanato una direttiva secondo la quale dietro ogni drone deve esserci un uomo a prendere le decisioni. Ci si chiede, però, se questa politica ragionevole potrà essere mantenuta anche in un ipotetico aggravarsi di uno scenario militare. Proprio la scorsa estate il robot da combattimento X-47B ha completato la prima fase di test che riguardavano il decollo ed il rientro sulla portaerei in completa autonomia. C’è poi sempre il pericolo derivante dai Paesi canaglia o da sviluppatori senza scrupoli. Coloro che sono all’avanguardia nella tecnologia raramente sono in grado di mettere in discussione l’etica di quello che stanno producendo, se non quando è troppo tardi; è quindi buona cosa tenere sempre attivo un pool di esperti che valuti le tecnologie innovative ed il loro impatto sull’uomo. Non è nemmeno detto che questo studio che inizierà sia la soluzione al problema, ma da qualcosa bisogna pur cominciare. Ne va della sicurezza di tutti.

Via