Gli scienziati contro le armi intelligenti che potrebbero distruggere l’umanità
Alcuni fra i più importanti scienziati, tra i quali lo studioso Stephen Hawking, il capo del Center for Intelligent Systems di Berkeley Stuart Russell, il cofondatore di Apple Steve Wozniak e il direttore delle ricerche di Google Peter Norvig, hanno già firmato l’appello promosso da Future of Life Institute, intitolato “Autonomous Weapons: an Open Letter from AI & Robotics Researchers”, che si schiera contro lo sviluppo non ragionato delle armi autonome. Si tratta di veri e propri dispositivi bellici capaci di scegliere in autonomia, senza l’aiuto di un essere umano, i proprio bersagli e che, ad oggi, sembrano rappresentare un futuro non troppo lontano, grazie allo sviluppo delle intelligenze artificiali.
Ciò che preoccupa della creazione di simili armi, che potrebbero rappresentare la terza evoluzione in campo bellico, è il rischio che possano trasformarsi nei “Kalashnikovs del futuro” poiché avranno un costo e una facilità di realizzazione che le renderanno accessibili a tutte le potenze militari, anche a quelle oggi più deboli. Il passaggio al mercato nero dei terroristi sarebbe quindi inevitabile e nel giro di poco tempo chiunque potrebbe diventare il bersaglio di queste armi.
Secondo gli scienziati, lo sviluppo di una simile tecnologia non comporterebbe alcun vantaggio per l’umanità e per questo, concludono, “Crediamo che l’intelligenza artificiale possa portare all’umanità altri tipi di benefici. Iniziare a produrre armi intelligenti è un’idea sbagliata”.
Uno scenario apocalittico dunque è quello che dovremmo aspettarci se le armi autonome dovessero prendere il sopravvento sugli esseri umani. Una sorta di Terminator realistico e reale potrebbe aspettarci dietro l’angolo.
Ancora una volta le grandi potenze sembrano essere più interessate allo sviluppo di armi di distruzione, piuttosto che a politiche per la pace, speriamo che l’appello delle menti più brillanti del nostro tempo possa avere sviluppi positivi.
[Foto copertina da Wikipedia.org]