A Cambridge un centro per evitare l’estinzione dell’umanità
Se c’è qualcuno che può parlare a ragion veduta di fine del mondo, o meglio di fine dell’umanità, quello è uno scienziato. Negli ultimi anni, un numero crescente di scienziati ha cominciato a lanciare allarmi sul nostro prossimo futuro. Un tempo, i grandi scienziati e filosofi – come Albert Einstein e Bertrand Russell – sollecitavano i governi a mettere da parte le bombe nucleari. Ora che la Guerra fredda è un ricordo lontano, i rischi per l’umanità sono altri. Anzi, secondo Sir Martin Rees “questi rischi stanno diventando sempre più grandi invece di ridimensionarsi, ed è sorprendente quanto poca attenzione suscitino”.
Il secolo finale?
Per questo motivo, il baronetto e Astronomo Reale, docente emerito di astrofisica e cosmologia all’Università di Cambridge, ha deciso di fondare proprio nel prestigiosissimo ateneo inglese dove insegna un “Centro per lo Studio del Rischio Esistenziale” (CSER, Center for the Study of Existential Risk), insieme al filosofo Huw Price, che siede alla cattedra di Cambridge che fu di Bertrand Russell, e a Jaan Tallinn, co-fondatore di Skype e fisico teorico. Tre dei migliori cervelli del mondo con lo scopo di analizzare e comprendere i rischi che l’umanità dovrà affrontare nel XXI secolo, da Martin Rees definito qualche anno fa il “secolo finale”.
Nel suo bestseller Our Final Hour, pubblicato anche in Italia nel 2004 con il titolo Il secolo finale. Perché l’umanità rischia di autodistruggersi nei prossimi cento anni, l’astrofisico britannico sosteneva che la nostra civiltà ha il 50% di possibilità di scomparire dalla faccia della Terra entro la fine di questo secolo. E questo perché l’interdipendenza raggiunta, la vulnerabilità dei sistemi tecnologici, le minacce prodotte da un uso sconsiderato delle biotecnologie, la facile diffusione delle malattie, insieme al rischio del terrorismo internazionale, fanno di quest’epoca la più rischiosa della storia umana.
Nuove minacce di massa
La minaccia delle armi nucleari potrebbe presto essere soppiantata da una nuova generazione di pericolose tecnologie, prodotte dall’uso sconsiderato delle nanotecnologie, dell’intelligenza artificiale, di virus prodotti in laboratorio. Anche se il pericolo maggiore viene dai cambiamenti climatici. “Il nostro intento è di creare un gruppo che possa focalizzarsi su queste minacce ancora poco studiate”, spiega Martin Rees alla redazione di “io9”, influente magazine on-line americano sulla scienza del futuro. Rees ammette che molte di queste minacce – a esclusione del cambiamento climatico – sono molto improbabili; ma i rischi che comportano possono essere devastanti.
Evitare il collasso
Scenari più fantascientifici che scientifici, certo. Ma in generale una qualsiasi nuova tecnologia non adeguatamente studiata e messa in mano a persone incompetenti o, peggio, malintenzionate, potrebbe produrre gravi danni. Nel 2002 la rivista Wired lanciò una gara di scommesse per raccogliere contributi di illustri “futurologi” sulle prospettive a lungo termine della nostra civiltà. Martin Rees puntò 1000 dollari sulla possibilità che entro il 2020 un episodio di bioterrorismo uccida un milione di persone. Certo, erano gli anni successivi all’11 settembre e la paura del terrorismo internazionale teneva banco. Oggi queste paure sono relativamente ridimensionate, e le misure di sicurezza enormemente aumentate; ma non c’è dubbio che liberando il virus del vaiolo in una grande metropoli ci siano alte possibilità di far vincere a Rees la sua atroce scommessa.
Nick Bostrom, pioniere degli studi sul rischio estintivo e docente di filosofia all’Istituto per il futuro dell’umanità di Oxford, ritiene essenziale che le università comincino a inserire nei loro programmi didattici dei corsi sul futuro della nostra civiltà, che includano l’analisi delle prospettive di rischio del genere umano. Il CSER è stato fondato lo scorso aprile e in autunno inizierà le proprie attività, con l’obiettivo di dar vita a un centro di ricerca multidisciplinare aperto ai contributi di altre realtà. Certo, i suoi fondatori non sono soli. Altri studiosi illustri, come il fisico teorico Stephen Hawking e il biologo Jared Diamond (autore di due besteller eloquenti: Armi, acciaio e malattie e Collasso. Come le società scelgono di vivere o morire), da tempo battono il tasto sul rischio che l’umanità sta correndo. La speranza è che le migliori menti di questo secolo si uniscano e, come in una sorta di “lega degli uomini straordinari”, traghettino la civiltà fuori dal tunnel dell’autodistruzione.