video suggerito
video suggerito

A Cambridge un centro per evitare l’estinzione dell’umanità

Co-fondato dall’astrofisico Sir Martin Rees, punta a far sì che il XXI secolo non sia anche il “secolo finale” della civiltà umana.
A cura di Roberto Paura
34 CONDIVISIONI
estinzione_umanità

Se c’è qualcuno che può parlare a ragion veduta di fine del mondo, o meglio di fine dell’umanità, quello è uno scienziato. Negli ultimi anni, un numero crescente di scienziati ha cominciato a lanciare allarmi sul nostro prossimo futuro. Un tempo, i grandi scienziati e filosofi – come Albert Einstein e Bertrand Russell – sollecitavano i governi a mettere da parte le bombe nucleari. Ora che la Guerra fredda è un ricordo lontano, i rischi per l’umanità sono altri. Anzi, secondo Sir Martin Rees “questi rischi stanno diventando sempre più grandi invece di ridimensionarsi, ed è sorprendente quanto poca attenzione suscitino”.

Il secolo finale?

Per questo motivo, il baronetto e Astronomo Reale, docente emerito di astrofisica e cosmologia all’Università di Cambridge, ha deciso di fondare proprio nel prestigiosissimo ateneo inglese dove insegna un “Centro per lo Studio del Rischio Esistenziale” (CSER, Center for the Study of Existential Risk), insieme al filosofo Huw Price, che siede alla cattedra di Cambridge che fu di Bertrand Russell, e a Jaan Tallinn, co-fondatore di Skype e fisico teorico. Tre dei migliori cervelli del mondo con lo scopo di analizzare e comprendere i rischi che l’umanità dovrà affrontare nel XXI secolo, da Martin Rees definito qualche anno fa il “secolo finale”.

Martin Rees

Nel suo bestseller Our Final Hour, pubblicato anche in Italia nel 2004 con il titolo Il secolo finale. Perché l’umanità rischia di autodistruggersi nei prossimi cento anni, l’astrofisico britannico sosteneva che la nostra civiltà ha il 50% di possibilità di scomparire dalla faccia della Terra entro la fine di questo secolo. E questo perché l’interdipendenza raggiunta, la vulnerabilità dei sistemi tecnologici, le minacce prodotte da un uso sconsiderato delle biotecnologie, la facile diffusione delle malattie, insieme al rischio del terrorismo internazionale, fanno di quest’epoca la più rischiosa della storia umana.

Nuove minacce di massa

La minaccia delle armi nucleari potrebbe presto essere soppiantata da una nuova generazione di pericolose tecnologie, prodotte dall’uso sconsiderato delle nanotecnologie, dell’intelligenza artificiale, di virus prodotti in laboratorio. Anche se il pericolo maggiore viene dai cambiamenti climatici. “Il nostro intento è di creare un gruppo che possa focalizzarsi su queste minacce ancora poco studiate”, spiega Martin Rees alla redazione di “io9”, influente magazine on-line americano sulla scienza del futuro. Rees ammette che molte di queste minacce – a esclusione del cambiamento climatico – sono molto improbabili; ma i rischi che comportano possono essere devastanti.

“ I rischi stanno diventando sempre più grandi invece di ridimensionarsi. ”
Martin Rees
Il problema non è la scienza, chiariscono i fondatori del CSER, ma il cattivo uso che persone non adeguatamente preparate possono farne. Un esempio è il cosiddetto gray goo: il termine fu introdotto nel 1986 dall’ingegnere e biotecnologo Kim Eric Drexler nel suo libro Engines of Creation (“I motori della Creazione”). Secondo la sua tesi, esperimenti di nanotecnologia potrebbero condurre alla creazione di nanorobot capaci di annientare l’umanità. Questi nanorobot potrebbero essere iniettati nell’organismo umano per curare malattie, e resi capaci di autoreplicarsi attraverso l’impiego di sostanze presenti nel nostro corpo. Ma, qualora ne venisse perso il controllo, l’autoreplicazione proseguirebbe all’infinito, producendo una nanosostanza biotecnologica (il “gray goo”, appunto) che finirebbe per consumare tutti gli elementi disponibili sulla Terra, distruggendola. Secondo alcuni calcoli, il gray goo riuscirebbe a raggiungere la massa stessa della Terra nell’arco di due giorni.

Evitare il collasso

bioterrorismo

Scenari più fantascientifici che scientifici, certo. Ma in generale una qualsiasi nuova tecnologia non adeguatamente studiata e messa in mano a persone incompetenti o, peggio, malintenzionate, potrebbe produrre gravi danni. Nel 2002 la rivista Wired lanciò una gara di scommesse per raccogliere contributi di illustri “futurologi” sulle prospettive a lungo termine della nostra civiltà. Martin Rees puntò 1000 dollari sulla possibilità che entro il 2020 un episodio di bioterrorismo uccida un milione di persone. Certo, erano gli anni successivi all’11 settembre e la paura del terrorismo internazionale teneva banco. Oggi queste paure sono relativamente ridimensionate, e le misure di sicurezza enormemente aumentate; ma non c’è dubbio che liberando il virus del vaiolo in una grande metropoli ci siano alte possibilità di far vincere a Rees la sua atroce scommessa.

Nick Bostrom, pioniere degli studi sul rischio estintivo e docente di filosofia all’Istituto per il futuro dell’umanità di Oxford, ritiene essenziale che le università comincino a inserire nei loro programmi didattici dei corsi sul futuro della nostra civiltà, che includano l’analisi delle prospettive di rischio del genere umano. Il CSER è stato fondato lo scorso aprile e in autunno inizierà le proprie attività, con l’obiettivo di dar vita a un centro di ricerca multidisciplinare aperto ai contributi di altre realtà. Certo, i suoi fondatori non sono soli. Altri studiosi illustri, come il fisico teorico Stephen Hawking e il biologo Jared Diamond (autore di due besteller eloquenti: Armi, acciaio e malattie e Collasso. Come le società scelgono di vivere o morire), da tempo battono il tasto sul rischio che l’umanità sta correndo. La speranza è che le migliori menti di questo secolo si uniscano e, come in una sorta di “lega degli uomini straordinari”, traghettino la civiltà fuori dal tunnel dell’autodistruzione.

34 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views