Se le prossime scoperte da Nobel le faranno i computer
Secoli fa, un uomo come Leonardo Da Vinci poteva ragionevolmente affermare di padroneggiare tutti i campi dello scibile, e per ciascuno di essi conoscere più o meno tutte le nozioni e le informazioni accumulate in secoli e secoli di studi. All’epoca, il mare magnum della conoscenza era poco più di un laghetto, facilmente navigabile da chi avesse il tempo e la voglia di provarci. Oggi, quel laghetto è diventato un oceano dai confini virtualmente illimitati. L’aumento del volume delle enciclopedie – dal grosso volume dell’Encyclopédie di Diderot e D’Alambert agli svariati tomi dell’Encylopedia Britannica, dai cd-rom ai dvd-rom fino a estendersi all’intera galassia Internet con Wikipedia – può darne un’idea. “Uomini universali” come Da Vinci sono oggi impensabili, e d’altronde servirebbero a poco. Quello che recentemente sta preoccupando molti pensatori è un’altra cosa: la sempre maggiore difficoltà di dominare un intero settore del sapere, di padroneggiare tutte le nozioni necessarie per poter poi successivamente dare un contributo all’ampliamento dei confini della conoscenza. Secondo il matematico Steven Strogatz, da qui a pochi decenni l’umanità si troverà a un punto in cui diventerà impossibile, per un singolo essere umano, nel corso di una sola vita, acquisire tutte le conoscenze necessarie di una specifica disciplina.
I limiti della conoscenza
Ci stiamo, insomma, avvicinando ai limiti della conoscenza umana? Molti commentatori credono che sia davvero così, e non è un caso se chi sostiene questa affermazione provenga in buona parte da discipline scientifiche. Sta diventando sempre più difficile, per un aspirante ricercatore di fisica delle particelle o matematica, tanto per citare due settori, riuscire ad assimilare tutto quello che è stato prodotto prima di lui. Per avanzare in questi ambiti di ricerca è necessario parcellizzare la conoscenza in tanti micro-settori, sui quali specializzarsi, per poi creare megaprogetti di migliaia di scienziati per mettere a sistema tutte le nozioni e trarne delle conclusioni. Sembra quindi che ci stiamo avvicinando a dei limiti cognitivi dell’intelligenza umana, esattamente come esistono dei limiti fisici nella capacità di superare i record sportivi mondiali. Ma, proprio come per superare i record sportivi ci si affida sempre più all’assistenza tecnologica, allo stesso modo per superare i nostri limiti cognitivi dovremo far ricorso ai computer.
Strogatz, esperto di teoria del caso e sistemi complessi, ricorda il problema dei quattro colori, una celebre congettura matematica che sostiene che su una superficie piana divisa in aree, per quanto numerose siano queste aree e per quanto complessi siano i loro confini, bastano quattro colori per distinguerle, senza che le aree dello stesso colore si tocchino (l’esempio classico è quello del planisfero politico: per distinguere tutti gli Stati sul planisfero bastano 4 colori). Congettura dimostrata ogni giorno praticamente, ma per dimostrarla matematicamente fu necessario, nel 1977, usare potenti computer per migliaia di ore, manipolando lunghissimi calcoli estremamente complessi, al punto che la dimostrazione finale consisteva in circa 500 pagine. Nessun essere umano, in una sola vita, poteva riuscirci. Questo approccio sta diventando sempre più comune: avanzare in settori come la teoria delle stringhe richiede sforzi immensi in termini di calcolo matematico, e la semplice intuizione, che da sempre ha permesso agli scienziati teorici di effettuare nuove scoperte, non basta più.
Computer che dimostrano teoremi
Qualche settimana fa un articolo su Wired ha affrontato la questione delle resistenze dei matematici all’utilizzo intensivo dei computer nel proprio lavoro. Resistenze che provengono da una convinzione di fondo: che la teoria, in certi casi, sia più affascinante della sua dimostrazione. E per congetturare qualcosa, non c’è bisogno di un computer: basta un po’ di fantasia. Proprio quella che manca ai computer. “La matematica pura non riguarda solo la conoscenza della risposta, ma la sua comprensione”, sostiene Constantin Teleman dell’Università di Berkeley. Avere computer che sono in grado di ottenere la risposta con la mera forza bruta, provando e riprovando milioni di soluzioni finché non trovano quella corretta, vorrebbe dire, per il professor Teleman, “un fallimento della nostra capacità di comprensione”.
Uno su un miliardo
“Ci sono concetti comprensibili da una persona su cento, e altri concetti che sono chiari soli per uno su un milione”, scrive Arbesman sulla rivista Arc. “Il problema comincia quando arriviamo a idee che posso essere comprese solo da una persona su un miliardo”. E quando queste idee riguardano questioni che possono mettere a repentaglio la vita di altri, possiamo fidarci di mettere le nostre vite nelle mani di una manciata di individui? È il problema alla base della “società del rischio”, una società in cui sempre più persone si ritrovano a dipendere da un gruppo sempre più ristretto di esperti, detentori di conoscenze difficilmente trasmissibili ad altri in poco tempo, dal chirurgo al pilota d’aereo.
Ma c’è anche un altro problema connesso al ruolo crescente dei computer nello sviluppo della nostra civiltà. È un problema che deriva dal fatto che i computer, dopotutto, sono costruiti dagli uomini, e così anche i programmi e gli algoritmi usati per risolvere i problemi. Come tali, possono essere sbagliati. Constantin Teleman ricorda un caso del genere negli anni ’90, quando alcuni matematici scrissero un programma per verificare una congettura riguardo la teoria delle stringhe, che i teorici ritenevano vera. Il programma, alla fine dei suoi calcoli, sostenne invece che la congettura fosse falsa. Si scoprì poi che i programmatori avevano compiuto un errore, e che ad avere ragione erano i fisici teorici. Qualcuno sostiene che tra non troppi anni avremo a che fare con computer in grado di auto-analizzarsi per individuare la presenza di bug nei codici dei propri programmi, così da risolvere anche questo problema. Simili intelligenze artificiali sarebbero certo in grado di sviluppare autonomamente gli algoritmi necessari per risolvere problemi estremamente complessi. Sarebbero pressoché autonome da noi, dunque dotate di consapevolezza. E chi ci assicura che, arrivati a questo punto, tali intelligenze artificiali non inizino a ragionare su problemi che non immaginiamo nemmeno e che non saremo mai in grado di capire?