Big Data

Qualcuno sostiene che il motore di ricerca Google sia la cosa più simile a Dio mai realizzata dagli esseri umani. Google sembra essere onnisciente e onnipotente: a ogni domanda è in grado di fornire una risposta, se l’utente sa porre bene il suo quesito e sa cercare bene tra i risultati prodotti dalla ricerca su Internet. Non potrebbe essere allora possibile, scandagliando la mole enorme di informazione che gira sulla Rete, individuare – grazie ad appositi algoritmi – anche le tendenze del prossimo futuro, anticipandole? Sembra un’idea uscita da un film di fantascienza, ma ormai comincia a diventare realtà. È certo che qualcuno ci sta provando: Recorded Future, ad esempio, una compagnia con sede negli Stati Uniti e in Svezia che vende ad analisti privati e ad agenzie governative un proprio servizio di elaborazione di scenari futuri in un arco di 7 giorni, attraverso l’analisi di ciò che si dice in Rete. La dimostrazione che la compagnia non vende fumo sta nei generosi finanziamenti ricevuti da Google Ventures e In-Q-Tel, i rami d’investimento rispettivamente di Google e della CIA.

La lezione della semi-bufala Web Bot

recorded-future

Tutto ciò è possibile grazie al nuovo mercato dei Big Data, i dati che ogni giorno arricchiscono quella miniera senza fondo d’informazioni chiamata Internet. Si sostiene che ogni giorno l’umanità produca 2,5 quintilioni di byte, dai messaggi che inviamo su Facebook ai report pubblicati da prestigiosi think-tank. Dati quindi molto diversi tra loro, difficilmente incrociabili. Tuttavia, se al posto di un essere umano mettiamo un bot, un programma artificiale, un potente algoritmo di ricerca, e gli chiediamo di scansionare continuamente tutti questi dati per cercare delle ricorsività, ci troviamo tra le mani uno strumento potentissimo. Talmente potente che è già utilizzato dia servizi segreti di mezzo mondo per tenere sotto osservazione i gruppi online collegati al terrorismo internazionale, per estrapolare possibili indizi riguardo la preparazione di futuri attentati. E i trader più sofisticati cavalcano l’onda dei Big Data nella speranza di riuscire a fiutare in anticipo, nel mare magnum del Web, le tendenze del mercato finanziario dei prossimi giorni.

Certo non mancano gli eccessi, come nel caso del fantomatico Web Bot, sviluppato da una società americana nel 1997 per la previsione delle tendenze di borsa, e rivelatosi – secondo i suoi creatori – in grado di predire eventi come l’11 settembre o addirittura lo tsunami del 2004. Sembra un po’ difficile che, attraverso l’analisi di ciò che si trova in rete, un bot sia in grado addirittura di prevedere una catastrofe naturale non prodotta dall’uomo… e in effetti, benché divenuto celebre grazie a un discusso documentario della rete History Channel, il Web Bot è poco più di una bufala. Il principio di fondo è però analogo a quello su cui si basano i più recenti progetti di data mining, ossia di analisi dei Big Data. Web Bot analizzava il contesto all’interno del quale venivano individuate le keywords ricercate, al fine di confrontare tra loro i risultati. A partire dal 2001, i creatori del programma cominciarono a sostenere di essere riusciti a scoprire indizi degli attentati dell’11 settembre, grazie alla ricorsività in contesti simili di parole come “New York”, “wahabismo”, “fuoco nel cielo”. Fu poi il turno di altri eventi, come l’uragano Kathrina. In realtà si trattava di predizioni ex post, fatte cioè dopo che tali eventi si erano verificati, cosicché far collimare i dati diventava un gioco da ragazzi.

Facebook, Amazon, servizi d'intelligence: chi vuole i nostri dati

big_data_economist

Bufale pseudoscientifiche a parte, i miliardi di euro investiti nei Big Data dimostrano il grande interesse di una vasta pletora di soggetti verso le potenzialità predittive del Web. In questo contesto il concetto di privacy diventa sempre più debole. Diverse aziende oggi si occupano di vendere dati privati estrapolati da Internet a grandi compagnie che li usano per creare pubblicità mirate sulle nostre pagine Facebook, o titoli di libri e film che possono interessarci su Amazon, o offerte di voli e hotel in linea con le nostre aspettative sulla prossima vacanza. Dati ancora più sensibili, come il contenuto dei nostri SMS, e-mail, chat e messaggi privati online, vengono analizzati in modo (teoricamente) anonimo dai servizi di intelligence per individuare la ricorsività di parole-chiave sensibili. È noto che a un servizio d’intelligence di una media potenza come l’Italia bastino un paio di minuti per individuare la password che usiamo per il nostro profilo Facebook o per la nostra casella e-mail, proprio grazie a bot che scansionano di continuo anonimamente i dati che produciamo.

Su Recorded Future è possibile ottenere analisi predittive sfruttando algoritmi di ricerca che scansionano decine di migliaia di fonti pubbliche (o almeno così sostiene l’azienda), come quotidiani, agenzie di stampa, siti governativi e database finanziari. Previsioni di eventi futuri inseriti in questi testi vengono sottoposte a metriche d’analisi che ne giudicano il grado di affidabilità. Gli scenari che vengono elaborati spaziano dalla possibile data di uscita del prossimo iPhone alla possibilità di rivolte a Bagdad nella prossima settimana. Si tratta naturalmente di analisi con un alto tasso di aleatorietà, ma in futuro le cose potrebbero cambiare: “In dieci anni, si prevede che la performance dei supercomputer superi quella del cervello umano”, sostiene Dirk Helbing, fisico e sociologo all’ETH di Zurigo. L’aumento delle capacità di calcolo aprirà scenari oggi impensabili, che però potrebbero nascondere delle insidie.

“Già oggi, i computer svolgono autonomamente la maggior parte delle transazioni finanziarie. Presto, Google guiderà le nostre auto, e in alcuni pasi si sta già discutendo se i robot debbano avere diritti. E i droni eliminano persone classificate come pericolose, senza possibilità di provare la loro innocenza”, continua Helbing. “In futuro i computer decideranno quanto dobbiamo pagare per i nostri prestiti e assicurazioni, sulla base dei nostri dati comportamentali e di quelli dei nostri amici, vicini e colleghi. Molte persone saranno discriminate in modi ingiustificati a causa di oscuri algoritmi, che non sono sufficientemente trasparenti né regolati legalmente in termini di standard di qualità”. Insomma, se non cominciamo a prendere seriamente in considerazione i rischi dell’utilizzo dei Big Data, nel prossimo futuro potremmo trovarci a vivere in un mondo in cui non avremo più segreti, ma saremo ridotti a dati continuamente scandagliati da insondabili bot virtuali che conosceranno tutto di noi stessi.