ex machina

Secondo quanto viene riportato in questi giorni l’Intelligenza artificiale sarebbe già in mezzo a noi. E’ abbastanza elastico il modo in cui questo termine viene usato, ma se di mezzo c’è il test di Turing dovremmo intendere sempre un computer impossibile da distinguere da un essere umano, se non abbiamo modo di vederlo direttamente. A riaccendere i sogni fantascientifici un esperimento i cui risultati sono stati pubblicati su arXiv. Un team di ricercatori del Mit (Massachusetts Institute of Technology) coordinato da Andrew Owens è riuscito a mettere a punto un sistema che frutta particolari algoritmi, in grado di far assegnare a un computer determinati effetti sonori a seconda dei filmati che gli vengono fatti analizzare.

Test di Turing superato tre volte? Salta fuori così che per la terza volta sarebbe stato superato da un calcolatore il test di Turing. Cosa del tutto fuori luogo, in quanto questo genere di esperimento in cieco prevede che da una parte si abbia un computer, che comunica dall’altra con un esaminatore il quale deve indovinare se sta conversando con un umano o una macchina. Questo equivoco si deve probabilmente all’ambiguità con cui il termine “Intelligenza artificiale” viene usato. Oggi infatti definiamo in questo modo anche alte prestazioni di calcolo – da parte di dispositivi elettronici orientati a svolgere determinate mansioni – che prima sarebbero state ritenute impossibili senza la presenza di una intelligenza umana a sovrintenderle.

Il caso di Eugene Gootsman. Il precedente che più ha colpito la nostra attenzione è quello del giugno 2014, quando un computer progettato a San Pietroburgo avrebbe dimostrato, mediante test di Turing, di poter essere confuso con un ragazzino di tredici anni. Per maggiori approfondimenti si consiglia la lettura di un articolo del Guardian. Si occupò della questione anche Paolo Attivissimo. Una macchina avrebbe superato il test di Turing facendo credere al 33% degli esaminatori di essere un ragazzino di 13 anni, tale Eugene Goostman. Stando a quanto riportato nell'articolo il test può considerarsi superato già raggiungendo la soglia del 30%. La dimostrazione avvenne il 7 giugno 2014 alla Royal Society di Londra. I risultati lasciano alquanto perplessi, innanzitutto il test di Turing non dimostra affatto se una macchina è intelligente, bensì quanto sia in grado di sembrarlo (intelligenza artificiale debole). Il concetto viene spiegato meglio da una delle più note confutazioni del test e del concetto stesso di intelligenza artificiale, l'esperimento della Stanza cinese, pubblicato dal filosofo americano John R. Searle nel 1980 su Behavioral and Brain Sciences. Nell'articolo Searle va al nocciolo della questione, domandandosi se il cervello è un programma:

Dal momento che i programmi sono definiti in modo puramente formale o sintattico e dal momento che le menti possiedono un intrinseco contenuto mentale, ne consegue immediatamente che il programma non può costituire la mente … Un computer, io ad esempio, potrebbe svolgere i passaggi nel programma grazie a qualche capacità mentale, come per esempio comprendere il cinese senza capire una parola di cinese. L’argomento si fonda sulla semplice verità logica per cui la sintassi non corrisponde alla semantica, né è di per sé sufficiente a determinare la semantica.

L'ultimo precedente citato in questi giorni risale allo scorso anno, ed è un esempio di quanto il concetto di Intelligenza artificiale sia abusato. L'allora studente della Duke Zackary Scholl ha elaborato un programma, dotato di sistema grammaticale, in grado di produrre poesie in maniera autonoma. Trovate su Motherboard un articolo molto interessante riguardo al caso:

Quando gli si chiede di creare una poesia, seleziona casualmente dei componenti e ne genera una … Il lavoro di Scholl rientra in quell'ambito in espansione che lavora su poesie e prosa generate da algoritmi—dai bot che scandagliano Twitter per elaborare sonetti in pentametro giambico, ai robot che scrivono poesie, fino ai generatori automatici di racconti, il divario che separa l'arte umana da quella generata da macchine si fa sempre più esiguo.

Hall9000

La differenza tra sintassi e semantica, ovvero tra grammatica e significato, è la ragione per cui non si può annunciare a tutto spiano che viviamo nell'era dell'Intelligenza artificiale, solo perché il 33% di un gruppo di giudici si è “lasciato ingannare” da un programma.

La Stanza cinese: Un omino munito di apposito libro di istruzioni riceve dei messaggi in cinese e ne fa uscire altri, basandosi sulle associazioni che indica il manuale a sua disposizione. L'omino non capisce un'acca di cinese, ma chi sta fuori dalla stanza non lo può sapere, perché esegue le istruzioni come il libro comanda. La tecnica comandata dal libro è la sintassi, ma solo i cinesi che stanno fuori dalla stanza hanno la semantica per comprenderla.

Insufficienze statistiche. La seconda ragione per cui non possiamo dirci soddisfatti del test di Turing – così come viene presentato – è puramente statistica: considerare un mero 33% significa che il 66% dei giudici non è stato “raggirato” dal programma. Anche ammettendo che tutti i giudici vengano “ingannati” resta sempre l'obiezione di Searle.

L'Intelligenza artificiale forte presupporrebbe la coscienza di sé. Una mucca, uno sciame di api o di formiche, sono esseri coscienti: la mucca ha un minimo di intelligenza; nessun animale ha la coscienza di sé dell'uomo – anche se alcuni dimostrano di avvicinarvisi molto – come certi primati e delfini. Anche i neuroni eseguono delle istruzioni, ricevono input ed elaborano output di cui non possono concepire il significato, eppure nel loro insieme formano la Coscienza di sé, ovvero l'intelligenza umana. Ma il Dna non è un programma, si tratta di un sistema biochimico formatosi dopo milioni di anni in armonia con il Mondo, senza necessitare di essere assemblato da una coscienza esterna, che a sua volta necessiterebbe un altro programmatore, eccetera.

Esisterà mai l'Intelligenza artificiale forte? Conoscere un sistema significa anche controllarlo, se posso controllare qualcosa totalmente questa diviene un mio strumento, una protesi. Un computer fa ciò che ci aspettiamo da lui – non è imprevedibile – se non quando si guasta, ma anche in quel caso siamo in grado di ripararlo; un computer non può sbagliare, può solo essere difettoso. Non di meno, un uomo del Medioevo se messo davanti ad esso avrebbe avuto l'impressione vivida di trovarsi di fronte a qualcosa di intelligente.