104 CONDIVISIONI
video suggerito
video suggerito

Cinque falsi miti sull’Intelligenza artificiale

Rilassatevi, nessun robot ci schiavizzerà, né sarà in grado di sviluppare doti creative, questo stando alle conoscenze attuali. Avranno sempre bisogno di un “aiutino” da parte nostra.
A cura di Juanne Pili
104 CONDIVISIONI
intelligenza-artificiale

I notevoli progressi della ricerca riguardo all'Intelligenza artificiale risvegliano vecchi timori e sollevano altrettanti quesiti, molti dei quali sembrano ancora di difficile soluzione. Ci sono anche limiti intrinsechi, che molto probabilmente renderanno impossibile il realizzarsi degli scenari apocalittici narrati nei romanzi o nei film di fantascienza, dove le macchine fraintendendo le leggi della robotica, assumono il controllo totale della nostra vita. Ecco in sintesi i cinque principali falsi miti sull'Intelligenza artificiale:

  1. Superato il test di Turing? Può darsi, ma non dimostra che esiste l'Intelligenza artificiale nel senso "forte" del termine;
  2. Robot curiosi: si tratta solo di una riduzione giornalistica, che sottende ben altro;
  3. Intelligenza e creatività: ad oggi non siamo in grado di capire su cosa si fondino le capacità creative, di certo sappiamo che occorre separare i due concetti.
  4. Goedel e l'impossibilità di "specchiarci": l'impossibilità logica di conoscere tutti i fattori di un insieme, del quale facciamo parte, potrebbe essere un limite invalicabile nel cammino verso l'Intelligenza artificiale vera e propria.
  5. Le tre leggi della robotica non saranno necessarie, proprio in ragione dei limiti appena elencati.

1. Non abbiamo ancora raggiunto l'Intelligenza artificiale

Avevamo già trattato riguardo al falso mito del test di Turing già superato. Non per il test in sé, quanto per la sua reale capacità di verificare l'esistenza di una intelligenza artificiale, perlomeno nel senso forte del termine. È anche vero che la recente vittoria di un computer in una partita di Go – contro un campione umano – ha fatto venire i brividi un po' a tutti gli appassionati del ramo. Il gioco del Go infatti non richiede tanto capacità strategica, quanto intuitiva, cose che da una macchina non ci si aspetta (cfr. "La parola alle macchine", Will Knight, Mit Technology Review). Tuttavia la capacità di un calcolatore di risolvere dei problemi di calcolo immensamente complessi, non è sinonimo di intelligenza. Torniamo quindi al problema dell'imitazione: il test di Turing al massimo può verificare quanto una macchina sia in grado di imitare un essere umano; quelle che noi chiamiamo capacità intuitive non sappiamo ancora se derivino da una attitudine intrinseca del cervello di eseguire calcoli di probabilità, o se fondino le loro radici nella capacità di improvvisare nuovi schemi – in entrambi i casi brancoliamo ancora nel buio.

2. Nessun robot può provare curiosità

Recentemente si è parlato di robot curiosi, che vanno all'esplorazione dell'ambiente "percepito" attraverso dei sensori. Ma la curiosità richiede un'interesse non indotto da un paradigma di programmazione. Gli studi attuali vertono quindi sulla capacità di riprodurre le nostre reti neurali, ed il paradigma di fondo non è certo la curiosità o la creatività, quanto quello evolutivo: la macchina esegue diversi tentativi, scartando quelli meno adatti a raggiungere uno scopo, portando avanti i risultati più adatti. Non di meno, l'angoscia che ci viene nell'osservare un oggetto inanimato, il quale tuttavia si comporta come se fosse "vivo" (automatonofobia), è più un problema della nostra psiche, non certo un'evidenza scientifica.

3. "Intelligenza" non significa "creatività"

Scrivevamo per l'appunto che l'intelligenza e la creatività sono due aspetti diversi, per quanto possano correlarsi. Si raggiungerà mai la cosiddetta "singolarità"? Ovvero una capacità di calcolo probabilistico e di imitazione delle reti neurali, tale che una macchina cominci davvero a pensare? Stando alle conoscenze attuali non sappiamo nemmeno se sia questa la strada. Gli studi su cosa sia l'intelligenza e se implichi una quota di coscienza di sé sono ancora pionieristici, la situazione è ancor peggiore riguardo alla creatività. Oggi è già possibile far comporre musiche originali alle macchine, tuttavia necessitano sempre di un "aiutino" umano.

4. Limiti del linguaggio e della logica matematica

Uno degli ostacoli maggiori è il linguaggio. Gli attuali strumenti di riconoscimento vocale e le varie chatbot sviluppate sono ancora molto goffe – per usare un eufemismo – con buona pace per chi pensa il contrario. La capacità di incamerare informazioni attraverso un linguaggio articolato e di comunicare mediante lo stesso i propri pensieri è una materia di studio ancora relativamente agli albori; lo dimostrano importanti scienziati del linguaggio come Noam Chomsky. Tenendo conto che non possiamo uscire dal linguaggio (tutta la nostra immagine del Mondo è di fatto un insieme di narrazioni) questo significa che potremmo essere parte di un insieme di "fattori linguistici". Tale aspetto sarebbe un limite che minaccia di essere invalicabile: sarà proprio il logico matematico Goedel a teorizzare l'impossibilità di conoscere tutti i fattori di un insieme, se chi li studia ne fa parte:

E' impossibile dimostrare dall'interno di un sistema di assiomi la non contraddittorietà di questi ultimi.

Questo significa che per avere una conoscenza esaustiva dei meccanismi che portino all'Intelligenza artificiale – nel senso forte del termine – occorrerebbe porsi fuori dai nostri stessi pensieri. Concetti di una vastità tale che sarebbe impossibile chiarirli nello spazio di un articolo.

5. Scusaci Asimov: le leggi della robotica non serviranno

Ci sono anche degli aspetti positivi di questi limiti. Restando pragmatici a noi in fondo interessa il "gioco di imitazione": non è tanto importante avere dei robot filosofi o pittori, ci servono intelligenze artificiali in grado di imitare e sostituire in maniera efficiente il lavoro umano. Il timore che le macchine un giorno possano prendere il potere sull'umanità non sembra al momento fondato, non solo perché non sappiamo proprio come potrebbe una macchina provare sentimenti umani, ma anche perché la mancanza di creatività gli impedirebbe di andare oltre la propria programmazione – o come si intenderà in futuro – il proprio sistema neurale, il quale per quanto implichi un'evoluzione, resterebbe sempre ancorato al proprio target. Nessun robot potrebbe un giorno decidere "per il nostro bene", non potendo percepire un "senso del bene"; al solito questo rimane un pericolo squisitamente umano: quello di cercare il paradiso in Terra secondo un'idea di bene che poi puntualmente si trasforma in quella che Nietzsche definiva "il rimedio peggiore del male".

104 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views