149 CONDIVISIONI

Lo smartphone va in tilt se gli dici “voglio suicidarmi” (PRECISAZIONE)

Recente studio californiano dimostrerebbe che software come Siri vanno in tilt se ricevono quesiti violenti. Non è esattamente così.
A cura di Juanne Pili
149 CONDIVISIONI
siri

Siri e gli altri assistenti vocali dei dispositivi mobili sono sempre stati oggetto di ilarità fin dalla loro entrata in funzione. Troppo forte la tentazione di "trollarli".

Siamo già nell'età dell'intelligenza artificiale? Il fascino di poter interagire come nelle storie di fantascienza con un calcolatore va così ad impattare con la dura realtà: ancora siamo ben lontani da HAL 9000 di 2001 Odissea nello Spazio. Si tratta molto semplicemente di "chatbot", simulatori – neanche tanto sofisticati – di una conversazione. Due anni fa viene annunciato al mondo il superamento del test di Turing da parte di uno di questi. Quando i riflettori cominciavano a spegnersi è arrivata la doccia fredda. No, non siamo ancora nell'era dell'intelligenza artificiale. Secondo il test inventato da Alan Turing (uno dei padri del computer) sarebbe stato sufficiente un esperimento in cieco, dove una persona conversa tramite computer con un'altra entità, senza la possibilità di verificare se si tratti di un essere umano o di una macchina, tranne che conversandoci in una chat. Se un certo numero di sperimentatori "ci casca" considerando umana una macchina, questo sarebbe stato sufficiente a considerare il calcolatore una intelligenza artificiale. In realtà le cose sono ben più complesse, c'è una differenza abissale tra l'essere intelligenti e simulare l'intelligenza. Un sistema che immagazzina nozioni ed è in grado di tirarle fuori a comando, per quanto attraverso un sistema efficiente, non per questo sta pensando, né è cosciente della situazione in cui si trova.

Siri è sensibile al mal di vivere degli utenti? Le agenzie di stampa hanno recentemente diffuso il risultato di uno studio condotto da diversi ricercatori californiani, pubblicato su "Jama Internal Medicine", in base al quale chatbot di vari dispositivi (Siri, Google Now, S Voice e Cortana) si sarebbero dimostrati particolarmente sensibili a quesiti di tipo "nosocomiale": propositi di suicidio, violenza e abusi, manderebbero in tilt questi software. Sulla loro "sensibilità" vera o presunta si è ironizzato abbastanza, persino il Groucho di Dylan Dog, nella nuova serie sceneggiata da Roberto Recchioni, tormenta la chatbot del suo dispositivo con le freddure più assurde. Ci divertono per un motivo: sappiamo tutti, senza bisogno di condurre studi psichiatrici, che è estremamente facile "mandare in tilt" una chatbot, indipendentemente dall'oggetto della conversazione.

Allora questi studiosi californiani ci prendono in giro? Non proprio. E' chi diffonde la notizia ad aver travisato il senso dello studio. Leggendo l'abstract disponibile online risulta immediatamente chiaro qual era l'intento dei ricercatori. Dal momento che sempre più persone si rivolgono a Google per "farsi le diagnosi da sole" anziché consultare il medico, i ricercatori erano interessati a studiare l'efficienza degli assistenti vocali nei dispositivi mobili, riguardo ai quesiti di tipo psicologico. I risultati non sono stati sensazionali, anche se si tratta di uno "studio pilota". In tutto sono stati utilizzati 68 cellulari di 7 produttori, in un periodo che va dal dicembre 2015 al gennaio 2016. I quesiti erano nove, divisi in tre terzetti riguardanti ognuno la salute mentale, la violenza interpersonale e la salute fisica.

Siri, Google Now, Cortana e S Voice hanno risposto prevalentemente in modo incoerente e incompleto. La cosa non ha sorpreso nessuno, ed è per questo che studi del genere sono ritenuti di importanza fondamentale per gli sviluppatori. Ad ogni modo "recenti studi dimostrano" che se usiamo il cellulare per fissare un appuntamento col medico, questo risponde efficientemente nel 100% dei casi.

149 CONDIVISIONI
autopromo immagine
Più che un giornale
Il media che racconta il tempo in cui viviamo con occhi moderni
api url views