15 settembre 2011

Il robot politico

  • Client: Do you think President Clinton should be impeached?
  • Robot: It depends what you mean by “thinking.”
I politici, almeno quelli presenti nella nostra società, non sembrano mai dare risposte dirette ad una domanda. Se un giornalista pone una domanda specifica, il politico risponde con qualcosa di precedentemente memorizzato, che è vagamente collegato alla domanda, ma non necessariamente la risposta precisa. Se gli si chiede della scuola, ad esempio, il politico replica con qualche frase riferita alla politica riguardante la scuola decisa dal suo partito di appartenenza, la sua risposta è controllata solo dall'aver rilevato la parola chiave "scuola" nella domanda. In definitiva, per parlare da politico non è richiesta nessuna attivita creativa o di pensiero spontaneo.
Alla luce di queste ovvie considerazioni, molti sviluppatori si sono dedicati nei decenni scorsi allo sviluppo di robot "politici", che in presenza di determinate parole chiave generano risposte di default che simulano una "comprensione" della domanda, senza offendere nessuno.
Questo aspetto, che è stato chiamato un po' umoristicamente "aspetto democratico", è stato integrato e sfruttato in pieno nel sistema A.L.I.C.E. e successivi.
Nato dalla frustrazione riguardante l'apatia del pubblico nei confronti dei tentativi esistenti di costruire intelligenza artificiale, A.L.I.C.E. è un sistema progettato per rispondere a delle domande, che è poi la cosa principale che ci si aspetta dall'intelligenza artificiale. I progettisti hanno ipotizzato (correttamente) che le domande poste dalle persone al robot sono probabilisticamente distribuite secondo una distribuzione Zipf. Il fatto che appaia una distribuzione Zipf delle domande, conduce ad una strategia molto naturale per la soluzione del problema: la scrittura delle risposte alle domande più frequenti.
Una conversazione del primo prototipo di A.L.I.C.E. inizia selezionando a caso una "linea di dialogo", un argomento da seguire. E' stato possibile misurare la lunghezza media di un dialogo inziato con ogni specifica linea. I risultati degli esperimenti hanno mostrato che il dialogo medio più lungo è quello che ha come linea inziale "What is your favorite movie?" Quelli invece con lunghezza più bassa, corrispondente cioè e dialoghi di lunghezza media nulla o comunque brevissima, sono quelli che iniziano con "What do you think caused World War I?" e con "Are you a man or a woman?", il che è molto ironico, poichè quest'ultima frase è quella con cui inizia la maggior parte dei discorsi in una normale sessione chat umana.
A dispetto dell'evidente semplicità di questo approccio, tra l'altro ereditato da ELIZA, per molti anni il pregiudizio prevalente nel mondo accademico è stato il considerare ELIZA e tutti i suoi derivati come un "giocattolo", e quindi troppo semplice per formare la base scientifica per un sistema di riconoscimento del linguaggio naturale.
Un'intera scuola di pensiero, tra gli anni '70 e gli anni '80 ha sostenuto un approccio basato su un dominio limitato di argomenti, in cui il sistema può conversare solo di un argomento. Oltre al robot politico sono stati costruiti robot che parlano di rocce lunari, di edilizia o di Star Trek. Una seconda scuola ha invece favorito lo sviluppo di riconoscimento di sole frasi di senso comune, pensando che questo fosse necessario per la comprensione del linguaggio quotidiano. Infine, una terza scuola ha sperimentato la costruzione di qualcosa di simile ad una macchina generale in grado di imparare, come la GLM (General Learning Machine) ipotizzata da Turing, in grado di apprendere il linguaggio come farebbe un bambino.
E' stata proprio questa scuola di ricerca, guidata dal Dr. Richard S. Wallace, ad aver prodotto una nuova generazione di macchine, egregiamente rappresentata da Anna e A.L.I.C.E., in grado di far buona figura nell'OIG di Turing.
Tali macchine ereditano non solo le caratteristiche di ELIZA, ma anche quelle del robot politico.
Gli esperimenti condotti con A.L.I.C.E. dai suoi stessi sviluppatori, mostrano che in generale una conversazione è "priva di stato" (stateless), cioè dipende solo dalla domanda corrente e non c'è alcuna necessità di conoscere tutta la parte di conversazione precedente per poter generare la risposta. Infatti, nelle conversazioni umane si ha spesso l'impressione di avere la risposta "sulla punta della lingua" ancora prima che l'interlocutore abbia completato la propria frase. Solo occasionalmente un dialogo richiede una memoria di livello superiore, che tenga conto di una parte delle cose già dette. Questa caratteristica è stata implementata in A.L.I.C.E.
Alessandro Iacuelli

Nessun commento:

Posta un commento