8 settembre 2011

ELIZA, lo psichiatra

Nel 1966, 16 anni dopo lo scritto di Turing, appare sulla scena il primo tentativo di realizzazione di un interprete di linguaggio naturale, ad opera di Joseph Weizenbaum.
La storia di Weizenbaum è per certi versi interessante quanto quella di Alan Turing, anche se meno tragica.
Di solito Weizenbaum viene immaginato come un luddista dei nostri tempi, che distrugge l'intelligenza artificiale come il celebre commerciante inglese distuggeva le fabbriche per reazione alla rivoluzione industriale. Ma a differenza dei luddisti, Weizenbaum fu anche il costruttore della macchina che distrusse.
Da questo punto di vista, può essere paragonato ai fratelli Wright, che distrussero il prototipo di aereo dopo il primo volo affermando che: "questa tecnologia è troppo pericolosa, meglio rimettere il genio nella bottiglia".

Una tipica conversazione con ELIZA è la seguente (C = Client; R = Robot):
C: Well, my boyfriend made me come here.
R: Your boyfriend made you come here.
C: I am unhappy.
R: Do you think coming here will help you not to be unhappy?
C: I need some help, that much seems certain.
R: What would it mean to you if you got some help?
C: Perhaps I could learn to get along with my mother.
R: Tell me more about your family.
C: You are like my father in some ways.
R: What resemblance do you see?
C: My father is afraid of everybody.
R: What else comes to mind when you think of your father.
C: Bullies.
R: Does that have anything to with the fact that your boyfriend made you come here?


Uno dei trucchi fondamentali di Eliza è l'inversione dei pronomi mostrata già nella prima battuta. Mediante una mappatura che trasforma "my" in "your" e "me" in "you", il robot risponde al client essenzialmente con un semplice echo dell'input ma scambiando i pronomi dalla prima alla seconda persona singolare.
Gli altri reply sono dei default generici, che danno l'illusione di una qualche comprensione dell'input. Se il client dice qualcosa con il prefisso "I need some X", il robot replica con "What would it mean to you if you got some X?". Non importa se X sia aiuto, soldi, cibo, acqua, amore o tempo libero: la stessa risposta copre tutti gli input di questo tipo.
Le altre repliche di ELIZA sono basate su un semplice riconoscimento di alcune parole chiave, come nella precedente battuta riguardante la madre del client, quando il robot dice: "Tell me more about your family". L'apparire della parola chiave "mother" in un qualsiasi punto dell'input controlla questo tipo di risposta. ELIZA ha una memoria molto limitata dello stato della conversazione: quando incontra l'input sconosciuto "Bullies", risponde con l'argomento (topic) precedentemente memorizzato.

A differenza di quel che si crede oggi, Weizebaum smise di perfezionare ELIZA, trovando terrificante che alcune persone non avessero compreso che ELIZA fosse un dispositivo automatico. Weizebaum racconta nel 1976 di come rimase shockato dall'esperienza di testare ELIZA, noto anche come "il dottore", facendolo usare dal personale non tecnico del MIT. Decine di segretarie e impiegati amministrativi pensarono che la macchina fosse un "reale" terapista, e spesero ore a rivelare i loro problemi personali al programma. Quando Weizenbaum informò una segretaria del fatto che lui avesse accesso ai log di tutte le conversazioni, la donna reagì andando su tutte le furie per questa "invasione della privacy". Per il ricercatore fu traumatico l'ammettere che un semplicissimo programma potesse sviare degli utenti ingenui fino a far rivelare loro delle informazioni personali.
Ciò che stupì profondamente Weizenbaum fu che i "pazienti" ritenevano che il programma realmente comprendesse i loro problemi. Anche alcuni psichiatri hanno reputato che il robot terapista potesse essere davvero un aiuto costruttivo per alcuni tipi di pazienti. La reazione di Weizenbaum può essere compresa meglio se la si confronta con quella di un astronomo nei confronti dell'astrologia.
Il retro di copertina del libro di Weizenbaum, Computer Power and Human Reason (1976) fornisce un'idea delle reazioni suscitate dal volume all'epoca della sua pubblicazione:
"Dare I say it? This is the best book I have read on the impact of computers on society, and on technology, and man’s image of himself."—Keith Oakley, Psychology Today
"A thoughtful blend of insight, experience, anecdote, and passion that will stand for a long time as the definitive integration of technological and human thought."—American Mathematical Monthly
"Superb ... the work of a man who is struggling with the utmost seriousness to save our humanity from the reductionist onslaught of one of the most prestigious, and richly funded technologies of our time."—Theodore Piszak, The Nation."

Computer Power and Human Reason ci appare oggi come un testo un po' ingenuo, appare evidente che Weizenbaum percepì come propria la missione di informare un pubblico disinformato che confonde fantascienza e realtà: la maggior parte del libro è dedicata allo spiegare come funziona un computer, cosa necessaria nel 1976, ma oggi un titolo appropriato per il volume potrebbe essere "Computers for Dummies". Due capitoli del testo sono dedicati ad un attacco violento nei confronti dell'intelligenza artificiale, specificamente contro ELIZA, e nei confronti della ricerca informatica in generale.
Quasi tutti i ricercatori dell'epoca non ebbero bisogno di altri incoraggiamenti per pensare che ELIZA fosse solo un trucco ed in ogni caso non un "serio" progetto di intelligenza artificiale; nonostante questo, ELIZA è di sicuro il programma più diffuso ed utilizzato, nella breve storia dell'intelligenza artificiale.
Il maggiore danno creato da Joseph Weizenbaum sta nell'aver voluto non promuovere la sua tecnologia, ma di aver invece stimolato la sua critica. In tal modo ha bloccato ogni successiva investigazione nel settore.
Negli anni successivi, sono stati messi a punto altri dispositivi, intesi come miglioramento ed evoluzione di ELIZA.

2 commenti:

  1. Mah, non è che avesse tutti i torti ad essere orripilato dalla sua stessa creazione. O meglio, dagli utenti della sua creazione. Se un uomo, per quanto ignorante in materia, non riesce a distinguere una l'operato di una macchina da un reale ragionamento umano, c'è da preoccuparsi, è indice di enorme superficialità.
    Per non tirare fuori la solita argomentazione matrix-style (macchine intelligenti -> uomo = cattivo -> bla bla bla -> sole oscurato -> bla bla bla -> uomo = batteria vivente). Non ho creduto particolarmente nell'intelligenza artificiale come un effettivo aiuto per l'uomo che ne possa giustificare la pericolosità. Un po' come l'energia nucleare e la bomba atomica (anche se è un esempio che non rende al meglio).
    E poi, diciamocelo, mi piace giocare al piccolo dittatore con il mio computer. :D

    RispondiElimina
  2. Vi propongo questo racconto sull'argomento, lo trovo molto calzante, oltre che inquietante!
    http://qntm.org/difference
    Ciao a tutti

    RispondiElimina