Skip to main content

L’interfaccia umana ha avuto per oggetto l’interazione tra uomo e macchina, e questo anche prima dell’avvento dei calcolatori.

Un tornio o un telaio, ma anche una stampante a pressa, hanno fatto registrare progressi sia per l’evoluzione delle tecnologie interne sia per le modalità con cui sono migliorate le interfacce con l’operaio portando a una maggiore produttività.

Interfaccia uomo-macchina antropomorfica

Il computer ha introdotto da un lato un livello di complessità nell’interazione precedentemente impossibile, ma allo stesso tempo ha portato anche a modalità molto più sofisticate di interazione.

Nel futuro questa «sofisticazione» raggiungerà nuovi livelli, rendendo possibile in certi casi una interfaccia molto simile a quella che utilizziamo nel dialogare tra persone. L’aspettativa è che entro la prossima decade si riesca ad arrivare a un dialogo in cui una persona non dovrà più «pensare» che sta parlando a una macchina. Questo non sarà tanto frutto dei progressi nei settori del riconoscimento del parlato e sintesi vocale (pure essenziali), piuttosto della capacità della macchina di capire il contesto in cui si svolge una conversazione e, verso la fine della prossima decade, di avere un minimo di «buon senso». Infatti, anche se spesso non ci si bada, è proprio il buon senso che distingue la conversazione tra umani da una effettuata con una macchina. Se diciamo a un amico:«sono uscito con l’ombrello», la deduzione implicita che si formerà nella sua mente è quella di una giornata piovosa, o potenzialmente tale, che la pioggia bagna, che alcuni tipi di scarpe con la pioggia si rovinano, che se si ha il raffreddore è meglio non bagnarsi e così via. Tutte idee semplicissime che però, oggi, non sfiorano neppure la mente di un computer. Al MIT stanno lavorando (4) per insegnare il buon senso al computer e l’obiettivo è di riuscirci entro la prossima decade. Un altro tipo di progressi che contribuirà a rendere più credibile l’umanità di un computer che parla sarà portato dalle ricerche nel settore dell’Affective Computing, cioè di quella disciplina che studia come un computer possa comprendere l’emozione di una persona che gli sta di fronte (e quindi adattare il tenore delle interazioni).

Tuttavia, per quanto bravo possa diventare un computer a imitare una persona, questo tipo di interfacce avrà applicazioni specifiche, non dominerà quindi l’intero spettro della interazione uomo-macchina. Infatti molto spesso le persone preferiscono «mantenere le distanze» e quindi, se devono interagire con una macchina, preferiscono utilizzare una modalità di interazione diversa da quella che utilizzerebbero con una persona.

Interaction Design

In questo caso rimane però la complessità di una interazione che non è quella cui gli umani si sono abituati nei millenni. L’interazione con gli oggetti infatti è stata sempre molto semplice, prendere in mano una pietra, lavorarla o scagliarla. L’avvento del computer ha permesso la creazione di oggetti complessi che richiedono interazioni complesse. L’Interaction Design è una disciplina relativamente giovane che ha come obiettivo la costruzione di oggetti in cui la forma stessa dell’oggetto suggerisca di per sé il modo in cui occorre interagire con questo. Oggi gli oggetti che si «fanno usare» solo prendendoli in mano, come l’iPod della Apple, sono relativamente pochi, ma per la fine di questa decade la integrazione di risultati provenienti dalle scienze cognitive, dalla osservazione dell’uomo, dalla «pragmatica» e dall’ingegneria dovrebbero portare a una progettazione di oggetti in cui si parte dal come utilizzarli per poi definire come svilupparli. I ricercatori in questo settore sono ancora relativamente pochi, ma tra questi si contano quelli che operano nell’Interaction Design Institute di Ivrea.

Interfaccia con l’ambiente

La necessità di interagire sempre di più si sposterà dalla interazione tra una persona e un oggetto specifico a quella di una interazione che coinvolge l’intero ambiente o in cui l’intero ambiente «collabora». Si possono immaginare situazioni «semplici» in cui, per esempio, l’ambiente casa reagisce alla accensione del televisore tirando le tende del salotto se siamo in un pomeriggio assolato in cui la luce che entra dalle finestre batte sullo schermo del televisore o magari procede alla attenuazione delle luci in salotto facendole virare verso il blu, aumentando quindi la visibilità delle immagini.

Se ne possono immaginare di più articolate in cui, mentre si sta guardando un programma televisivo si riceve una comunicazione sul cellulare. Questo riconosce l’ambiente in cui si trova e ridirige le informazioni tipo immagine direttamente sul televisore. Quello stesso telefonino potrebbe catturare informazioni da alcuni sensori che abbiamo addosso e inviarle durante la conversazione al medico con cui stiamo parlando, il tutto in modo sostanzialmente trasparente.

Il concetto di ambiente intelligente è oggi allo studio in vari centri di ricerca, tra i pionieri il Media Lab con i programmi Cose che pensano (Things That Think) e Vita Digitale (Digital Life), ed è anche uno dei punti centrali nel programma di ricerca dell’Unione Europea. Quello stesso telefonino che potremmo utilizzare tra qualche anno anche per cambiare i canali al televisore sulla base di un elenco nostro, diverso da quello dei figli, potrebbe servire allo stesso scopo quando ci si trova in una camera d’albergo per cui al tasto uno continuerà a corrispondere Rai 1, e questo anche se mi trovassi a New York in quanto l’informazione che viene trasferita dal telefonino al televisore non è «canale 1», ma piuttosto: questo è Roberto che vuole vedere Rai 1. Sarà l’ambiente a fare in modo che su quel televisore venga visualizzato il canale desiderato andando a prenderlo, se necessario, dall’altra parte del mondo.

Il computer, quindi, semplificherà le interazioni tra uomini e macchine. Nei prossimi anni, inoltre, troveremo il computer anche nella interfaccia tra uomini e uomini, un qualcosa a cui non siamo ancora abituati.

Traduttore in tempo reale

La diversità linguistica, ancora oggi, costituisce una barriera formidabile alle comunicazioni. Il traffico telefonico tra gli Stati Uniti e l’Inghilterra supera di molto quello tra l’Inghilterra e la Francia (e l’Europa), pur essendo queste geograficamente quasi a contatto. Sono in corso vari progetti di ricerca (e i primi prodotti sono disponibili) per arrivare a una traduzione in tempo reale da un linguaggio a un altro. Quello probabilmente più ambizioso è di IBM che ha annunciato per fine decade l’obiettivo di disporre di un sistema in grado di tradurre in tempo reale tra 28 lingue parlate in modo naturale, quindi al ritmo di una normale conversazione. Il sistema è immaginato come wearable, cioè disponibile da indossarsi come una camicia, anzi sarà probabilmente intessuto in una camicia o maglione.

Disporrà di un microfono per catturare la voce del nostro interlocutore e tradurrà quanto sente nella nostra lingua, sussurrandocelo all’orecchio. Similmente la nostra voce sarà catturata dal giubbotto della persona con cui parliamo per una pronta traduzione nella sua lingua.

A questo risultato concorreranno i progressi che derivano da svariati settori, come i wearable computer, il riconoscimento e sintesi della voce, le scienze cognitive, la profilatura, gli agenti e, ovviamente, gli studi sulla comprensione del linguaggio.

Anche se queste promesse diverranno (è probabile) realtà a fine decade, il traduttore umano rimarrà una professione utile e ricercata in diversi settori anche per tutta la prossima decade in quanto la sofisticazione del nostro linguaggio, le inflessioni, gli sguardi che cambiano il significato a quanto diciamo, resteranno ancora per molto tempo dei segnali astrusi per un computer. Tuttavia la disponibilità di traduttori indossabili stimolerà ulteriormente il turismo e faciliterà la comunicazione e la comprensione tra mondi oggi linguisticamente distanti.

Traduttore da esperto a neofita

La comunicazione tra umani, una delle meraviglie della natura in termini di complessità gestita ed efficacia, non è affatto efficace quanto siamo portati a credere. Diversi studi concordano che fatto 100 il messaggio emesso dal parlatore la quantità che raggiunge il cervello dell’ascoltatore non supera il 60-80 per cento, quella effettivamente compresa è ancora meno e quella ricordata difficilmente va oltre il 20 per cento.

In genere questo non è un problema, e ne siamo la prova vivente, ma è altrettanto vero che questa inefficienza lascia notevoli spazi a tentativi di miglioramento.

è quanto si stanno proponendo varie ricerche che in una prima fase cercano di tradurre il linguaggio di un esperto in un linguaggio adatto alla comprensione da parte di un neofita dell’argomento. Questo tipo di traduzione è notevolmente più complesso di quello richiesto nel passaggio da una lingua a un’altra e richiede una conoscenza sia del dominio «concettuale» dell’esperto sia di quello specifico di quel particolare neofita. Sistemi veramente efficaci non sono immaginabili se non nella prossima decade e le loro applicazioni potranno iniziare dal settore dell’apprendimento. Gli studenti, infatti, sono dei neofiti per eccellenza, ciascuno però con capacità e modalità di apprendimento ottimale diverse. Al MIT, così come in altre università americane, si è da poco tempo iniziato a fare «sul serio» in questo settore a partire dalla obbligatorietà di seguire e dare almeno due esami ogni anno online. Sappiamo bene come i tentativi fino a oggi fatti di trasporre le lezioni normali a una fruizione sulla rete siano sostanzialmente falliti. Ora è in corso uno studio sistematico su come sia possibile sfruttare le nuove tecnologie per migliorare la capacità di apprendimento. Se ci si riuscirà veramente, e lo vedremo nella prossima decade, sarebbe il primo progresso significativo nelle tecnologie dell’insegnamento da quando è stata inventata la scrittura e il rapporto docente discente oltre duemila anni fa.

Umani…artificiali

HAL, il computer che in 2001 Odissea nello spazio, fa compagnia all’astronauta, parla, (s)ragiona ed è anche permaloso come un uomo. Avremo questo tipo di interfacce nel prossimo futuro? Gli avatar (5) oggi sono poco più che cartoni animati, ma la ricerca sta facendo notevoli passi avanti nel dotare queste entità di un’anima (in senso colloquiale). Al Media Lab e alla Carnegie Mellon, per esempio, sono diverse le ricerche in corso per rendere autonomi nel ragionamento e nelle capacità di esprimersi degli oggetti (il che significa del software le cui interazioni sono rese visibili dalla associazione con un oggetto che si anima su di uno schermo video o tramite un robot).

Nella prossima decade alcuni ricercatori ritengono che non solo potremo avere come compagni di giochi delle entità artificiali in grado di colloquiare con noi in modo tale da apparire indistinguibili da persone umane (le difficoltà sono in qualche misura inferiori e comunque diverse da quelle che si devono affrontare nei due casi precedentemente trattati della traduzione in tempo reale e nella mediazione tra esperto e neofita). Un po’ più avanti potrebbe essere possibile trasferire parte delle nostre conoscenze, modo di fare e obiettivi a una di queste entità e farci rappresentare da lui. Il dono dell’ubiquità potrebbe concretizzarsi.