10 tecnologie emergenti: cambieranno il mondo?

Con la continua invenzione di nuove tecnologie da parte di università e imprese, indovinare quale trasformerà l’informatica, la medicina, la comunicazione e la infrastruttura energetica è sempre un azzardo.

di Corie Lok

Tuttavia «Technology Review» è disposta a scommettere che le 10 tecnologie prese in considerazione influiranno sulla vita di tutti e determineranno cambiamenti rivoluzionari, a partire dai prossimi anni o dal prossimo decennio. Per ognuna è stato scelto un ricercatore le cui idee e le cui ricerche sono rappresentative del suo settore o lo hanno addirittura ridefinito. In queste pagine, le immagini e la descrizione delle attività più innovative forniscono un anticipo del futuro che queste tecnologie in evoluzione potrebbero garantire.

1. Traduzioni universali

YUQING GAO:

«Entro dieci anni chiunque potrà avere un software di traduzione universale sul suo portatile o cellulare».

Yuqing Gao è bilingue e così il suo computer. Al Watson Research Center di IBM, a Yorktown Heights, New York, l’esperta di informatica, che sta recitando la parte di un medico, parla il mandarino, rivolgendosi al suo PDA. Dopo qualche secondo, una gentile voce femminile emessa dall’apparecchio chiede, in inglese, «Che sintomi ha?». Il sistema di Gao, destinato ad aiutare i medici a comunicare con i pazienti, può essere esteso ad altri linguaggi e situazioni.

L’obiettivo finale, ella dice, è produrre un software di «traduzione universale» che deduce il significato dalla frase in una lingua e lo traduce in una qualsiasi altra lingua, consentendo a persone di culture diverse di comunicare.

Il lavoro di Gao è all’avanguardia nei tentativi di usare modelli matematici e tecniche di elaborazione del linguaggio naturale per rendere le traduzioni computerizzate più accurate e più adattabili ai nuovi linguaggi.

Diversa dal riconoscimento e dalla sintesi vocali, la tecnologia sottostante alla traduzione universale è maturata negli ultimi anni, sospinta in parte dal commercio globale e dalle esigenze di sicurezza.

«I progressi nell’apprendimento automatico, nella potenza di calcolo e nei dati disponibili per la traduzione sono i più grandi mai visti nella storia dell’informatica», sostiene Alex Waibel, condirettore del Language Technologies Institute della Carnegie Mellon University, che finanzia una serie di ricerche nel settore.

A differenza dei sistemi commerciali che traducono i documenti Web parola per parola solo in contesti specifici come i piani di viaggio, il software di Gao si affida alla analisi semantica: estrae il significato del testo o del discorso più probabile, lo memorizza in termini concettuali come azioni e bisogni ed esprime la stessa idea in un’altra lingua. Per esempio, il software traduce l’espressione «Non mi sento bene» decidendo in primo luogo che chi parla è probabilmente malato e non ha problemi di udito; di conseguenza produce una frase sulla salute di chi parla nella lingua richiesta. Se nel computer sono conservati una serie sufficiente di concetti semantici, diviene molto più semplice agganciare una nuova lingua alla rete: invece di dover programmare traduttori separati cinese-arabo e inglese-arabo, per esempio, è necessario solo correlare l’arabo alle rappresentazioni concettuali esistenti.

Ma è più facile da dire che da fare. La traduzione della lingua parlata richiede la conversione dalla parola al testo, fornendo un senso al testo stesso e usando poi la tecnologia di sintesi vocale per elaborare la traduzione.

«La costruzione di un sistema per la comprensione del testo è più complessa della produzione di una bomba atomica», dice Sergei Nirenburg, un informatico dell’Università del Maryland, a Baltimore County, che negli anni Ottanta del secolo scorso è stato all’avanguardia nei tentativi di traduzione meccanica. Inoltre, un sistema pratico deve adattarsi agli errori nel riconoscimento della voce, alle combinazioni atipiche di parole e alle nuove situazioni: tutto automaticamente. Per superare queste difficoltà, il gruppo di Gao a IBM ha messo insieme l’analisi semantica con gli algoritmi statistici che consentono ai computer di apprendere schemi di traduzione confrontando una serie di testi con le traduzioni fatte dall’ uomo.

All’interno di un progetto dell’agenzia DARPA (Defense Advanced Research Projects Agency) il gruppo di Gao ha prodotto un software per la traduzione Cinese-Inglese per un calcolatore laptop e più recentemente lo ha adattato per girare su un PDA. «Si può parlare di qualsiasi cosa. Il sistema è in grado di gestire numerosi tipi di conversazione quotidiana», afferma Gao. Il suo vocabolario non supera le poche migliaia di parole e ha funzionato con il 90 per cento di precisione in conversazioni di prova sull’assistenza medica e la logistica.

«Il sistema IBM è impressionante. Stanno mettendo a punto l’intero programma», dice Kristin Precoda, direttore dello Speech Technology and Research Laboratory a SRI International, a Menlo Park, in California.

Nell’ambito dello stesso progetto della DARPA il gruppo di Precoda ha creato un apparecchio per la traduzione più avanzato: un frasario parlante unidirezionale sviluppato in collaborazione con Marine Acoustics, con sede a Middletown, in Rhode Island, che è stato utilizzato dai soldati americani in Afghanistan, Iraq e in altri paesi per chiedere ai residenti informazioni di tutti i tipi, principalmente di carattere sanitario.

Anche se questi prototipi appaiono promettenti, renderli funzionali richiederà nuove sperimentazioni e programmazioni.

Alla fine del 2004, sostiene Gao, la tecnologia sarà «pronta» per essere dispiegata; IBM è già in trattativa con potenziali partner e clienti. Il traduttore universale infine potrebbe facilitare le riunioni commerciali, la ricerca di documenti e la sorveglianza, aprendo nello stesso tempo nuovi orizzonti al turismo e al commercio internazionali. «Entro dieci anni, chiunque potrebbe avere un apparecchio simile nel suo calcolatore tascabile o nel suo cellulare», conclude Gao.

A quel punto la comunicazione in una nuova lingua sarà facile come collegarsi a Internet.

Gregory T. Huang

2. Biologia sintetica

RON WEISS:

«La biologia sintetica consentirà in futuro una serie di applicazioni che oggi non siamo neanche in grado di immaginare».

Situato sulle dolci colline della tradizionale e prestigiosa Princeton University, il laboratorio di biologia di Ron Weiss è stracolmo dei soliti microscopi, pipette e capsule di Petri.

Meno tipica è la sua posizione: all’interno del quadrilatero d’ingegneria trova posto tra i laboratori di ingegneria meccanica e di elettrotecnica. Tuttavia è una collocazione appropriata per Weiss.

Ingegnere informatico per formazione, egli ha scoperto il richiamo della biologia all’università, quando aveva cominciato a programmare cellule invece che computer. In realtà, egli aveva iniziato a programmare le cellule come se fossero computer.

Weiss è uno dei pochi ricercatori impegnati nel pionieristico campo della biologia sintetica, sempre alla ricerca di gruppi di geni da organizzare in reti destinate a dirigere le cellule e indurle a svolgere qualsiasi compito i loro programmatori hanno ideato.

In combinazione con semplici batteri, queste reti potrebbero favorire la biorilevazione, consentendo a chi effettua ispezioni di localizzare le mine terrestri o le armi biologiche; con l’aggiunta di cellule umane, i ricercatori potrebbero dar vita a interi organi da trapiantare.

«Vogliamo creare una raccolta di componenti biologiche, blocchi di DNA facili da mettere insieme e da far funzionare come quelli del Lego», dice Tom Knight, bioinformatico del MIT e tutor di laurea che ha convinto Weiss della validità dell’idea.

I ricercatori che stanno cercando di controllare il comportamento delle cellule sono andati oltre la semplice verifica dell’idea, creando differenti «circuiti» genetici, soprattutto con gruppi di geni interagenti.

James J. Collins, un ingegnere biomedico della Boston University, ha inventato un «interruttore a levetta» che consente di attivare o disattivare a volontà alcune particolari funzioni cellulari.

Michael Elowitz, docente di biologia e fisica al Caltech, e Stanislas Leibler della Rockefeller University hanno creato un altro circuito che induce la cellula a passare da una fase brillante a una non brillante a seconda dei livelli di una particolare proteina, facendola agire come una specie di oscillatore organico e aprendo la porta all’uso di molecole biologiche per il calcolo.

Insieme all’ingegnere chimico del Caltech Frances Arnold, Weiss ha usato l’«evoluzione guidata» per mettere a punto i circuiti che egli crea, inserendo una rete di geni in una cellula, promuovendo selettivamente la crescita delle cellule che realizzano nel modo migliore un compito prefissato e ripetendo il processo fino a ottenere quello che esattamente vuole. «Ron sta utilizzando la forza dell’evoluzione per progettare reti in modo tale che facciano ciò che viene richiesto», spiega Collins.

Weiss ha anche ideato sofisticati sistemi cellulari senza l’evoluzione guidata. In un progetto, finanziato dalla DARPA statunitense, ha inserito un circuito genetico in batteri normalmente asociali che consente loro di comunicare uno con l’altro grazie al riconoscimento di indizi ambientali selezionati e all’emissione di un segnale in risposta.

Weiss sta lavorando su un altro gruppo di geni che egli definisce un «algoritmo», che permette ai batteri di determinare la distanza dello stimolo e variare di conseguenza le loro reazioni; in sostanza, un sensore vivente per quasi ogni cosa. Se, per esempio, si spargono su un campo minato batteri preparati a rispondere alla dinamite, in una zona particolarmente vicina a una mina, essi diventano verdi. Se sono un po’ più distanti, assumono una colorazione rossa, creando un occhio di bue che individua con esattezza la posizione della mina.

Il progetto più ambizioso che Weiss ha messo in piedi – anche se è quello più lontano dalla realizzazione – è programmare le cellule staminali adulte. In presenza dei corretti stimoli, queste cellule non specializzate, che si trovano in molti tessuti dell’organismo, si svilupperanno in tipi specifici di cellule mature.

L’idea, dice Weiss, è che spingendo alcune cellule a differenziarsi in osso, altre in muscolo, cartilagine e così via, i ricercatori potrebbero indirizzarle a curare, per esempio, un cuore danneggiato o a creare un ginocchio sintetico che funzioni meglio di qualsiasi sostituto artificiale. Ma, poiché le cellule dei mammiferi sono complesse, l’operazione è molto più pericolosa della programmazione dei batteri.

Finora, Weiss e i suoi colleghi si sono limitati a programmare le cellule staminali adulte di topo, facendole illuminare di colori diversi a seconda di quale molecola viene aggiunta alle loro capsule di Petri.

Anche se questi piccoli passi dimostrano quanta strada ci sia ancora da fare, essi rappresentano un progresso significativo nelle capacità di manipolazione della biologia.

«Grazie alla potenza e flessibilità che offre, la biologia sintetica porterà molti vantaggi ai settori di ricerca già esistenti», sostiene Weiss. «Ma ancora più importante, essa permetterà una serie di applicazioni future che al momento non possiamo neanche immaginare».

Con la crescita della sinergia tra ingegneri e biologi, crescono anche le possibilità di una medicina personalizzata, in quasi tutte le diverse aree di ricerca.

Lauren Gravitz

3. Nanofili

PEIDONG YANG:

«Lo sviluppo dei nanofili è essenziale per il successo di tutta la ricerca scientifica e tecnologica in nanoscala».

Poche tecnologie emergenti hanno destato tante speranze come la nanotecnologia, presentata come lo strumento per continuare la lunga corsa dell’elettronica verso l’infinitamente piccolo e per cambiare volto alle discipline, dalla produzione di energia alla diagnostica medica. Aziende diverse, da Samsung Electronics a Wilson Sporting Goods hanno investito nella nanotecnologia e quasi ogni università importante vanta un’iniziativa in questo settore.

L’ultima novità, in questo frenetico mondo della R&S, sono i ricercatori che stanno cercando di produrre fili in nanoscala, un elemento che potrebbe rivelarsi decisivo in molti nanoapparecchi già attivi.

«Questo tentativo è critico per il successo dell’intera (impresa della) scienza e tecnologia su nanoscala», sostiene il pioniere dei nanofili Peidong Yang dell’Università della California, a Berkeley. Yang ha realizzato progressi eccezionali nella messa a punto delle proprietà dei nanofili. Rispetto ad altre nanostrutture «i nanofili saranno molto più versatili, perché possono acquisire tante proprietà differenti variando solamente la composizione», dice Charles Lieber, un chimico della Harvard University che ha sostenuto fin dall’inizio lo sviluppo dei nanofili.

Come si capisce già dal loro nome, i nanofili sono lunghi, minuscoli e sottili, all’incirca un decimillesimo della grandezza di un capello umano. I ricercatori possono ora manipolare i diametri dei fili (da 5 a diverse centinaia di manometri) e la lunghezza (fino a centinaia di micrometri). I fili sono sempre stati costituiti di materiali come l’onnipresente silicio a semiconduttore, il diossido di stagno chimicamente sensibile e semiconduttori a emissione luminosa tipo il nitruro di gallio.

Questo controllo strutturale e sul tipo di composizione significa che «possiamo realmente fare quello che vogliamo», afferma Lieber, uno dei fondatori di Nanosys (di cui è consulente anche Yang), con sede a Palo Alto, in California, per sviluppare apparecchi basati sui nanofili. I fili possono essere adattati a laser, transistor, gruppi di memoria, forse anche a strutture sensibili agli agenti chimici simili per certi versi all’olfatto del segugio di sant’Uberto, spiega James Ellenbogen, responsabile del gruppo che si occupa di nanosistemi a Mitre, un’azienda di McLean, in Virginia, finanziata con i fondi federali. Molte di queste applicazioni richiedono di collocare i nanofili all’interno di strutture più grandi, una sfida tecnologica che, secondo Ellenbogen, vede Yang in posizione di avanguardia.

Per fare i fili Yang e i suoi colleghi usano una camera speciale dove fondono uno strato sottile d’oro o di un altro metallo, formando delle goccioline su scala nanometrica. Un vapore chimico, come il silano a base di silicio, viene emesso sopra le goccioline e le sue molecole si scompongono. In breve tempo queste molecole soprasaturano le nanogoccioline fuse e formano un nanocristallo. Più vapore si scompone sulle goccioline metalliche, più il cristallo cresce in altezza, come un albero. Ripetendo questa operazione simultaneamente su milioni di goccioline metalliche – magari disposte in schemi specifici – gli scienziati possono ricavare quantità enormi di nanofili. Yang ha già ottenuto foreste di nanofili di nitruro di gallio e di ossido di zinco che emettono radiazioni ultraviolette, una caratteristica che potrebbe rivelarsi utile per creare «laboratori su chip» che velocemente e a basso costo analizzano campioni medici, ambientali e di altro tipo.

Introducendo vapori diversi durante il processo di crescita, Yang è riuscito anche a variare la composizione dei fili, creando nanofili complessi «a strisce» con fasce alternate di silicio e germanio silicico a semiconduttore.

I fili sono cattivi conduttori del calore ma hanno ottime prestazioni con gli elettroni, una combinazione perfetta per gli apparecchi termoelettrici che convertono i gradienti di calore in corrente elettrica.

«Una prima applicazione potrebbe essere il raffreddamento dei chip per computer», prevede Yang. Questi apparecchi potrebbero anche diventare sorgenti energetiche ad alta efficienza per generare elettricità dal calore disperso dalle macchine o dal calore del sole.

I problemi sono sempre presenti, per esempio come riuscire a creare collegamenti elettrici tra i minuscoli fili e gli altri componenti di un qualsiasi sistema.

Tuttavia, Yang stima che ci sono al momento almeno 100 gruppi di ricerca in tutto il mondo impegnati a superare questi ostacoli.

Non mancano inoltre i primi sviluppi commerciali. Lo scorso anno Intel, che sta collaborando con Lieber, ha dichiarato che i nanofili fanno parte del suo programma di sviluppo dei chip nel lungo periodo.

Aziende più piccole come Nanosys e QuMat Technologies, una startup che ha dato in affitto un’area alla Lund University, in Svezia, sono convinte che i nanofili saranno componenti essenziali dei prodotti che esse sperano un giorno di vendere, dai sensori per la scoperta dei farmaci e la diagnosi medica agli schermi a pannello piatto, all’illuminazione ultraefficiente.

Quando questa schiera di apparecchi nanocablati arriverà sul mercato, il contributo di Yang e dei suoi colleghi risulterà determinante.

Ivan Amato

4. Apprendimento probabilistico

DAPHNE KOLLER:

«Le persone hanno una capacità limitata a mettere insieme diversi aspetti della realtà. I computer no».

Quando un informatico pubblica studi di genetica, viene da pensare che qualche collega potrebbe storcere la bocca. Ma la ricerca di Daphne Koller, che ha rispolverato un oscuro ramo della teoria delle probabilità conosciuto come statistica bayesiana, sta generando più interesse che scetticismo.

Il professore associato della Stanford University sta creando programmi che, mentre affrontano questioni come il funzionamento dei geni, stanno anche portando alla luce verità più profonde su dubbi di lunga data del campo informatico: gli schemi d’apprendimento, la scoperta di relazioni causali e la costruzione di previsioni basata su una conoscenza inevitabilmente incompleta del mondo reale. Questi metodi non si limitano a promettere importanti progressi in diversi settori, tra cui le traduzioni di lingue straniere, la produzione di microchip e la scoperta di farmaci, ma suscitano già ora l’interesse di Intel, Microsoft, Google e altre importanti aziende e università.

Come può un’idea concepita dal matematico e teologo inglese Thomas Bayes del XVIII secolo aiutare la moderna informatica? A differenza di approcci precedenti al ragionamento meccanico, in cui ogni connessione causale («la pioggia bagna l’erba») deve essere esplicitamente insegnata, i programmi basati sulle teorie probabilistiche come la matematica bayesiana possono prendere in considerazione un gran quantità di dati («sta piovendo», «l’erba è bagnata») e dedurre autonomamente le possibili relazioni o «le subordinate». Questo passaggio è cruciale perché molte decisioni che i programmatori vorrebbero automatizzare – per esempio, la personalizzazione delle proposte di un motore di ricerca in accordo alla richieste precedenti dell’utente – non possono essere programmate in anticipo; esse richiedono macchine in grado di considerare combinazioni inattese di eventi e fare le giuste ipotesi.

Come dice David Tennenhouse, il direttore della ricerca di Intel, «Queste tecniche stanno per avere un impatto su tutto ciò che facciamo con il computer, dalle interfacce utenti alla elaborazione dei dati sensoriali, all’estrazione di dati».

Koller ha sguinzagliato i suoi algoritmi bayesiani sul problema dell’ordinamento dei geni, una buona scelta perché il ritmo con cui ogni gene in una cellula si trasforma nella sua proteina corrispondente dipende dai segnali di una miriade di proteine codificate da altri geni.

Ora le tecnologie biomediche stanno fornendo così tanti dati che i ricercatori hanno, paradossalmente, problemi nello sbrogliare la matassa di tutte queste interazioni, rallentando in tal modo la ricerca di nuovi farmaci per combattere le malattie, dal cancro al diabete.

Il programma di Koller setaccia i dati relativi a migliaia di geni, analizzando la probabilità che cambiamenti nell’attività di alcuni geni possano essere spiegati con cambiamenti nell’attività di altri.

Il programma non solo ha rivelato indipendentemente interazioni note, identificate attraverso anni di ricerca, ma ha svelato anche le funzioni di diversi regolatori prima sconosciuti. «Le persone hanno una capacità limitata d’integrare numerosi eventi particolari», sostiene Koller. «I computer non hanno questo tipo di problemi».

Naturalmente Koller non è l’unica a condurre una simile battaglia contro l’incertezza. Ma, secondo David Heckerman, direttore del Machine Learning and Applied Statistics Group a Microsoft Research, ella ha saputo estendere in modo originale i modelli visivi usati dai programmatori bayesiani – particolarmente i grafici che mostrano gli oggetti, le loro proprietà e relazioni – al punto da poter rappresentare reti molto più complesse di rapporti. La previsione della risposta a un farmaco da parte di un paziente con AIDS, per esempio, dipende dalla conoscenza di come hanno risposto i pazienti precedenti, ma anche dal tipo di virus contratto, dalla sua resistenza al farmaco e da una moltitudine di altri fattori. I precedenti programmi bayesiani non riuscivano a gestire relazioni così complesse; Koller ha trovato la strada giusta per «rappresentare la struttura aggiunta, entrarci in relazione e apprendere come funziona», dice Heckerman.

I ricercatori stanno adattando questi metodi a una serie di applicazioni pratiche, tra cui: robot che possono localizzare mine abbandonate e pericolose e programmi in via di sviluppo a Intel per interpretare i dati relativi ai test di qualità delle fette di silicio. Inoltre numerosi collaboratori del laboratorio di Koller si sono uniti a Google e stanno utilizzando metodi bayesiani per scoprire e sfruttare modelli nella marea di dati interconnessi in Web.

Programmi che fanno uso di tecniche bayesiane hanno già invaso il mercato: Microsoft Outlook 2003, per esempio, include assistenti d’ufficio bayesiani. L’azienda inglese Agena ha creato software bayesiano che consiglia spettacoli televisivi agli abbonati delle TV via cavo e satellitari sulla base delle trasmissioni che vedono abitualmente; Agena spera di riuscire a diffondere la sua tecnologia in tutto il mondo. «Queste cose sembrano piuttosto lontane nel tempo», dice Eric Horvitz, ricercatore del MIT, che, insieme a Heckerman, è uno dei principali sostenitori dei metodi probabilistici. «Gli strumenti d’uso che stiamo creando adesso si potranno vedere solo nelle prossime ondate di software».

Wade Roush

5. Raggi-T

DON ARNONE:

«I raggi-T potrebbero colmare vuoti importanti tra i raggi-X, l’MRI e l’occhio nudo».

Con l’occhio umano che reagisce solo a una sottile striscia dello spettro elettromagnetico, le persone hanno a lungo cercato di vedere al di là dei limiti della luce visibile. I raggi-X illuminano le ombre spettrali dello scheletro, le radiazioni ultraviolette esaltano lo splendore delle sostanze chimiche e l’infrarosso vicino garantisce la visione notturna.

Ora i ricercatori sono impegnati ad aprire una nuova parte dello spettro: la radiazione terahertz o raggi-T. In grado di penetrare facilmente molti materiali comuni senza i rischi medici dei raggi-X, i raggi-T promettono di trasformare settori come la sicurezza aeroportuale e la formazione di immagini mediche, rivelando non solo la forma, ma anche la composizione degli oggetti nascosti, dagli esplosivi al cancro.

Alla fine degli anni Novanta, Don Arnone e il suo gruppo presso i laboratori di ricerca di Toshiba, a Cambridge, in Inghilterra, stavano esaminando i raggi-T come alternativa ai raggi-X dentali. L’idea era che i raggi-T, operando nella regione a infrarosso profondo proprio prima dell’estensione della lunghezza d’onda nelle microonde, sarebbero stati in grado di riconoscere la carie senza fare uso di pericolose radiazioni ionizzanti.

Nelle sperimentazioni i ricercatori lanciavano potenti, ma estremamente brevi impulsi di luce laser a un chip a semiconduttore, producendo radiazioni terahertz (così chiamate perché hanno una frequenza di miliardi di onde per secondo). Attraversando brevi distanze o differenti spessori di materiali cambia il tempo di tragitto dei raggi, quindi misurando quanto ci impiega ogni raggio-T a passare attraverso un dente estratto e a raggiungere il rivelatore, i ricercatori sono riusciti a mettere insieme un’immagine tridimensionale del dente.

Toshiba decise immediatamente che la tecnica, anche se promettente, non si adattava al suo tipo di commercio. Così nel 2001 l’azienda creò una nuova impresa, TeraView, diretta da Arnone. Lo scorso agosto, TeraView ha cominciato a vendere versioni per la valutazione di uno scanner a raggi-T, prevedendo di commercializzarlo a pieno ritmo entro un anno o due. La macchina sembra una fotocopiatrice e funziona allo stesso modo. Un oggetto passa davanti alla finestra per la formazione di immagini, il fascio dei raggi-T lo attraversa; un rivelatore misura i raggi trasmessi e uno schermo mostra l’immagine. Un braccio sonda separato esamina gli oggetti che non si adattano alla finestra.

Xi-Cheng Zhang, direttore del Center for Terahertz Research al Rensselaer Polytechnic Institute, chiarisce che la tecnologia è molto lontana dalla sua maturità. Comunque, egli spiega, «non ci possiamo permettere il lusso di non portare avanti la ricerca».

In effetti, diverse aziende stanno già mettendo alla prova lo scanner di TeraView. Le aziende che producono elettronica di consumo potrebbero usare i raggi-T per verificare la presenza di difetti di produzione negli apparecchi. Gli operatori dell’industria alimentare potrebbero esaminare l’acqua contenuta nelle confezioni sigillate per assicurarsi della loro freschezza.

In realtà qualsiasi contenitore sigillato può essere esplorato allo scopo di assicurarsi della qualità del prodotto. «In linea di principio ogni stabilimento nel mondo che usa una confezione in plastica o una scatola di cartone si potrebbe avvalere di questo sistema», afferma Daniel Mittleman, un ricercatore che si occupa di terahertz alla Rice University. Ma non si tratta che dell’inizio.

La sicurezza sembra un altro campo naturale d’applicazione. Poiché strutture chimiche differenti li assorbono in modo diverso, i raggi-T potrebbero essere impiegati per identificare materiali nascosti.

TeraView è in trattative con i governi inglesi e americani per produrre uno scanner da usare accanto ai metal detector. «Si potranno cercare lamette da barba nelle tasche delle giacche o esplosivi al plastico nelle camicie», dice Arnone. L’azienda sta allestendo una libreria delle impronte digitali spettrali di differenti materiali.

I sistemi a raggi-T potrebbero essere utili anche per riconoscere il cancro alla pelle o, dopo ulteriori sviluppi, il cancro al seno. Essi mostrerebbero la forma dei tumori e aiuterebbero i medici a recidere i tessuti malati con più accuratezza. «Poiché i tumori tendono a trattenere più acqua, nelle immagini a terahertz appaiono molto brillanti», continua Arnone. «I raggi-T potrebbero riempire un vuoto importante tra i raggi-X, l’MRI (tomografia a risonanza magnetica nucleare) e la capacità di osservazione del medico».

Altre aziende si stanno mettendo in moto. Il produttore giapponese di macchine fotografiche Nikon ha sviluppato un suo scanner a raggi-T.

La startup Picometrix, ad Ann Arbor, in Michigan, ha recentemente venduto alla NASA uno scanner per la ricerca di crepe nella schiuma isolante delle navette spaziali.

Coherent, un produttore di laser di Santa Clara, in California, è uno dei tanti gruppi che cerca di sviluppare sorgenti laser più compatte ed economiche per rendere i sistemi a raggi-T più semplici da costruire.

Nella parte di spettro tra il dominio dei telefoni cellulari e i laser, i raggi-T potrebbero fare luce sui misteri non risolti dalle tecnologie finora più avanzate.

Neil Savage

6. Memoria distribuita

HARI BALAKRISHNAN:

«Con la memoria distribuita si possono ora spostare e duplicare files sui computer in rete e il prodotto non subisce alcun danno».

Quando si tratta di organizzare documenti, fogli elettronici, musica, foto e video o di mantenere costantemente files di backup in caso di furto o blocco del sistema, prendersi cura dei dati è una delle seccature maggiori che l’utente del computer si trova a fronteggiare.

Non sarebbe meglio memorizzare i dati nei luoghi più nascosti di Internet e poterli richiamare premendo solo qualche tasto di un qualsiasi computer, dovunque esso sia?

La memoria distribuita, una tecnologia in via di espansione, può farlo, trasformando il meccanismo di archiviazione dei materiali per i singoli e le aziende: la soluzione consiste nella produzione di files digitali di facile accesso e più semplici da conservare, che evitano allo stesso tempo la minaccia di catastrofi che possono cancellare l’informazione, dai blackout al collasso del disco rigido.

Hari Balakrishnan è impegnato a realizzare questo sogno, liberando i dati importanti dalla dipendenza da specifici computer o sistemi. I servizi di condivisione della musica come KaZaA, che consentono di scaricare e scambiarsi i brani musicali da PC connessi a Internet, sono sistemi basati sostanzialmente sulla memoria distribuita. Ma Balakrishnan, un informatico del MIT, fa parte di un gruppo di programmatori che vuole estendere il meccanismo a tutti i tipi di dati. La bellezza di questo sistema, egli dice, è che dovrebbe garantire protezione e convenienza generalizzata senza essere complicato da usare. «Si possono spostare files tra le macchine», egli sostiene. «Si possono replicare, rimuovere e non cambia nulla».

Calcolando che l’impossibilità di accedere ai dati a volte costa alle aziende milioni di dollari in entrate per ogni ora di inattività, secondo Meta Group di Stamford, in Connecticut, un sistema di memoria distribuita potrebbe sensibilmente migliorare la produttività.

Il lavoro di Balakrishnan si incentra su «tabelle hash distribuite» (strutture dati che permettono di memorizzare arbitrari insiemi di oggetti, fornendo un accesso molto efficiente), una tecnica di indicizzazione che è l’aggiornamento di una tradizionale teoria informatica. A partire dagli anni Cinquanta del secolo scorso, le tabelle hash hanno fornito un modo rapido per organizzare i dati: una semplice operazione matematica assegna a ogni file la sua riga in una tabella; la fila registra la posizione del file. Queste tabelle ora sono onnipresenti, formando una parte essenziale della maggior parte del software.

Nel modello di memoria distribuita ideato da Balakrishnan e dai suoi colleghi, i files vengono disseminati su Internet, allo stesso modo delle tabelle di hash con le loro posizioni.

Ogni tabella fa riferimento ad altre tabelle, così mentre la prima tabella di hash esplorata potrebbe non contenere il file che si sta cercando, essa si indirizzerà ad altre tabelle che infine – stiamo comunque sempre parlando di millisecondi – riveleranno la posizione del file. L’abilità sta nell’escogitare sistemi efficienti per far circolare i dati attraverso la rete e mantenere le tabelle aggiornate.

Se tutti i meccanismi funzionano a dovere, le tabelle di hash distribuite potrebbero trasformare Internet in una serie di casellari di files organizzati automaticamente e facilmente rintracciabili.

Balakrishnan dice: «Vedo le tabelle di hash distribuite come il futuro imminente» della memoria in rete.

Il lavoro di Balakrishnan fa parte del progetto IRIS (Infrastructure for Resilient Internet Systems), una collaborazione tra ricercatori del MIT, Università della California, a Berkeley, International Computer Science Institute, a Berkeley, in California, New York University e Rice University.

Il progetto, finanziato dalla National Science Foundation, non ha direttori (Balakrishnan usa sempre le parole «noi» e «ci» quando parla del suo lavoro).

La sua ricerca include altri progetti di memoria distribuita, tra cui OceanStore, che cerca di verificare i concetti base delle reti di memoria distribuita (si veda PlanetLab, per globalizzare Internet, a pag. 48).

Un altro ricercatore del MIT, Frans Kaashoek, sta sviluppando un prototipo che automaticamente fa una copia dei dati prendendo a intervalli regolari «istantanee» del sistema dei files e distribuendole su Internet.

Ci vorranno almeno 5 anni prima che l’impatto di IRIS sia evidente.

Balakrishnan dice che il gruppo deve ancora capire come seguire il percorso di aggiornamento dei files lungo i diversi siti di memorizzazione e se le tabelle di hash distribuite siano da inserire nella struttura portante di Internet o incorporate nelle singole applicazioni, senza tralasciare le risposte alle fondamentali richieste di sicurezza.

Ma è l’impressione di potenza che offre questa tecnologia a suscitare l’entusiasmo degli scienziati informatici.

«Ciò che colpisce è la sconfinata varietà di applicazioni», afferma Sylvia Ratnasamy, una ricercatrice del laboratorio di Intel, a Berkeley, che sta esplorando i modi in cui la memoria distribuita potrebbe modificare il funzionamento di base di Internet. «Non molte tecnologie hanno un simile potenziale». Non è una questione all’ordine del giorno, ma la trasformazione di Internet in un casellario potrebbe essere un passo non lontano.

Michael Fitzgerald

7. Terapia con RNA interferente

THOMAS TUSCHL:

«L’RNAi ha funzionato fin dal primo esperimento che abbiamo fatto».

Dalle cardiopatie all’epatite, dal cancro all’AIDS, una serie di malattie sono provocate dai nostri geni vaganti o da quelli degli organismi invasori. Quindi se si riesce a trovare una semplice tecnica per disattivare geni specifici, queste malattie potrebbero, in teoria, essere arrestate o curate.

Il biochimico Thomas Tuschl potrebbe aver trovato chi svolge questo compito negli esseri umani: l’RNA interferente (RNAi).

Mentre lavorava al Max Planck Institute for Biophysical Chemistry, in Germania, Tuschl ha scoperto che minuscole molecole di RNA a doppia catena destinate a determinati geni, se introdotte nell’organismo umano, bloccano in modo specifico l’attività del gene.

Tuschl, ora alla Rockefeller University a New York City, ha presentato per la prima volta le sue ricerche a un convegno a Tokyo, nel maggio del 2001.

Il pubblico era dubbioso, memore delle numerose tecniche con l’RNA pubblicizzate con enfasi, ma poi rivelatesi assai poco efficaci. «La platea era scettica e molto critica», ricorda Tuschl.

Quello che non avevano capito era che l’RNAi è molto più potente e affidabile dei metodi precedenti.

«Ha funzionato dalla prima volta che lo abbiamo sperimentato», spiega Tuschl. In un solo anno i dubbi erano spariti e adesso la tecnica è stata accettata universalmente, al punto da coinvolgere nella ricerca le maggiori aziende farmaceutiche e università e da far inserire Tuschl nella breve lista dei premi Nobel.

Le implicazioni dell’RNAi sono impressionanti perché gli organismi viventi sono in buona parte definiti dalla attivazione e disattivazione, mirabilmente orchestrata, dei geni. Per esempio, una ferita al dito attiva i geni coagulanti e la formazione di grumi a sua volta li blocca.

«Diventa possibile quasi tutto», dice John Rossi, un genetista molecolare del City of Hope National Medical Center, a Duarte, in California, consulente di Benitec, una startup australiana che si occupa di RNAi. «Se si interrompe l’espressione genica, si può avere un grande impatto su tutte le malattie e i problemi legati alle infezioni».

Le aziende farmaceutiche stanno già usando l’RNAi per scoprire potenziali obiettivi dei farmaci, bloccando semplicemente l’attività dei geni umani, uno alla volta, per vedere cosa succede.

Se, per esempio, una cellula cancerogena muore quando un gene specifico viene disattivato, i ricercatori possono cercare di scoprire dei farmaci che hanno come obiettivo quel gene e le proteine che codifica.

Analizzare l’intero genoma umano a questo scopo «non è complicato», fa notare Tuschl.

Ora le aziende farmaceutiche, insieme alle startups biotecnologiche e ai ricercatori accademici, stanno cercando di utilizzare l’RNAi per curare direttamente le malattie.

In effetti Tuschl è stato uno dei fondatori di una di queste startups, Alnylam Pharmaceuticals, a Cambridge, in Massachusetts, che spera di creare farmaci con RNAi per la cura del cancro, dell’AIDS e di altre malattie.

Per esempio, bloccare un gene chiave del virus HIV potrebbe impedirgli di provocare l’AIDS; disattivare il gene mutato che causa la corea di Huntington potrebbe prevenire la progressione della malattia; mettere fuori uso i geni cancerogeni potrebbe limitare i tumori.

«Si sta dimostrando sempre più un approccio molto, molto potente», sostiene Rossi.

Il processo di interferenza funziona impedendo al gene di trasformarsi nella proteina che esso codifica (le proteine svolgono la maggior parte del lavoro biologico).

Normalmente un gene viene trascritto nell’«RNA messaggero», una molecola di passaggio che viene usata come stampo per assemblare una proteina. Quando si introduce una piccola molecola di RNA interferente, si lega al messaggero, che successivamente le forbici cellulari tagliano ed eliminano.

Il maggiore ostacolo al passaggio dell’RNAi dal laboratorio alla medicina è il meccanismo di distribuzione dell’RNA alle cellule del paziente, a cui è più difficile accedere rispetto a quelle singole utilizzate negli esperimenti di laboratorio. «Al momento si tratta del problema principale», afferma Rossi, che tuttavia prevede che le terapie basate sull’RNAi saranno sul mercato «entro tre o quattro anni».

Tuschl è più prudente.

Egli ritiene che le prime applicazioni della tecnica – per esempio, la distribuzione localizzata all’occhio per curare un’infezione virale – potrebbero arrivare in brevissimo tempo, ma che occorreranno almeno una decina d’anni, se non più, per lo sviluppo di un sistema in grado di distribuire efficacemente i farmaci a base di RNAi a organi più grandi dell’intero organismo.

Il laboratorio di Tuschl è uno dei molti impegnati a fare luce sul meccanismo molecolare responsabile della considerevole efficacia dell’RNA interferente, nella speranza di arrivare il prima possibile a sfruttare i vantaggi dei farmaci con RNA.

Se le minuscole molecole di RNA riusciranno a mantenere le promesse del loro travolgente inizio, la tradizionale biologia molecolare sarà rivoluzionata.

Ken Garber

8. Il controllo della rete elettrica

CHRISTIAN REHTANZ:

«Possiamo immettere più potenza nella rete e allo stesso tempo rendere il sistema più prevedibile e più affidabile».

Le reti di distribuzione elettrica portano dentro i semi della loro distruzione: considerevoli flussi di elettricità che possono sfuggire al controllo in pochi secondi, minacciando di mandare in tilt le varie linee di trasporto della corrente. Costruite prima dell’avvento dei microprocessori e delle fibre ottiche dotati di tempi di reazione istantanei, queste reti non sono state progettate per rivelare e risolvere problemi dell’intero sistema di distribuzione.

In effetti, ogni linea di trasmissione e ogni centrale elettrica devono essere completamente autonome, interrompendo l’erogazione di energia quando ci sono picchi di sovratensione o abbassamenti. I difetti di questo sistema sono fin troppo familiari ai 50 milioni di Nordamericani, dal Michigan all’Ontario, che hanno subito un blackout lo scorso agosto: quando un singolo componente accusa dei problemi e si blocca, i rimanenti flussi di energia diventano ancora più disturbati e le linee e gli impianti nelle vicinanze crollano come tessere da domino multimiliardarie.

Christian Rehtanz ritiene che sia arrivato il momento per le moderne tecnologie di controllo di ridisegnare la rete. Rehtanz, vicepresidente del gruppo di tecnologia dei sistemi energetici del gigante ingegneristico ABB, con sede a Zurigo, in Svizzera, è uno dei numerosi ricercatori che cercano di inserire nuove forme di intelligenza nelle sale di controllo della rete di distribuzione.

Questi ingegneri stanno sviluppando hardware e software per seguire secondo per secondo le tracce dei flussi elettrici lungo le reti grandi come un continente, di identificare i problemi e provvedere all’istante.

Mentre questi sistemi di controllo su «vaste aree» rimangono in buona parte sul piano teorico, Rehtanz e i suoi colleghi di ABB ne hanno progettato uno che è già pronto per essere installato. Se tutto funzionerà come hanno previsto, il loro modello renderà le interruzioni di energia 100 volte meno probabili, proteggendo le reti da ogni rischio: dalle ondate di calore che incrementano i consumi al terrorismo.

I sistemi di controllo in tempo reale costituiscono uno sviluppo naturale di un sistema di rilevamento introdotto negli anni 1990 dalla Bonneville Power Administration controllata dal governo americano, che gestisce le reti di distribuzione del Pacifico Nordoccidentale.

In questo sistema, le misure dei sensori, distribuiti lungo tragitti da centinaia a migliaia di km, sono codificate con il suggello temporale del GPS, consentendo a un computer centrale di sincronizzare i dati e fornire un’istantanea accurata della intera rete 30 volte al secondo, una modalità sufficientemente rapida per notare i picchi di sovratensione o gli abbassamenti e le oscillazioni che mostrano i primi segni d’instabilità.

Una prima versione del sistema di Bonneville ha contribuito a spiegare le dinamiche del blackout del 1996 che ha paralizzato 11 stati dell’America occidentale, Alberta, British Columbia e Baja California; le società elettriche di quelle regioni si sono quindi riorganizzate e hanno finora evitato che si ripetesse il blackout. «Conosco persone dall’altra parte della costa che vorrebbero averne uno il prima possibile», dice Carson Taylor, progettista capo di Bonneville per la trasmissione e ideatore del sistema su larga area.

Ma Rehtanz è pronto a intraprendere il passo successivo, trasformando questi strumenti investigativi in controlli in tempo reale che rivelano e impediscono i blackout incombenti.

La sfida più impegnativa: progettare un sistema in grado di rispondere in modo sufficientemente rapido. «Si ha a disposizione mezzo minuto, un minuto, al massimo due per entrare in azione», spiega Rehtanz. Ciò richiede calcoli accuratissimi in grado di elaborare i dati sincronizzati dei sensori, generare un modello del sistema per rilevare il disastro imminente e selezionare una risposta appropriata, come attivare un impianto elettrico supplementare.

Gli algoritmi di controllo ideati da Rehtanz e dai suoi colleghi utilizzano un modello altamente semplificato del funzionamento di una rete, abbastanza sofisticato comunque da potere, a loro parere, identificare all’istante seri problemi in arrivo, con il vantaggio inoltre di utilizzare un semplice computer da tavolo.

Gli ingegneri di ABB stanno ora studiando come questi algoritmi possono proteggere il critico corridoio elettrico che unisce la Svizzera e l’Italia, che è saltato a settembre dello scorso anno lasciando la maggior parte dell’Italia al buio.

Molte società elettriche stanno già inserendo nei sistemi elementi per il controllo della rete in tempo reale, per esempio installando regolatori digitali di rete che possono letteralmente spingere la corrente da una linea all’altra o eliminare picchi o abbassamenti di tensione locali.

Collegati in uno schema di controllo su larga area, questi regolatori di rete dovrebbero fornire prestazioni superiori. Tuttavia potrebbero passare anni prima che una società elettrica si decida a saltare il fosso e si affidi completamente agli algoritmi di Rehtanz.

Non si tratta solo del fatto che queste aziende sono restie a rischiare con tecnologie non sperimentate; i soldi per aggiornare le linee di trasmissione sono pochi nei mercati liberalizzati, in cui non è chiaro quale protagonista del mercato – i produttori di energia, i gestori della trasmissione o gli organismi di regolazione governativi – debba pagare per l’affidabilità del sistema.

Peter Fairley

9. Fibre ottiche microfluidiche

JOHN ROGERS:

«Se si può evitare di manipolare la luce si ottengono risparmi significativi, maggiore affidabilità e un incremento delle capacità.

L’accesso ultrarapido a Internet del futuro – si potranno scaricare film in pochi secondi – potrebbe dipendere solamente da piccoli cambiamenti nella rete.

Minuscole goccioline di fluido nei canali a fibra ottica promettono di migliorare il flusso dei fotoni che trasportano i dati, rendendo più rapida la trasmissione e garantendo maggiore affidabilità.

Realizzare questa idea radicale è l’obiettivo del fisico John Rogers, dell’Università dell’Illinois, i cui congegni prototipali, chiamati fibre ottiche microfluidiche, potrebbero essere la chiave di volta per la distribuzione superveloce di ogni cosa, dalla posta elettronica ai programmi di computer su base Web, una volta che la «larghezza di banda» ridiventa il mantra.

Oltre due anni fa, come ricercatore dei Bell Labs di Lucent Technologies, Rogers ha cominciato esplorando le fibre fluidizzate.

A differenza delle fibre ottiche attuali che trasmettono dati e voce e che consistono in una tubazione in vetro flessibile, ma solida, Rogers impiega fibre attraversate da microscopici canali, che variano da 1 a 300 micrometri in diametro, a seconda del loro uso.

Anche se Rogers non ha inventato le fibre, egli e il suo team hanno mostrato che pompando al loro interno modeste quantità di fluidi diversi – e controllando l’espansione, la contrazione e il movimento di questi «interruttori» liquidi – si induce un cambiamento nelle proprietà ottiche delle fibre. Strutture come minuscole bobine termiche stampate direttamente sulla fibra controllano con precisione la grandezza, la forma e la posizione degli interruttori.

Modificando le proprietà degli interruttori si consente loro di svolgere funzioni critiche, come la correzione delle distorsioni che causano errori e la direzione più efficace del flusso dei dati, favorendo l’uso della larghezza di banda con costi assai inferiori a quelli attuali.

Oggi questi lavori di messa a punto sono in parte effettuati da congegni che convertono i segnali luminosi in elettroni e poi nuovamente in fotoni.

Il «trasferimento di luce» causa invariabilmente distorsioni e perdite.

L’idea di Rogers è di fare questi lavori in modo più diretto, rimpiazzando i congegni attuali con sezioni di fibre ottiche fluidizzate, collocate strategicamente nelle reti esistenti.

La creazione di sezioni di fibre regolatrici aiuterebbe probabilmente a eliminare alcuni elementi di «rimozione della luce», afferma Rogers. «Ogni volta che si possono evitare operazioni di trasferimento della luce, si realizzano grandi risparmi di costo, vantaggi di affidabilità e incremento delle capacità.

Altri approcci per produrre fibre che regolano attivamente la luce – invece di limitarsi ad agire come canali passivi – sono in via di sviluppo.

Ma con il settore delle telecomunicazioni ancora in difficoltà, con migliaia di km di cavi sotterranei di fibre ottiche non utilizzate, nessuno prevede una rapida adozione di nuove tecnologie ottiche di comunicazione.

«Questo tipo di cose sono necessarie per le nuove reti ottiche di prossima generazione», fa notare Dan Nolan, un fisico di Corning, un importante produttore di fibre ottiche. «Adesso non c’è bisogno di loro, perché la prossima generazione è stata posticipata».

Pochi, tuttavia, hanno dubbi che torneranno a farsi forti le pressioni per una rete Internet molto più veloce.

In quel momento, continua Nolan, congegni come quello di Rogers potrebbero rientrare in gioco. «La considero una ricerca molto importante», spiega Nolan.

Anche se i tempi di commercializzazione permangono incerti, le fibre sono già andate oltre le prove di laboratorio; apparecchi prototipali sono stati sperimentati a Lucent e alla sua sussidiaria OFS, un’azienda produttrice di fibre ottiche, con sede a Norcross, in Georgia.

In ogni caso l’idea di un sistema di equipaggiamento per guida d’onda per le reti ottiche non convince alcuni ricercatori.

«In definitiva il successo dipende da come si riesce a introdurre la soluzione senza rovinare le estremità delle fibre», dice Axel Scherer, un fisico del Caltech.

Il fisico del MIT John Joannopoulos avanza riserve del tutto simili.

Ma se il sistema fluidico funziona, continua Joannopoulos, «garantisce un controllo aggiuntivo. Una volta che lo si ha, si possono fare congegni al di fuori di queste fibre, non usandole solo per trasportare qualcosa».

Il connubio tra ottica e piccoli flussi di fluidi sembra promettente anche per altre applicazioni.

Rogers sta analizzando una possibilità: uno strumento che utilizza la luce per rivelare sostanze come le proteine nel sangue che indicano una malattia; un sistema utile per la diagnosi medica o la scoperta di farmaci.

Anche se non ci consentirà di scaricare materiale in rete più rapidamente, l’equipaggiamento per guida d’onda di Rogers potrebbe migliorare la qualità dei controlli medici.

David Talbot

10. Genomica personalizzata

DAVID COX:

«Mi piacerebbe sapere se la genetica avrà applicazioni pratiche mentre sono ancora in vita».

Tre miliardi. Questo è il numero approssimativo di «lettere» di DNA in ogni genoma personale. Lo Human Genome Project ha messo insieme le sequenze complete, lettera per lettera, di un modello umano: una manna per la ricerca.

Ma l’esame dello specifico materiale genetico di ogni paziente in uno studio medico cercando di ordinare tutte queste lettere non è eseguibile.

Quindi per realizzare il sogno di una medicina personalizzata – un futuro in cui un semplice esame del sangue determinerà il tipo migliore di terapia sulla base dei geni del paziente – molti scienziati stanno prendendo una scorciatoia: dedicarsi soltanto alle differenze tra i genomi delle persone.

David Cox, dirigente scientifico di Perlegen Sciences, a Mountain View, in California, sta trasformando questa strategia in uno strumento pratico che consentirà ai medici e ai ricercatori di farmaci di stabilire rapidamente se il corredo genetico di un paziente risulta particolarmente vulnerabile a una malattia o lo renda un candidato adatto a un determinato farmaco.

Con il tempo questi esami potrebbero rivoluzionare la cura del cancro, del morbo di Alzheimer, dell’asma e di quasi ogni malattia immaginabile.

Cox, collaborando con alcune delle più importanti aziende farmaceutiche a livello mondiale, è partito con il piede giusto per realizzare il suo obiettivo.

I test genetici permettono già di dire chi possiede geni di alcune malattie rare come la corea di Huntington e chi subirà i dannosi effetti collaterali di qualche particolare farmaco; ma ognuno di questi test esamina solo uno o due geni. In realtà molte malattie comuni e reazioni ai farmaci coinvolgono numerosi geni sparsi, pertanto i ricercatori vogliono trovare il modo di analizzare l’intero genoma individuale.

Poiché gran parte delle differenze genetiche tra le persone sono attribuibili a variazioni di un’unica lettera definite polimorfismi del singolo nucleotide (SNP, single-nucleotide polymorphisms), Cox ritiene che identificando schemi su tutto il genoma di queste varianti che corrispondono a specifiche diagnosi o risposte ai farmaci sia il modo più rapido ed economico per sfruttare al meglio le informazioni genetiche del paziente.

« Vorrei sapere se la genetica riuscirà ad ottenere risultati pratici mentre sono ancora in vita», afferma Cox.

Per rispondere a questa domanda, nel 2000 Cox ha lasciato il suo posto di condirettore del Genome Center della Stanford University per fondare insieme ad altri Perlegen, che non ha perso tempo per realizzare il suo obiettivo: far approdare l’analisi SNP alla fase clinica.

L’azienda ha sviluppato speciali fette di DNA – piccoli pezzi di vetro ai quali sono attaccate miliardi di catene molto brevi di DNA – che si possono usare per tracciare il profilo di milioni di varianti di singole lettere nel genoma di un paziente.

I ricercatori di Perlegen hanno dapprima creato una mappa dettagliata di 1 milione e settecentomila SNP più comuni.

Sulla base di questa mappa, hanno poi progettato un wafer che può rivelare quale versione di queste varianti possiede un determinato paziente.

Ora, in collaborazione con le maggiori industrie farmaceutiche, l’azienda sta confrontando gli schemi genetici trovati in centinaia di persone sofferenti, per esempio, di diabete con altre che non ne soffrono.

Insieme a Pfizer, Perlegen sta prendendo in considerazione i contributi genetici alle cardiopatie; per Eli Lilly, Bristol-Myers Squibb e GlaxoSmithKline, i ricercatori di Perlegen sono impegnati a scoprire gli schemi SNP che si correlano a reazioni particolarmente avverse o favorevoli a differenti farmaci.

Il prossimo passo sarà usare questa informazione per definire un semplice test per distinguere gli schemi significativi di SNP.

Con un simile test i medici potrebbero sottoporre a esame i pazienti per identificare i farmaci che li espongono a meno pericoli.

Alcuni biologi sostengono che una descrizione realmente accurata della genetica individuale richiede la decodifica dell’intero genoma, fino all’ultima lettera di DNA; ma al momento si tratta di un’operazione impegnativa che rimane troppo costosa.

Cox controbatte che l’analisi SNP è il modo più rapido per unire concretamente genetica e medicina, e molti genetisti condividono la sua idea di analizzare gli SNP negli studi medici.

«Credo che diventerà un esame di routine in futuro», dice George Weinstock, condirettore del Human Genome Sequencing Center al Baylor College of Medicine, a Houston, in Texas. «Perlegen», conclude Weinstock, «è una dei leader in questo campo».

Entro qualche anno gli esami genetici per prevedere la risposta del paziente al farmaco potrebbero diventare una pratica ordinaria. Perché ciò accada, saranno necessari strumenti come quelli che Cox e i suoi collaboratori di Perlegen hanno cominciato a usare.

Related Posts
Total
0
Share