Le 10 tecnologie emergenti del 2011

di MIT Technology Review

Anno dopo anno, “Technology Review” guarda al progresso tecnologico, selezionando 10 tecnologie emergenti, che ritiene avranno il maggiore impatto sociale ed economico. Il criterio di valutazione è semplice e immediato: è possibile che la tecnologia considerata cambi il mondo? Le tecnologie selezionate quest’anno includono batterie a elevata carica elettrica, che potrebbero ridurre il costo delle vetture ibride, e una nuova specie di trasformatori che potrebbero stabilizzare la rete elettrica. Alcune di queste tecnologie cambieranno il nostro rapporto con la tecnologia: accederemo a un numero sempre maggiore di applicazioni dai nostri terminali portatili o basteranno semplici gesti per controllare i computer incorporati in televisori e automobili. Altre soluzioni innovative potrebbero riguardare il controllo e la tutela della salute. I medici, per esempio, saranno in grado di prescrivere trattamenti mirati per il cancro, analizzando le caratteristiche genetiche individuali dei tumori. A prescindere dalla categoria, ognuna di queste dieci tecnologie promette di migliorare davvero la nostra vita.

Indicizzazione sociale

Facebook mappa la Rete per personalizzare i servizi on line.

Tom Simonite

Bret Taylor, ideatore della icona “Mi Piace” di Facebook.

Fonte: Winni WintermeyerBret Taylor vuole che i siti web diventino più consapevoli dei gusti degli utenti, per esempio tenendo in considerazione le tendenze dei vostri amici quando siete alla ricerca di un ristorante o, nel caso dei siti giornalistici, facendo riferimento alle notizie che vi hanno interessato in precedenza. «In sostanza, la Rete sarebbe di gran lunga migliore se fosse meglio orientata sulle persone», afferma Taylor, direttore della struttura tecnologica di Facebook. Al fine di realizzare questa idea, sta creando una sorta di indice sociale delle porzioni di rete più visitate.

Molti siti hanno tentato di personalizzare le proprie offerte memorizzando i comportamenti ricorrenti dei visitatori e fornendo loro informazioni che presumibilmente li avrebbero interessati. L’indice sociale sarebbe però assai più potente in quanto esplorerebbe anche gli interessi degli amici e raccoglierebbe informazioni da più fonti. Conseguentemente, l’indice orienterebbe i siti su ciò che potrebbe interessante anche a chi li visita per la prima volta.

Questo ambizioso progetto trae gran parte delle proprie informazioni dalla semplice icona “Mi Piace”, a forma di pollice all’insù, che appare sulle pagine Web e invita gli utenti a segnalare il proprio apprezzamento nei confronti di qualcosa – un articolo, un prodotto, una immagine – con un semplice click. Taylor ha ideato il concetto nel 2007 presso FriendFeed, un social network di cui fu co-fondatore e responsabile, acquisito da Facebook nel 2009. Allora, l’icona era un semplice sistema per incoraggiare le persone a esprimere i propri interessi, ma, estesa ai quasi 600 milioni di utenti di Facebook, sta divenendo un potente strumento di raccolta dati. Il codice dietro il commando “Mi Piace” è a disposizione di qualunque sito che desideri aggiungerlo alle proprie pagine. Se un utente è connesso a Facebook e attiva l’icona ovunque nella rete, il link viene condiviso con i suoi amici e, allo stesso tempo, viene rilevato dall’indice Web di Taylor.

è cosi che il “Wall Street Journal” evidenzia nel proprio sito gli articoli che sono piaciuti agli amici di un utente. è cosi che il motore di ricerca Bing di Microsoft promuove le pagine piaciute agli amici di un utente. Ed è cosi che Pandora realizza delle playlist basate su canzoni o gruppi musicali che sono piaciuti a un utente su altri siti.

Questo sistema di identificazione dei legami tra molteplici contenuti è assai differente da quello che ha dominato la scena per un decennio. Google indicizza matematicamente la rete scansionando gli hyperlink tra le pagine. Le pagine con il maggior numero di link da altri siti vengono posizionate in cima alla lista di ricerca nella presunzione che tali pagine siano maggiormente utili o interessanti. L’indice sociale non sostituirà interamente Google, ma per diversi tipi di attività – quali la ricerca di prodotti, intrattenimenti o documenti da leggere – il carattere personalizzato di questo nuovo sistema potrebbe renderlo più utile.

La stessa Google ne è consapevole: recentemente ha applicato una imitazione della icona “Mi Piace”, denominata “+1.” Permette agli utenti di segnalare ai propri amici quali risultati o pagine Web hanno trovato utili. Google sta inoltre utilizzando Twitter per ampliare il proprio indice. Qualora foste connessi ai vostri account Twitter e Google, i link condivisi dai vostri amici potranno comparire in cima ai risultati di Google.

Un altro vantaggio dell’indice sociale sta nella sua minore vulnerabilità a manipolazioni: un incremento nelle classifiche attraverso la creazione di link addizionali a un sito fa parte di un grande mercato, ma l’acquisizione di un numero di apprezzamenti su Facebook, tale da fare la differenza, è praticamente impossibile, spiega Chris Dixon, co-fondatore di Hunch, una startup Web che abbina la propria tecnologia di evidenziazione a strumenti derivati da Facebook e Twitter. «L’attività sociale fornisce un segnale autentico di ciò che è conosciuto e piace», spiega Dixon. è per questo che Hunch e altri servizi, tra i quali anche il sito di evidenziazione delle forme di intrattenimento GetGlue, stanno realizzando i propri indici sociali, chiedendo agli utenti di registrare i loro commenti positivi ovunque nella Rete. Cosi, esaminando un prodotto su Amazon, potrebbe apparire una finestra di GetGlue per indicarci quali dei nostri amici hanno manifestato un interesse per quello stesso prodotto.

Trasformatori intelligenti

Come controllare il flusso di elettricità per stabilizzare la rete distributiva.

David H. Freedman

In un laboratorio allestito per simulare un quartiere residenziale, Alex Huang sta cercando di ammodernare le vecchie reti elettriche affinché assomiglino a Internet: una rete capace di distribuire l’energia non solo dalle principali centrali elettriche ai consumatori, ma da qualunque fonte a qualunque destinazione, attraverso il percorso più logico. Per questo, Huang, un docente di ingegneria elettrotecnica presso la North Carolina State University, sta reinventando i trasformatori che attualmente riducono il voltaggio dell’elettricità distribuita nei quartieri affinché sia compatibile con l’uso in abitazioni e uffici.

Il suo nuovo trasformatore faciliterà la gestione di fattori per i quali le attuali reti elettriche non erano mai state programmate, quali la ricarica di un grande numero di vetture e il prelievo di elettricità dai pannelli solari delle abitazioni. I contatori intelligenti presenti nelle abitazioni e negli uffici possono contribuire fornendo informazioni dettagliate sul flusso di corrente, ma è necessario controllare questo flusso con precisione. Non solo il controllo stabilizzerebbe la rete, ma migliorerebbe l’equilibrio tra domanda e offerta, riducendo i picchi e, conseguentemente, il numero di centrali elettriche necessarie a mantenere costante la fornitura di elettricità.

«Serve un dispositivo radicalmente nuovo che stia a mezzo tra le abitazioni e la rete elettrica e permetta alla rete di rimanere stabile a prescindere da quanto avviene all’interno delle abitazioni», spiega Huang.

I trasformatori convenzionali gestiscono esclusivamente la corrente alternata e necessitano di correzioni manuali o ingombranti interruttori elettromeccanici per reindirizzare l’energia. Huang sta invece cercando di realizzare un trasformatore compatto che sia capace di gestire sia la corrente alternata sia quella continua e che possa essere controllato elettronicamente cosi da rispondere quasi istantaneamente alle eventuali fluttuazioni tra domanda e offerta. Se, per esempio, un vicino dovesse connettere la propria vettura elettrica a una presa a corrente alternata, il trasformatore potrebbe reagire prelevando energia proveniente dai pannelli solari di un altro vicino.

Per realizzare un simile trasformatore, Huang ha cominciato a sviluppare tran-sistor e altri elementi basati su semiconduttori, fondando il Future Renewable Electric Energy Delivery and Management Systems Center in Nord Carolina nel 2008. Il suo primo trasformatore si basava sul silicio, un materiale troppo inaffidabile per applicazioni su larga scala e ad alto voltaggio. Huang sta quindi lavorando a prototipi di trasformatore con semiconduttori a base di composti in silicio e carbonio o gallio e azoto, che risultano assai più affidabili nelle applicazioni ad alto voltaggio. Huang prevede di riuscire a ultimare una versione di prova del trasformatore a base di silicio e carbonio entro i prossimi due anni e a realizzare un modello pronto al collaudo da parte delle aziende elettriche entro i prossimi cinque anni.

I trasformatori di Huang potrebbero rendere la connessione di pannelli solari e vetture elettriche alla rete facile quanto connettere una fotocamera digitale o una stampante a un computer. Ciò ridurrebbe la dipendenza dai combustibili fossili, consentendo a piccole fonti di energia rinnovabile di contribuire al sostentamento della rete.

Altre aziende al lavoro sui trasformatori intelligenti:

Amantys, Cambridge, Regno Unito

Cree, Durham, Nord Carolina

Electric Power Research Institute, Palo Alto, California

Il trasformatore intelligente sarà in grado di gestire sia corrente alternata sia corrente continua e, grazie a semiconduttori capaci di sopportare voltaggi elevati, potrà venire programmato per reindirizzare il flusso di elettricità in risposta alla fluttuazione tra domanda e offerta. Fonte: Bryan Regan

Interfacce gestuali

La gestione dei conputer con il corpo.

Julian Dibbell

Un computer che rilevi comandi complessi senza venire toccato costituisce un problema cruciale ora che i televisori sono connessi ai social network e le automobili sono munite di sistemi computerizzati di comunicazione, navigazione e intrattenimento. Per questi motivi, Alexander Shpunt ha sviluppato un sistema di percezione 3-D che permette a chiunque di controllare un computer mediante semplici gesti.

Shpunt ha trascorso cinque anni a sviluppare il sistema presso la PrimeSense di Tel Aviv e Microsoft ha adottato la tecnologia nel proprio controller Kinect per la console Xbox 360. I giocatori possono utilizzarlo per controllare le proprie rappresentazioni nello schermo senza bisogno di puntatori o guanti come quelli utilizzati dalle precedenti interfacce gestuali per rilevare i movimenti dell’utente. Per liberarsi da simili vincoli bisognava che il computer potesse vedere il mondo in tre dimensioni, anziché nelle due dimensioni rilevate dalle normali videocamere. La percezione della profondità, infatti, facilita sensibilmente la distinzione e la rilevazione di un braccio rispetto a un tavolo sullo sfondo.

Shpunt ricorda come, nelle fasi iniziali di sviluppo del sistema, vi fossero diversi sistemi per percepire la profondità – principalmente il cosiddetto “tempo di passaggio” (la determinazione della distanza da un sensore tramite la misurazione del tempo impiegato dalla luce o dal suono per rimbalzare su un oggetto) e la “luce strutturata” (la proiezione di una trama luminosa sugli oggetti e la conseguente analisi della sua distorsione lungo la loro superficie).

Nonostante la considerevole attività di ricerca e i prototipi realizzati da altre aziende, non vi era “niente di realmente maturo” che fosse pronto alla produzione, spiega Shpunt. Cosi, dall’abbinamento di elementi derivati dalle due tecniche predette con la stereoscopia, ovvero la comparazione tra immagini della medesima scena da due punti di vista differenti, è nato il sistema di Shpunt.

Il Kinect non è che l’inizio di quanto Shpunt ritiene diventerà una rivoluzione nelle interfacce gestuali. Un piccolo esercito di hackers, sollecitato dalla stessa PrimeSense, sta rimaneggiando il controller per usi differenti. Alcuni ricercatori presso la Louisiana State University hanno realizzato un sistema di realtà virtuale privo di caschi o guanti, semplicemente abbinando una unità Kinect a un televisore 3-D già in commercio. In Australia, un’azienda di logistica software ha realizzato un sistema di controllo gestuale per il monitoraggio del traffico aereo.

Secondo Shpunt, è facile immaginare altre applicazioni; da un sistema di controllo capace di determinare la concentrazione dei conducenti automobilistici a display interattivi per centri commerciali e aeroporti.

Per ora, Shpunt sta collaborando con la società di computer Asus per realizzare un sistema di controllo gestuale dei sempre più complessi televisori connessi alla Rete, al fine di trasformarli in una sorta di gigantesco iPad che possa essere comodamente controllato dalla poltrona, senza alcun telecomando.

Altre aziende al lavoro sulle interfacce gestuali:

Jonny Cheung Lee, Google, MountainView, California

Alex Kipman, Microsoft, Redmond, Washington Oblong, Los Angeles/td>

Il sensore della PrimeSense determina la profondità abbinando fra loro diverse tecniche, tra le quali la luce strutturata, in cui una trama a infrarossi (le line rosse nella figura) viene proiettata sugli oggetti. La maniera in cui la trama viene distorta garantisce informazioni relative alle distanze. L’esempio illustrato rappresenta un display interattivo (il riquadro grigio) per aeroporti, al di sotto del quale si trova il sensore di profondità (il riquadro azzurro). Fonte: Bryant Christie Design

La genomica del cancro

Come decifrare la genetica di una malattia.

Emily Singer

Nell’autunno del 2006, il Genome Institute presso la Washington University di St. Louis ha acquisito un nuovo macchinario, capace di leggere il DNA a una velocità un migliaio di volte superiore al sistema precedente e a un costo assai inferiore. Cosi, Elaine Mardis, co-direttrice del Centro, ha iniziato ad analizzare tessuti cancerosi, alla ricerca di mutazioni nel DNA. Dopo appena cinque anni, il team di ricerca ha sequenziato tessuti sia malati sia sani di diverse centinaia di pazienti e identificato decine di migliaia di mutazioni. Alcune delle scoperte hanno portato allo sviluppo di nuovi approcci nel trattamento del cancro, mentre altre hanno aperto interi nuovi percorsi di ricerca.

Il cancro si sviluppa quando le cellule accumulano errori genetici che permettono loro di crescere e dividersi più rapidamente rispetto alle cellule sane. L’identificazione delle mutazioni alla base di queste trasformazioni può aiutare a prevedere la prognosi di un paziente e identificare i farmaci più idonei. Queste informazioni potrebbero inoltre mettere a fuoco nuovi bersagli per i farmaci. «In un singolo paziente, si ha sia il genoma del tumore, sia il genoma normale», spiega la Mardis, «e un confronto tra questi due genomi può fornire rapide risposte».

Nel 2008, il team della Mardis ha pubblicato per primo la sequenza di un genoma affetto da cancro, derivata dal confronto nel DNA di cellule sane e malate in un paziente con una forma di cancro al midollo osseo denominata AML. Ulteriori studi hanno suggerito che i pazienti portatori di mutazioni in un particolare gene potrebbero beneficiare maggiormente di un trapianto di midollo osseo che della tradizionale chemioterapia, un trattamento meno rischioso cui i medici sono soliti ricorrere per primo. Secondo la Mardis, presto tutti i pazienti affetti da AML potranno essere trattati in maniera più efficace e mirata.

Secondo una stima della Mardis, grazie al costante calo nei costi e alla crescente velocità alla quale è possibile sequenziare il DNA, è oggi possibile sequenziare i genomi nei tessuti malati e in quelli sani di un paziente al prezzo di 30.000 dollari, rispetto agli 1,6 milioni di dollari richiesti per il sequenziamento del primo genoma di AML, per cui la tecnologia sta trovando un crescente numero di applicazioni oncologiche. Diversi gruppi di ricerca stanno ora sequenziando i genomi di diverse forme di cancro e, in alcuni casi, hanno portato a identificare il trattamento ideale per i pazienti (si veda Il Genoma dei tumori, in “Technology Review”, edizione italiana, n.2/2011). Un paio di aziende sta ora offrendo ai ricercatori le analisi effettuate su questi genomi e almeno una sta pianificando l’offerta del servizio a medici e pazienti.

La riduzione nel costo del sequenziamento significa, inoltre, che la Mardis può sfruttare la tecnologia per lo sviluppo e la sperimentazione di farmaci. Il suo ultimo progetto fa parte di una terapia sperimentale per il cancro al seno. A lei è dovuto il profilo genetico preliminare delle forme di cancro più inclini a rispondere a una diffusa serie di farmaci cosiddetti inibitori dell’aromatasi, generalmente prescritti ai pazienti che presentano cellule tumorali con recettori estrogeni sulla superficie. Lo scopo è quello di identificare i pazienti che trarranno beneficio da questi farmaci, e quelli per i quali sarà necessario sviluppare terapie differenti. I risultati preliminari mostrano che solo metà dei pazienti reagisce ai farmaci in questa fase di sperimentazione.

La identificazione dei genomi del cancro non è semplice. Il team della Mardis ha dovuto escogitare delle tecniche per distinguere le rare mutazioni del cancro dagli errori che occorrono regolarmente nel sequenziamento del DNA. I ricercatori devono inoltre riconoscere quali mutazioni portano effettivamente alla crescita dei tumori e quali sono innocue. La Mardis intende lanciare questa sfida agli altri scienziati che nel mondo si stanno impegnando nella comprensione delle mutazioni identificate da lei e dai suoi collaboratori, perché «è davvero gratificante vedere che altri scienziati portano avanti le nostre intuizioni».

Altri ricercatori che operano nella genomica del cancro:

Sam Aparicio, BC Cancer Agency, Vancouver

Todd Golub, Broad institute, Cambridge, Massachusetts

Mike Stratton, Wellcome Trust Sanger Institute, Hixton, Regno Unito

Elaine Mardis utilizza il sequenziamento del DNA nelle cellule affette da cancro per nuovi approcci terapeutici.

Fonte: David Torrence

Batterie a stato solido

Celle ad alto potenziale, per auto elettriche più economiche

Kevin Bullis

Ann Marie Sastry intende rimuovere dalle batterie delle vetture elettriche tutti quei componenti che non servono a immagazzinare energia, quali i dispositivi di raffreddamento e i materiali di supporto all’interno delle celle. Tutti questi componenti arrivano a costituire oltre metà del peso di una tipica batteria agli ioni di litio, il che contribuisce ad accrescerne gli ingombri e il costo. Nel 2007 ha quindi fondato la startup Sakti3 per sviluppare batterie a stato solido che non necessitano della maggior parte di questi componenti e risparmiano ulteriore spazio ricorrendo a materiali capaci di immagazzinare maggiore energia. Di conseguenza, potranno venire prodotte batterie di dimensioni pari alla metà o persino un terzo rispetto a quelle convenzionali.

Un dimezzamento nelle dimensioni di una batteria potrebbe farne dimezzare il costo. Siccome il sistema di batterie costituisce la parte più costosa di una vettura elettrica (arrivando spesso a costare fino a 10.000 dollari), ciò renderebbe le vetture elettriche assai più economiche. Alternativamente, le case costruttrici potrebbero mantenere il prezzo attuale e raddoppiarne l’autonomia, sino a 100 miglia.

I limiti delle batterie agli ioni di litio utilizzate nelle vetture elettriche sono noti. «La maggior parte degli elettroliti liquidi è infiammabile», spiega la Sastry. Per evitare che l’elettrolito si incendi, sono necessari sistemi di sicurezza; inoltre, per estendere la vita utile dell’elettrolito e scongiurarne il surriscaldamento, la batteria dev’essere raffreddata e monitorata affinché non si scarichi mai completamente e ciò costituisce uno spreco di capienza. Tutti questi fattori comportano dei costi aggiuntivi. Cosi, la Sastry ha cominciato a investigare la possibilità di realizzare una batteria libera di questi elementi addizionali.

Le batterie a stato solido da lei sviluppate si basano sempre sulla tecnologia degli ioni di litio, ma sostituiscono l’elettrolito liquido con un sottile strato di materiale non infiammabile. Le batterie a stato solido sono inoltre longeve: alcuni prototipi presentati da altri gruppi sono in grado di sopravvivere a migliaia di cicli di scarica e ricarica. Oltretutto resistono alle alte temperature e per questo motivo è possibile ricorrere a materiali capaci di raddoppiarne o persino triplicarne la densità energetica (la quantità di energia che può essere immagazzinata in un determinato volume), che costituirebbero un pericolo o sarebbero poco affidabili nelle convenzionali batterie agli ioni di litio.

Per realizzare batterie a stato solido pratiche e convenienti da produrre, la Sastry ha elaborato un software di simulazione attraverso il quale identificare le combinazioni di materiali e le strutture capaci di garantire dimensioni compatte e una carica elevata. La simulazione è sufficientemente precisa da prevedere il comportamento dei diversi materiali e strutture una volta assemblati in una batteria. La Sastry sta inoltre sviluppando tecniche di assemblaggio compatibili con elevati volumi di produzione. «Se l’obiettivo complessivo è quello di cambiare il modo di guidare delle persone, l’approccio non può più essere unicamente incentrato sulla migliore densità energetica o il maggior numero di cicli», ma «il criterio ultimo dev’essere la convenienza e l’economicità di un prodotto che sia dotato delle prestazioni necessarie» spiega la Sastry.

Potrebbero volerci ancora diversi anni prima che queste batterie vengano immesse nel mercato, ma GM e altre case automobilistiche, come la Toyota, stanno già identificando nelle batterie a stato solido un componente fondamentale per il futuro dei veicoli elettrici. Secondo Jon Lauckner, direttore generale della GM Ventures, che ha investito oltre 3 milioni di dollari in Sakti3 lo scorso anno, vi è un limite oltre il quale le batterie convenzionali non potranno essere migliorate ulteriormente. Affinché le vetture elettriche arrivino a coprire più di una piccola frazione del parco circolante, «dovrà cambiare qualcosa di fondamentale». Secondo Lauckner, la Sakti3 sta «operando ben oltre i limiti delle convenzionali celle elettrochimiche».

La Sastry è consapevole del fatto che il successo non è garantito. Il suo campo di ricerca costituisce una sorta di campo di battaglia, con svariati approcci in competizione per alimentare una nuova generazione di vetture e «niente di tutto ciò è ovvio».

Altre aziende al lavoro sulle batterie a stato solido:

Planar Energy, Orlando, Florida

Seeo, Berkeley, California

Toyota, Toyota City, Giappone

Ann Marie Sastry, fondatrice della Sakti3, sta sviluppando sistemi per produrre batterie più leggere ed economiche su larga scala.

Fonte: Mitch Ranger

Crittografia omomorfica

La sicurezza dei dati nel cloud computing.

Erica Naone

Graig Gentry sta creando un sistema di codificazione che potrebbe rimuovere l’esitazione di molte organizzazioni a fare uso del cloud computing per analizzare e raccogliere dati, a causa del rischio di consentire a dei providers pubblici quali Amazon e Google di accedere a dati non protetti.

Il problema è che, mentre i dati possono essere inviati e ricevuti in forma criptata dal centro dati di un provider cloud, i vari server che alimentano il cloud non possono accedervi in alcun modo. Gentry, un ricercatore della IBM, ha dimostrato la possibilità di analizzare dei dati senza decodificarli.

Il trucco sta nel codificare i dati in maniera tale da riuscire a derivarne ugualmente il contenuto eseguendo un’operazione matematica e decodificando il risultato che, in questo caso, equivarrà allo stesso risultato che si sarebbe ottenuto applicando una formula analoga ai dati non ancora codificati. La corrispondenza tra le operazioni svolte sui dati non codificati e quelli codificati è conosciuta come omomorfismo. «In linea di principio», spiega Gentry, «qualcosa del genere potrebbe essere utilizzato per incrementare la sicurezza delle operazioni in Rete».

Attraverso la crittografia omomorfica, un’azienda potrebbe codificare il suo intero database di e-mail e caricarlo nel cloud, accedendovi a piacimento per effettuare delle ricerche volte a determinare in che maniera i suoi dipendenti collaborano tra loro. Il risultato potrebbe quindi venire scaricato e decodificato senza mai avere esposto i dettagli di una e-mail.

Gentry ha cominciato a cimentarsi nella crittografia omomorfica nel 2008. All’inizio, era in grado di eseguire solamente una serie molto semplice di operazioni su dei dati codificati prima che il suo sistema cominciasse ad andare in errore. Sfortunatamente, una operazione semplice quale può sembrare il recupero di una porzione di testo da una e-mail, richiede una serie concatenata di migliaia di operazioni. La sua soluzione è stata quindi quella di applicare un secondo strato di codificazione al fine di proteggere i risultati intermedi dagli intoppi nel sistema.

«Il problema della realizzazione di un vero codice omomorfico è stato affrontato per oltre 30 anni e Craig è stato il primo a escogitare una soluzione e fare funzionare le operazioni matematiche», spiega Paul Kocher, direttore generale della società di sicurezza Cryptography Research. Però, avverte Kocher, siccome al momento lo schema sviluppato da Gentry richiede un impressionante volume di operazioni, la strada verso una sua diffusione è ancora lunga.

Gentry riconosce che l’idea di applicare un secondo strato di codificazione è “una sorta di hack” e che il sistema è troppo lento per trovare delle applicazioni pratiche, ma si sta impegnando a ottimizzarlo per applicazioni specifiche quali la ricerca di database per la produzione di registri. Secondo Gentry, queste applicazioni potrebbero essere pronte per il commercio nell’arco dei prossimi cinque, dieci anni.

Altri ricercatori al lavoro sulla crittografia omomorfica:

Marten van Dijk, Cambridge, Massachusetts

Eleanor Reiffel, FX Palo Alto Research Laboratory, California

Nigel Smart, Bristol University, Regno Unito

Il sistema di Gentry consente ai dati criptati di essere analizzati nel cloud. Nell’esempio qui sotto, si desiderano sommare 1 e 2. I dati vengono criptati affinché 1 diventi 33 e 2 diventi 54. I dati criptati vengono quindi inviati nel cloud e trasformati: il risultato (87) può essere scaricato dal cloud e decodificato per fornire la risposta finale (3). Fonte: Steve Moors

Cloud streaming

Software ad alte prestazioni nei dispositivi portatili.

David Talbot

Nella sala conferenze della OnLive, in Silicon Valley, Steve Perlman tocca il realistico volto 3-D di una donna realizzata al computer sul suo iPad. Un leggero passaggio delle dita sullo schermo e la testa ruota, senza però che i suoi occhi si distolgano da un punto fisso, come se lo stesse osservando. Nessuna di queste complesse animazioni e visualizzazioni sta però avvenendo realmente sull’iPad. Il dispositivo non è abbastanza potente da riuscire a gestire il programma utilizzato, un software alquanto costoso denominato Autodesk Maya. In realtà, i comandi impartiti da Perlman con le dita vengono inviati a un data center, dove è realmente in funzione il programma. La risposta ai comandi viene quindi rimandata sotto forma di video in streaming, che sembra rispondere in tempo reale al tocco di Perlman.

Per ottenere questo risultato, Perlman ha escogitato un sistema per comprimere uno stream video, sopperendo cosi ai problemi che avevano finora impedito l’utilizzo di dispositivi portatili come terminali remoti per applicazioni grafiche di alto livello. La tecnologia potrebbe permettere a centinaia di milioni di tablet, smart phone e simili di accedere ad applicazioni tipiche delle sale di montaggio dei film o di uno studio di architettura o di design. E non sarebbero soltanto i professionisti a beneficiarne, ma chiunque fosse semplicemente interessato a guardare un film e persino le scuole, che potrebbero cosi mettere sofisticati programmi a disposizione dei propri studenti. «Nella nostra visione di lungo termine potremmo addirittura assistere allo spostamento di tutte le operazioni computazionali nel cloud», spiega Perlman, amministratore delegato della OnLive.

L’elemento più innovativo sta nell’avere abbandonato tutti i buffers che sono solitamente necessari per immagazzinare una manciata di secondi o minuti di video in streaming. Sebbene i buffers garantiscano tempo a sufficienza per rimandare eventuali porzioni di dati smarrite o in ritardo, generano anche un lag per il quale è impossibile lavorare in tempo reale. Perlman invece ha fatto ricorso a diversi sistemi per riempire o nascondere i dettagli mancanti – persino riuscendo in alcuni casi a coprire interi spezzoni estrapolando dati dagli elementi ricevuti in precedenza – in maniera tale da impedire all’occhio di percepire un problema di ritardo o di dati mancanti.

Il sistema, inoltre, controlla costantemente la qualità della connessione alla Rete, incrementando la quantità di video compresso e riducendo la larghezza di banda in base all’esigenza. Al fine di salvare preziosi millisecondi, Perlman ha persino negoziato un accordo con i providers di Rete affinché i dati provenienti dai suoi server vengano trasmessi alla massima velocita possibile.

L’obiettivo è quello di ottenere un tempo di risposta intorno agli 80 millisecondi, un valore chiave nella percezione visiva. Il raggiungimento di quel valore è cruciale per una vasta gamma di applicazioni, spiega Vivek Pai, uno scienziato informatico presso la Princeton University: «Se percepite un ritardo tra le vostre azioni e il loro effetto, il cervello si perde».

Perlman ha fondato la OnLive nel 2007 per promuovere la sua tecnologia streaming e lo scorso anno ha inaugurato un servizio su abbonamento per ricevere la versione nel cloud di una serie di videogiochi d’azione popolari, applicazioni alquanto esigenti in termini di potenza computazionale e reattività. I giochi non sono che l’inizio: tra i finanziatori vi sono anche Warner Brothers e Autodesk che, oltre a Maya, produce software CAD per ingegneri e designer. Perlman crede che un giorno «con una semplice connessione wireless qualunque dispositivo portatile potrà mettere a disposizione degli utenti nel mondo un enorme potere computazionale».

Altre aziende all’opera nel cloud streaming:

Cisco, San Jose California

Mental Images, Berlino, Germania

Netflix, Los Gatos, California

Nell’immagine, l’impressione è che un dispositivo tablet stia utilizzando un elaborato software di animazione 3-D, ma in realtà questo programma viene comandato a distanza dai server OnLive.

Fonte: Winni Wintermeyer

Codici a prova di crash

Come rendere sicuri i software fondamentali.

William Bulkeley

Quando un computer controlla un sistema cruciale in una vettura o nelle apparecchiature mediche, un bug nel software può rivelarsi disastroso: «Programmi a rischio potrebbero mettere vite in pericolo», afferma June Andronick, una ricercatrice presso la NICTA, il Centro Ricerche IT nazionale in Australia. In risposta alla recente scoperta di un punto debole in un software, cita per esempio che «un’automobile avrebbe potuto essere danneggiata mediante un attacco all’impianto stereo». La Andronick sta cercando di ridurre questi rischi rendendo l’elemento più importante di un sistema operativo – il core, o kernel – immune a crash.

Al momento, l’approccio ideale alla realizzazione di un software sicuro consiste nel sottoporlo alla maggior quantità possibile di situazioni entro i tempi consentiti. La Andronick sta però adottando una tecnica conosciuta come “verifica formale”, tipicamente utilizzata dai progettisti di microchip per controllare i propri schemi prima di realizzare un circuito integrato: il procedimento consiste nella realizzazione di un modello matematico dei sottosistemi del chip, che possono dimostrarne il comportamento secondo le aspettative e sulla base di qualunque possibile input.

Finora, la verifica formale era considerata inadeguata per il collaudo di grossi programmi, quali i sistemi operativi appunto, perché la rappresentazione e l’analisi dei loro codici risulterebbe troppo complessa. In un tour de force, sia computazionale sia matematico, la Andronick e i suoi colleghi sono riusciti a verificare il codice che sta alla base della maggior parte di kernel presenti in un sistema operativo solitamente utilizzato in smart phones, automobili e dispositivi medici portatili.

Siccome questo codice è fondamentalmente l’elemento attraverso il quale le diverse parti del sistema inviano i comandi all’hardware, un suo rafforzamento ha degli effetti sostanziali sull’affidabilità dell’intero sistema.

«Questa ricerca è estremamente importante», spiega Lawrence Paulson, docente di informatica presso la Università di Cambridge. Oltre a dimostrare la presenza, o meno, di un bug che potrebbe causarne l’errore, questa verifica garantisce che il kernel potrà svolgere tutte le operazioni per le quali è stato programmato.

La ricerca è stata agevolata dalla scelta di sviluppare un cosiddetto microkernel. I microkernels assegnano quante più funzioni possibili – quali la gestione di input e output – a moduli software all’infuori del kernel. Sono quindi relativamente piccoli: in questo caso, intorno alle 7.500 linee di codice C e 600 di assembler. «Sono valori davvero piccoli per un kernel, ma molto grandi per la verifica formale», sottolinea la Andronick. L’analisi era mirata alle migliaia di linee di codice C e per questo motivo è stato necessario sviluppare software e formule matematiche completamente nuove. Il kernel è stato presentato a febbraio e ora il team sta lavorando a una nuova versione concepita per i diffusi chip processori di linea x86.

La Andronick non si aspetta che questa tecnica venga applicata a software di maggiori dimensioni perché non lo considera necessario. Utilizzando il codice verificato nei sottosistemi chiave, si permetterebbe agli sviluppatori di assicurarsi che un bug in un programma meno controllato – come quello di gestione dell’impianto stereo di un’auto – non arrivi a intaccare un hardware cruciale. Si potrebbe inoltre prevenire il blocco di un computer di fronte a errori. La Andronick spera che un numero crescente di sviluppatori faccia affidamento sulla verifica formale «in campi dove la sicurezza è davvero importante. E noi abbiamo dimostrato che è possibile farlo».

Altri ricercatori al lavoro su codici a prova di crash:

Xinyu Feng, University of Science and Technology of China, Suzhou

Chris Hawblitzel, Microsoft Research, Redmond, Washington

Zhong Shao, Yale University, New Haven, Connecticut

June Andronick ricorre ad analisi matematiche per creare software a prova di crash.

Fonte: Meghan Petersen

La separazione dei cromosomi

Una lettura più precisa del DNA cambierà il trattamento delle malattie.

Ingfei Chen

Il chip in gomma chiara sotto al microscopio nel laboratorio di Stephen Quake è un complesso labirinto di minuscoli canali, camere e pompe connesse a sottili tubi di plastica che lo alimentano di reagenti e controllano oltre 650 minuscole valvole. Ricorrendo a questo chip microfluidico, Quake, un biofisico della Stanford University, ha sviluppato un sistema per ottenere dati mancanti dalla quasi totalità delle sequenze di genoma umano, relativi a quale membro di una coppia di cromosomi appartiene un gene.

Una tecnologia capace di facilitare l’identificazione delle variazioni tra cromosomi potrebbe avere un enorme impatto in importanti ricerche nella genomica e nella elaborazione di medicine su misura. «Questa è decisamente la nuova frontiera», dice Nicholas Schork, genetista statistico presso lo Scripp Research Institute. «In questo momento», spiega, «siamo all’oscuro di tutte le forme di fenomeni biologici che avvengono nel corpo umano in relazione all’accoppiamento dei suoi cromosomi».

Quando gli scienziati sequenziano il genoma umano, ignorano ampiamente il fatto che i cromosomi sono accoppiati, con un elemento di origine materna e uno di origine paterna (il cromosoma Y, che determina il sesso, è l’unica eccezione). Le tecniche tradizionali mescolano i dati provenienti da entrambi i cromosomi e li raffigurano in una unica sequenza.

L’alternativa elaborata da Quake comporta la separazione fisica dei cromosomi prima ancora che venga effettuata l’analisi dei genomi. Le cellule vengono trasportate all’interno del chip che, una volta individuatane una sul punto di separarsi (una fase nella quale i cromosomi sono più facili da manipolare), la intrappola e ne apre la membrana, provocando la fuoriuscita di cromosomi. Questi, vengono distribuiti all’interno di 48 camere inferiori. Sebbene sia possibile trovare più cromosomi all’interno della stessa camera, è alquanto improbabile che un cromosoma venga catturato assieme a quello accoppiato. Ricorrendo quindi a tecniche standard, i cromosomi vengono sequenziati o esaminati per individuare varianti genetiche.

Altri gruppi di ricerca hanno tentato di sviluppare diverse strategie per il sequenziamento di cromosomi individuali, ma, secondo Quake, il suo sistema è avvantaggiato dal fatto che non si affida alla decodificazione e ricostruzione dei cromosomi da un gruppo misto di frammenti di DNA: “Siccome prepariamo fisicamente il campione, sappiamo che il risultato è corretto”.

Meredith Yeager, ricercatrice presso la Core Genotyping Facility del National Cancer Institute, ritiene che, se i costi dovessero calare a sufficienza, la tecnica di Quake potrebbe divenire estremamente comune. La capacità di distinguere chiaramente le varianti genetiche in diversi cromosomi «è davvero qualcosa di importante» ammette la Yeager. «Il contesto è importante».

Se, per esempio, il test dovesse rilevare due mutazioni separate in un gene malato, sarebbe possibile scoprire se un cromosoma sia affetto da entrambe le mutazioni o quale cromosoma sia affetto da una delle due mutazioni. Un paziente con almeno un cromosoma indenne nel gene potrà sfuggire più facilmente a una malattia o quanto meno subirla in maniera più mite. Che lo scopo sia quello di prevedere le risposte a un farmaco per l’asma o scoprire abbinamenti migliori per i trapianti di midollo osseo, la precisione di una terapia mirata potrebbe dipendere da una migliore comprensione delle differenze tra cromosomi.

Fluidigm, la società di San Francisco fondata da Quake nel 1999 per commercializzare chip microfluidici, sta ora esplorando sistemi per automatizzarne i processi affinché non richiedano una elevata competenza. Quake spera di scoprire “qualcosa di realmente interessante” sulla diversità umana o la regione del genoma che definisce le risposte del sistema immunitario. La comprensione di questa regione è stata estremamente difficile in quanto caratterizzata da una grande varietà genetica e gli scienziati non disponevano di uno strumento per studiarla correttamente. Almeno fino a ora.

Altre aziende impegnate nella separazione dei cromosomi:

Complete Genomics, Mountain View, California

Nicholas Schork, Scripps Research Institute, San Diego, California

Jay Shendure, Università di Washington

Questo dispositivo, delle dimensioni di una scatola di fiammiferi, ricorre a minuscole valvole e canali per dividere i 23 cromosomi del genoma umano affinché possano essere esaminati separatamente.

Fonte: Meghan Petersen

Cellule sintetiche

La creazione di nuovi genomi potrebbe velocizzare la produzione di vaccini e batteri per biocombustibili.

Katherine Bourzac

I batteri che crescono nel laboratorio di Daniel Gibson sono le prime creature viventi con un genoma interamente artificiale. L’intera raccolta di geni in questi microbi è stata progettata al computer e assemblata da macchine capaci di creare frammenti genetici unendo cellule a componenti chimici. La speranza di Gibson è che la possibilità di sviluppare interi genomi, anziché semplici porzioni di DNA, velocizzi radicalmente il processo di ingegnerizzazione dei microbi capaci di produrre biocombustibili e vaccini.

Fino all’anno scorso, i biologi non erano in grado di realizzare pezzi di DNA sufficientemente grandi da creare un intero genoma. Sebbene le cellule producano abitudinariamente spezzoni di DNA, una macchina di sintesi del DNA non lo può fare. A maggio, Gibson e i suoi colleghi presso il J. Craig Venter Institute hanno annunciato la loro soluzione al problema. Gibson è ricorso alle cellule di lievito per cucire tra loro migliaia di frammenti di DNA fatti a macchina; ha poi ripetuto il processo fino al completamento del genoma. In seguito, ha inserito il genoma in cellule batteriche che erano sul punto di dividersi e ha coltivato i batteri in un elemento ostile a tutte le cellule, salvo quelle contenenti il genoma sintetico.

«Quando abbiamo iniziato nel 2004», racconta, «la costruzione di un genoma batterico non sembrava un’impresa facile», nonostante i ricercatori del Venter Institute siano partiti dal genoma batterico di un micoplasma, uno dei più piccoli. Dopo essere finalmente riusciti a superare i problemi tecnici, spiega Gibson, la creazione delle cellule sintetiche ha posto minori problemi. Passare dal computer a una colonia di batteri sembra ormai cosa fatta.

Gibson ha inoltre sviluppato un sistema più veloce, e libero dal lievito, per assemblare grandi porzioni di DNA in vetro. I suoi colleghi stanno adoperando questi metodi per sintetizzare rapidamente il DNA virale necessario a velocizzare la produzione di vaccini. Il Venter Institute (non profit) sta collaborando con la Synthetic Genomics, una società che ne commercializza i risultati al fine di sviluppare prodotti finiti.

La creazione di cellule sintetiche fa parte di uno sforzo collettivo volto a sviluppare una “cellula minimale” contenente solo i genomi basilari a garantire la vita.

Al momento, la tecnica di Gibson funziona unicamente con i micoplasmi, che sono utili per la sperimentazione, ma non per applicazioni industriali. Restano quindi almeno due sfide: lo sviluppo di cellule recipienti idonee al trapianto di genomi e la determinazione di un sistema grazie al quale lavorare su porzioni di DNA più grandi. Tuttavia, «siamo in uno stadio preliminare», afferma, «e non sappiamo in quali limitazioni potremmo ancora incappare».

Altri ricercatori al lavoro sulle cellule sintetiche:

Jim Collins, Boston University

Jay Keasling, UC Berkeley, California

Chris Voigt, UC San Francisco

Related Posts
Total
0
Share