LHC ovvero la ricerca tra coordinamento e flessibilità
di Alessandro Ovi 23-12-09
LHC (Large Hadron Collider), il grande acceleratore del CERN a Ginevra, ha ricominciato a funzionare dopo la «falsa partenza» di più di un anno fa. Può ora di nuovo provocare collisioni ad altissima energia tra Hadron, particelle composte di Quarks, per spaccarle e ricreare condizioni analoghe a quelle che dovevano esistere nei lontanissimi tempi in cui si formò la materia. Ma non è questo affascinante obiettivo di cui vogliamo parlare ora (già in passato «Technology Review» se ne è occupata). L'argomento, oggi, è quello della complessità di questo esperimento, del come la complessità viene affrontata con modalità che sono ormai comuni a tutta la grande scienza, ma sono sostanzialmente diverse da quelle dei grandi progetti industriali. Per dare una idea della complessità, basti dire che un recente rapporto sullo stato del LHC vede una lista di 2.900 autori da 34 paesi diversi. Dal punto di vista delle dimensioni, LHC è di gran lunga la più grande macchina mai costruita. I diversi team di ricerca provengono da 150 università e decine di enti scientifici di governo e lavorano su una scala tanto grande che quella del project management è diventata una delle sfide più importanti della scienza. Ma, in senso letterale, è difficile parlare di project management perché non esiste un «capo» che possa essere considerato responsabile del progetto. La situazione non è nuova nel mondo della ricerca, dove nessuno può più lavorare da solo. E tutti i settori si muovono sempre più con grandi squadre di scienziati provenienti da paesi e discipline diverse. Citiamo solo come esempio l'iniziativa OpenWetWare per raccogliere e rendere disponibili dati di linee cellulari, enzimi e protocolli di screening. Dal 2005 a oggi l'iniziativa è cresciuta fino ad avere 7mila utenti on line da ogni parte del mondo e 65mila pagine Web, il tutto senza nessun «capo» riconosciuto. Dentro la struttura del LHC convivono vari grandi progetti, ciascuno dei quali è dotato di un proprio sistema per la rilevazione di particelle create dalle collisioni di Hadron a energie mai prima raggiunte: ALICE, ATLAS, CMS, LHCb. Si tratta di apparati giganteschi, attorno ai quali sviluppano le loro ricerche gruppi di centinaia di scienziati. Solo per dare una idea delle dimensioni, CMS (Compact Muon Solenoid detector) pesa 12.500 tonnellate (è stato paragonato a una cattedrale gotica) e coinvolge nella attività scientifica 3.600 persone da 183 istituzioni di 38 paesi. In posizione diametralmente opposta, quindi a quasi 7 km di distanza, sottoterra, il rivelatore ATLAS è lungo 40 metri e ha un diametro di 20 metri. Tejinder De Virdee, al vertice nell'organigramma del CMS, ha il titolo di «portavoce», e non di «capo progetto», ed è stato scelto dai ricercatori non per guidarli, ma per parlare per loro conto con gli altri gruppi di ricerca. In una sua recente intervista al «Wall Street Journal» (è già di per sé interessante che di lui si occupi una testata come questa) ha dichiarato che tutte le decisioni vengono prese per consenso e che attorno al LHC i gruppi di ricerca si sono organizzati in cooperative democratiche, dove chiunque può dire la sua opinione. Anche l'innovazione nelle soluzioni tecnologiche viene ottenuta dando per scontato che qualcuno arriverà, magari all'ultimo minuto, portando la parte che manca. Si tratta di una struttura decisionale assolutamente bottom up, qui necessaria nella misura in cui nessuno può fare ricerca senza gli altri. Nessuno può «giocare» con LHC se non «giocano» anche tutti gli altri. E, se mai ci sarà una scoperta straordinaria, non porterà probabilmente il premio Nobel a qualcuno, perché l'articolo che la descriverà dovrà avere qualche centinaio di autori. Quando successe l'incidente che bloccò il funzionamento del LHC, furono in molti a pensare che alla sua origine vi fosse proprio questa struttura anarchica che, apparentemente priva di meccanismi convenzionali di gestione e controllo del progetto, poteva avere creato problemi già nelle fasi di progettazione e costruzione della gigantesca macchina. Ma la spiegazione non convince, se non altro perché sono storia recente due imbarazzanti fallimenti (in termini di ritardo nella conclusione dei rispettivi progetti) in strutture industriali certamente ben controllate e tradizionalmente forti nel project management. Si tratta di Airbus Industries e Boeing, che non sono state in grado di padroneggiare la costruzione di due aerei di dimensioni gigantesche o di eccezionale grado di innovazione, l'A380 e il B787 Dreamliner. In entrambi i casi si sono spesi fiumi di parole per trovare le ragioni dei fallimenti, ma, a posteriori, ogni management guru potrebbe raccontare una storia elegante per spiegare perché la ricerca della complessità non ha avuto successo. Si è quasi tentati di dire che ormai stiamo avviandoci a progetti tanto complessi che i fallimenti lungo la strada della loro realizzazione sono inevitabili. Ma poi viene alla mente Internet che, pur essendo ormai di enorme complessità, è nato da una struttura anarchica, è stato guidato solo da regole generali di controllo degli indirizzi e ha dimostrato di funzionare (almeno fino a ora...) senza problemi troppo gravi. Allora la discriminante tra il successo e l'insuccesso, nella strada verso la complessità, potrebbe non essere il project management, ma la capacità di consentire un certo grado di flessibilità nella definizione dell'obiettivo finale (quasi che il dibattito tra evoluzione e creazione trovasse in queste riflessioni nuova benzina da gettare sul fuoco...).