Controversie scientifiche e intenzionalità tecnologica

Prosegue il dibattito sul “bambino geneticamente modificato” e le responsabilità della scienza e della tecnologia.

di Andrea Granelli

Nel mese di gennaio sono intervenuti in proposito Alberto Abruzzese, Vittorino Andreoli, Andrea Granelli e Gian Piero Jacobelli, prendendo spunto da un ampio articolo di Antonio Regalado, ripreso da Alessandro Ovi. Considerato l’interesse che continua a suscitare la “scabrosa” questione della ingegneria genetica applicata agli esseri viventi e in particolare all’uomo, ci pare utile riproporre la versione integrale delle riflessioni di Andrea Granelli, fondatore e presidente di Kanso, in quale affronta il problema cruciale dei rapporti tra conoscenza e comunicazione.

La questione del “bambino geneticamente modificato” va molto oltre i temi della genetica e della stessa bioetica. È un caso particolare di un discorso molto più ampio, che si può riassumere con una semplice domanda: come deve posizionarsi l’uomo nei confronti di una tecnica sempre più potente e “autonoma”, i cui esiti sono sempre più difficili da prevedere, anche perché le singole tecnologie si combinano fra loro creando funzionamenti e comportamenti non prevedibili in modo analitico? Questo discorso non coinvolge solo la genetica umana, ma anche gli OGM, il nucleare, il digitale e via dicendo.

L’approccio “omeopatico” che gli adoratori della tecnologia propongono con sempre maggiore frequenza («I danni prodotti dalla tecnologia si riparano con tecnologie migliori…») si sta dimostrando sempre più inefficace. Il banco di prova più recente è l’ambiente e le cause antropiche dei danni anni ambientali e del Climate Change. Le variazioni climatiche – i cui impatti imprevedibili (e costosi) stiamo toccando con mano – ripropongono un riesame critico del ruolo troppo “centrale” della tecnica, e una disamina meno superficiale delle sue opportunità, ma anche dei suoi lati oscuri e soprattutto delle finalità ultime di certi tipi di ricerca scientifica e tecnologica.

Nota con acume Paul Virilio che «la tecnologia crea innovazione, ma – contemporaneamente – anche rischi e catastrofi: inventando la barca, l’uomo ha inventato il naufragio, e scoprendo il fuoco ha assunto il rischio di provocare incendi mortali». Ma molti dei protagonisti (o abilitatori) della rivoluzione tecnologica – per ingenuità fideistica o per cinico calcolo – si sono invece concentrati esclusivamente sulla dimensione positiva, sulle meravigliose possibilità offerte (o promesse) dalla tecnica.

Ricordiamo qualche abbaglio recente – in particolare nell’ambito del digitale – causato da questa adorazione acritica della tecnica: «Internet accrescerà la comprensione, favorirà la tolleranza e promuoverà la pace nel mondo» (Frances Cairncross, 1997); «Il genocidio in Ruanda non sarebbe mai stato possibile nell’era di Twitter» (Gordon Brown, 2009); «Internet è il regalo di Dio alla Cina. È lo strumento migliore per consentire al popolo cinese di sconfiggere la schiavitù e lottare per la libertà» (Liu Xiaobo, Premio Nobel per la Pace, 2010).

Mai come oggi, pertanto, le riflessioni collegate al “Principio di precauzione” proposto dal filosofo tedesco Hans Jonas – tra l’altro proprio all’interno del dibattito ambientalista – sono così attuali. L’esigenza di costruire una nuova etica scientifica che dedichi più tempo a ipotizzare le conseguenze generali di una nuova tecnologia (e non solo quelle tecniche, facilmente prevedibili e “immediate”) non è più ignorabile. Ci ricorda Jonas che «non si deve mai fare dell’esistenza o dell’essenza dell’uomo globalmente inteso una posta in gioco nelle scommesse dell’agire».

Nel caso del digitale il tema è oramai particolarmente evidente. Anni di comunicazione positiva e ottimistica, dove la semplice esposizione al digitale faceva diventare smart aziende e città, dove il digitale era la soluzione a tutti i mali, ha mostrato i fianchi. Le minacce alla privacy, i bit-coin usati per lavare il denaro sporco, l’uso efficace fatto dai terroristi di Internet, ma anche le inesattezze e falsificazioni di Wikipedia, il potere sotterraneo e avvolgente di Google, la fragilità psicologica indotta dagli universi digitali, il finto attivismo politico digitale svelato dall’espressione clicktivism, il diluvio incontenibile e soffocante della posta elettronica, il pauroso conto energetico dei data center, i comportamenti scorretti dei nuovi capitani dell’impresa digitale sono solo alcuni dei problemi che stanno emergendo, con sempre maggiore intensità e frequenza.

La tecnica va riportata alla sua natura: non fine, ma strumento e soprattutto strumento pensato per risolvere bisogni attuali e cogenti. La ricerca di base deve essere in parte non orientata – è nella sua natura – ma quella applicata no; altrimenti diventa progressivamente ostaggio di un marketing sempre più aggressivo e manipolatorio, capace di creare nuovi (e falsi) bisogni necessari per motivare la sostituzione sempre più frenetica di prodotti e funzionalità con una “nuova versione”.

Il troppo stroppia – come dicevano i nostri avi – e noi siamo sempre meno capaci di inseguire il vorticoso tasso di novità tecnologica: è infatti sempre più difficile non solo capire le nuove tecnologie e saperle usare con profitto, ma soprattutto comprenderne i comportamenti, prevederne le devianze.

Il rischio è quello profetizzato dal filosofo tedesco Günther Anders a metà degli anni Cinquanta nella sua raccolta di saggi dal titolo evocativo – L’uomo è antiquato – e in particolare dal primo saggio (“Considerazioni sull’anima nell’epoca della seconda rivoluzione industriale”): l’uomo è antropologicamente inadeguato (o antiquato, per usare la sua efficace espressione) rispetto agli oggetti, ai metodi e alle strutture autonomizzate della sua produzione tecnica e questa inadeguatezza genera ciò che egli chiama “dislivello prometeico”: quel gap fra la nostra capacità di produrre e la nostra capacità di immaginare. Secondo Anders, la nostra immaginazione, che molti ritengono potenzialmente infinita, è invece finita, così come la nostra capacità di previsione, mentre la nostra capacità di produzione è potenzialmente illimitata. Questa «asincronizzazione ogni giorno crescente tra l’uomo e il mondo dei suoi prodotti», questa distanza «si fa ogni giorno più grande» e i prodotti tendono a diventare autonomi rispetto al creatore.

Oggi dobbiamo fare i conti con delle multinazionali sempre più potenti, spregiudicate e invasive (la recente scoperta dell’enorme evasione fiscale di alcune icone del digitale è solo l’ultima delle grandi delusioni dei paradisi digitali), con il crescente grado di inefficienza e alienazione legato allo straripamento delle soluzioni digitali, alle minacce occupazionali legate alla digitalizzazione che sta coinvolgendo non solo gli operai, ma anche i colletti bianchi e i manager.

Può essere allora utile – ritengo – riprendere le riflessioni di alcuni scienziati – in primis Albert Einstein e Bertrand Russell – nella fase più acuta della discussione sui rischi associati alla ricerca nucleare. Come è noto, il tutto nacque da una lettera scritta l’11 febbraio 1955 da Russell a Einstein, dove il filosofo e logico gallese suggeriva che «i più eminenti uomini di scienza avrebbero dovuto fare qualcosa di grande effetto, per far comprendere alla gente e ai governi le catastrofi che potevano essere causate». Il risultato fu un Manifesto dove, tra l’altro, si riteneva necessario «lasciare il segno, sia nella coscienza della gente comune, sia in quella dei leader politici».

È dunque necessario aumentare il senso critico di scienziati, imprenditori e decisori politici per affrontare le decisioni riguardo alla tecnica in modo più consapevole ed equilibrato. Troppo spesso l’ottimismo acritico è stato l’unico criterio di scelta.

Il progresso non è arrestabile – né deve esserlo – ma può essere orientato. L’adozione di specifiche tecnologie può essere valutata in maniera più articolata e completa, guardando non solo i benefici, ma anche i costi, i rischi, gli effetti collaterali, le precondizioni necessarie e – soprattutto – secondo quali modalità queste variabili si diffondo fra i potenziali utilizzatori. Il miglioramento dell’efficienza e della comodità – prediletto dalle tecnologie “consumer” – non può essere l’unico criterio. Colpisce che, in una delle sue ultime interviste (riportata sul “New York Times” del 10 settembre 2014), Steve Jobs abbia rivelato che impediva ai suoi figli piccoli di usare i prodotti Apple. Alla domanda: «I suoi figli ameranno certamente l’iPad?», egli rispose: «They haven’t used it. We limit how much technology our kids use at home».

Anche per questi motivi un gruppo di scienziati e imprenditori nell’High Tech, come Elon Musk e Stephen Hawking, hanno lanciato – nel gennaio 2015 – una lettera aperta dal titolo Research Priorities for Robust and Beneficial Artificial Intelligence, sui rischi dell’Intelligenza Artificiale, e hanno fondato il The Future of Life Institute. Evocativo è il payoff dell’Istituto: «Technology has given life the opportunity to flourish like never before… or to self-destruct».

Oltretutto – come noto – le stesse affermazioni fatte dagli scienziati e dai comunicatori delle multinazionali della tecnologia possono venire soppesate in maniera critica, usando per esempio il metodo proposto dal filosofo e antropologo francese Bruno Latour.

Figura eclettica, Latour ha studiato filosofia e antropologia prima di occuparsi di scienza e tecnologia.  Autore – nel 1979 –  di quello che è considerato il primo classico degli studi etnografici delle pratiche di laboratorio, Laboratory Life, da anni analizza in profondità, e senza risparmiare critiche profonde, il cosiddetto “metodo scientifico”. Egli considera infatti il risultato della ricerca scientifica non come fatto in sé – evidente e obiettivo – ma come il prodotto di una articolata rete di accordi, alleanze e «traduzioni», dove gli interessi economici degli attori coinvolti – in primis (ma non solo) i finanziatori della ricerca stessa –giocano un ruolo fondamentale nel passaggio da risultato di una sperimentazione a evidenza accettata come “verità scientifica”.

Il filosofo francese (che insegna da molti anni a Sciences Po a Parigi) propone allora un metodo che ci aiuta a costruire un punto di vista obiettivo sulle controversie scientifiche che ormai scandiscono il nostro secolo: OGM, buco nell’ozono, riscaldamento globale, cellule staminali e via dicendo.

Queste controversie non sono più – come un tempo – una contrapposizione fra scienza e “false” credenze (siano essere religiose, magiche o ideologiche), ma tra diversi punti di vista scientifici, quindi “sedicenti” obiettivi. Non è più uno scontro fra razionale e irrazionale, e ciò rende sempre più difficile comprendere e decidere su queste materie.

Il metodo proposto da Latour si basa su una mappatura sistematica delle controversie scientifiche, basata sulla tenuta di una sorta di “diario di bordo” dove si deve annotare da stampa, radio e TV – mano a mano che si presentano – articoli e notizie su questioni che coinvolgono scienza e tecnologia, collegandole al gruppo di potere che ha interesse a (e spesso ha finanziato) quel tipo di risultato.

Tenendo traccia di queste dichiarazioni e delle loro trasformazioni mentre si diffondono sui media, si risale al punto di partenza (l’“articolo-fonte”) e alla committenza e si comprende meglio il cui prodest. Osserva Latour: «Certe volte prima che l’enunciato vagante, a forza di essere trasmesso o ripetuto, abbia perso ogni aggancio con la sua origine, si riesce con un po’ di fatica a risalire la corrente e a raggiungere la situazione d’interlocuzione da cui proviene».

Una volta trasformati, i discorsi scientifici perdono progressivamente «gli agganci, diventando indistinguibili da una voce che circola, da un dato universalmente ammesso o da un fatto indiscutibile».

Il processo è facilitato da alcuni strumenti digitali creati ad hoc, che consentono la visualizzazione delle reti di potere – chiamate Actor-Network Theory (ANT) – che stanno dietro la costruzione dei fatti scientifici. Infatti il Web non fa alcuna differenza tra i fatti e le opinioni; proprio per questo è efficacissimo nel tracciare la mappa delle controversie. Ma bisogna costruire un processo obiettivo di infosourcing. Nota Latour: «Cercando di sapere se un farmaco sia o no pericoloso, si rischia di trovare, tra i primi dieci risultati (i soli che gli internauti leggono), il parere degli esperti del Ministero della Sanità, il blog di qualche complottista e il sito di un cretino che vende polvere di pimperimpera. Come regolarsi quando c’è confusione tra l’“argomento dimostrato” e la “semplice opinione”?».

Due ultimi suggerimenti. Si dovrà innanzitutto dedicare una maggiore attenzione a come si disegnano le soluzioni  tecnologiche e cioè a quella che Don Ihde chiama intenzionalità tecnologica: il fatto che un artefatto tecnologico sia in qualche misura in grado di trasmettere una sorta di direzione o scopo in colui che agisce mediante esso. Aspetto che i designer chiamano affordance, una sorta di “luogo comune” fisico che fa sì che la forma di un oggetto suggerisca intuitivamente il suo utilizzo.

Il problema del molteplice uso cui si prestano le soluzioni tecnologiche moderne (soprattutto quelle digitali di nuova generazione), che è via via servito per limitarne l’uso o incoraggiarne lo sviluppo, si collega infatti direttamente all’intenzionalità e trasforma l’uso di queste tecnologie non solo in sfida educativa, ma anche – e forse soprattutto – in sfida etica.

Si dovrà inoltre ripristinare – anche nella ricerca scientifica – un sorta di codice morale simile al famoso “giuramento” di Ippocrate (400 a.C.), che contribuisca ad aumentare davvero la “responsabilità morale” anche degli scienziati.
Regole come «sceglierò il regime per il bene dei malati secondo le mie forze e il mio giudizio, e mi asterrò dal recare danno e offesa», se applicate – mutatis mutandis – alla ricerca scientifica, possono portare – io credo – molto beneficio.
Solo così potremmo continuare a cogliere in pienezza le straordinarie opportunità che le tecnologie non finiranno mai di riservarci, contenendo il più possibile – nel contempo – le crescenti e imprevedibili dimensioni problematiche.

Related Posts
Total
0
Share