di Stefano Nespor. Pochi giorni fa sul settimanale Science è stato pubblicato, dopo molti mesi di attesa, un articolo che ha suscitato aspre controversie e un ampio dibattito sui fondamenti della politica della scienza e della ricerca e sulle modalità da adottare per disciplinare i rapporti tra la comunità scientifica e gli organi pubblici che si occupano di tutela della salute e dell’ambiente e di sicurezza.
Ecco i tratti salienti della vicenda.
Nel maggio del 1997 appare per la prima volta a Hong Kong l’influenza aviaria o bird flu; ricompare, in una variante più pericolosa, nel 2003 a Hong Kong. Il virus, denominato scientificamente H5N1, pur essendo tra i più mortali – ha ucciso sinora 330 persone, il 60% dei casi conosciuti (una percentuale assai più elevata, per fare un solo esempio, dell’influenza spagnola che nel 1918 provocò tra 20 e 100 milioni di morti) – si diffonde con difficoltà: non bastano un colpo di tosse o una stretta di mano per il contagio, è necessario il contatto con pollame infetto.
Nel settembre del 2011, al congresso annuale del European Scientific Working Group on Influenza, uno scienziato dell’Erasmus Medical Center di Rotterdam, Ron Fouchier, annuncia di essere riuscito a modificare il codice genetico dell’influenza aviaria e di aver ottenuto un virus trasmissibile con l’aria e quindi altamente contagioso. Per la prima volta nella storia l’uomo manipola una forma di vita di per sé pericolosa, rendendola letale. Più o meno nello stesso periodo di tempo ottiene risultati analoghi un team di ricercatori statunitensi dell’Università di Madison in Wisconsin. Entrambe le ricerche avevano finanziamenti dell’America’s National Institutes of Health (NIH).
L’annuncio di Fouchier provoca preoccupate reazioni a livello mondiale. Si teme che la diffusione dei dati riguardanti l’esperimento, seppur utile al fine di studiare il comportamento del virus e prevenire possibili epidemie, ne permetta la riproduzione da parte di laboratori non forniti di attrezzature di biosicurezza o, peggio, da parte di sperimentatori dilettanti – i c.d. scienziati DIY (do it yourself) o biohackers che conducono i loro esperimenti in cantina o nel garage di casa – con il rischio di incidenti o di immissione involontaria nell’ambiente di agenti patogeni oppure da parte di gruppi o organizzazioni terroriste o anche di “stati carogna” che intendono creare letali armi biologiche.
Negli Stati Uniti, un organo consultivo del governo federale, il Comitato scientifico nazionale per la biosicurezza (US National Science Advisory Board for Biosecurity – NSABB) interviene e richiede alle due più importanti riviste scientifiche, Science e Nature di non pubblicare i dati dell’esperimento in modo da non agevolare la riproduzione del batterio modificato. Le due riviste aderiscono alla richiesta, pur precisando che si trattava di una decisione di carattere volontario e temporaneo.
Poco dopo, nel mese di dicembre i Governi degli Stati Uniti e dell’Olanda proibiscono la pubblicazione della documentazione che rendeva noti i dettagli tecnici dei due esperimenti, utilizzando disposizioni dettate per restringere la diffusione di informazioni e di materiali idonei ad utilizzazioni non solo civili ma anche militari (nell’Unione europea è vigente una precisa normativa in materia di biosicurezza: si veda European group on ethics in science and new technologies, Ethics of synthetic biology, Bruxelles 17 novembe 2009 pag.27 e segg. in http://ec.europa.eu/bepa/european-group-ethics/docs/opinion25_en.pdf). Le decisioni sollevano un accesa polemica in merito alla ammissibilità di interventi di autorità pubbliche volti a proibire o limitare la diffusione di informazioni sulle ricerche scientifiche in corso che, pur agevolando il progresso scientifico ed essendo quindi funzionali a produrre benefici, possono porsi in contrasto con esigenze di tutela della salute pubblica o di sicurezza nazionale o internazionale. È una riproposizione del c.d. “dual-use dilemma” dell’epoca della scoperta della bomba atomica. Con questa espressione si indicano le questioni che sorgono ogni volta che una ricerca scientifica innovativa non è solo idonea a produrre benefici per l’umanità, ma è anche fonte di pericoli se utilizzata per altre finalità. Può accadere che i pericoli non siano inizialmente previsti e quindi l’impiego dannoso costituisca una distorsione successiva dello scopo per la quale la ricerca è stata avviata. Ma in molti casi, primo fra tutti quello concernente la realizzazione della bomba atomica, la coesistenza di aspetti benefici e dannosi è chiara fin dall’inizio.
Nel dibattito sulla diffusione dei dati riguardanti il virus prodotto da Fouchier prevale nettamente l’orientamento contrario a interventi autoritativi volti a limitare la libera circolazione dell’informazione scientifica; così nel mese di aprile il NSAAB ritira la propria richiesta, anche a seguito di alcune modifiche e precisazioni introdotte dallo stesso Fouchier nell’articolo in pubblicazione. A seguito di questa decisione anche il Governo statunitense revoca la propria opposizione alla pubblicazione. Analoga decisione viene assunta poco dopo dalle autorità olandesi.
Si giunge così alla pubblicazione dell’articolo.