CC

Licenza Creative Commons
Questo opera di above the cloud è concesso in licenza sotto la Licenza Creative Commons Attribuzione 3.0 Italia.
Based on a work at scienceabovetheclouds.blogspot.com.
Le notizie raccolte sono etichettate per contenuto e argomento e sono pensate in modo tale da essere "utili" anche a distanza di mesi. Ogni news tratta da articoli peer reviewed (non opinioni!!) è contestualizzata e collegata a fonti di approfondimento. Ben difficilmente troverete quindi notizie il cui contenuto è datato e privo di interesse.
Questo almeno è il mio obiettivo.
Gli hyperlink presenti nel testo dell'articolo (parole con diversa tonalità di colore) rimandano a pagine SICURE.

Volete aiutare il blog? Cliccate sugli annunci sponsorizzati da Amazon (se non li vedete, modificate l'Adblocker per vedere solo Amazon). Se poi decidete di provare Prime o comprate qualcosa Amazon sarà ancora più felice. Tutto qui :-)

Una cuffia refrigerante per prevenire la perdita dei capelli post-chemio

La perdita dei capelli che segue quasi inevitabilmente la chemioterapia ha un impatto rilevante sullo stato emotivo delle persone, soprattutto le donne, già in stato di stress per la malattia.
Sebbene non tale perdita non sia definitiva e non riguardi tutte le chemio (dipende dal tipo di farmaco e soprattutto dalla specificità di somministrazione), rappresenta un ulteriore destabilizzante e non a caso è tra le prime domande che le pazienti pongono al medico.
Ad alcuni, soprattutto osservando il fenomeno "dall'esterno", potrà sembrare una preoccupazione secondaria rispetto alla malattia o ad altri e ben più fastidiosi effetti collaterali, ma qualunque medico sa che minimizzare lo stress emotivo ha un ruolo chiave nel massimizzare le probabilità di successo della terapia. Prevenire la perdita dei capelli aiuta in un certo senso ad affrontare meglio lo stress della malattia e quindi ad affrontare gli alti e bassi che la persona inevitabilmente incontrerà nel suo percorso.
Già negli anni '80 si sapeva che raffreddare il cuoio capelluto riduceva il problema grazie al decremento del flusso sanguigno nei follicoli piliferi e con esso dei farmaci citotossici. Mancava tuttavia uno strumento certificato come "utile" dagli enti regolatori.
Una mancanza risolta poco tempo da Sara Hurvitz, direttore del programma di ematologia e oncologia presso la UCLA, il cui prototipo dal nome DigniCap, è stato approvato nel 2015 dalla FDA americana.
DigniCap
A suggellare ulteriormente l'efficacia del prodotto arrivano ora due studi pubblicati sul Journal of the American Medical Association, che quantificano in almeno il 50% la riduzione della perdita, rispetto ai controlli che non ne hanno fatto uso.
DigniCap si presenta in modo simile ad una comune cuffia da nuoto, con la particolarità di essere collegato ad una macchina refrigerante. Perché il suo effetto protettivo si palesi deve essere indossato durante e fino a 2 ore dopo il trattamento, quindi non rappresenta un ulteriore carico per il paziente che rimane già di suo in osservazione in ambulatorio una volta terminata l'infusione.

Come detto, la perdita di capelli è un fenomeno temporaneo ma è anche vero che la ricrescita è spesso associata a variazioni del colore e delle caratteristiche del capello. DigniCap si è dimostrato utile anche per minimizzare le alterazioni del capello mantenendo così una fisionomia "normale" durante tutta la fase del trattamento.

Si tratta chiaramente di un "trattamento" non terapeutico ma di supporto psicologico.
Questo è in linea con le linee guida di oncologi di chiara fama come Umberto Veronesi che mettevano sullo stesso piano l'utilizzo della migliore terapia disponibile con la massimizzazione del benessere psicofisico della persona. I due aspetti vanno a braccetto e aiutano la persona, anche se in modi diversi.

Fonti
-  Association Between Use of a Scalp Cooling Device and Alopecia After Chemotherapy for Breast Cancer
Hope S. Rugo et al, JAMA. 2017;317(6):606-614

-  Scalp Cooling to Prevent Chemotherapy-Induced Alopecia: The Time Has Come
Dawn L. Hershman, JAMA. 2017; 317(6):587-588

- Cooling System to Prevent Hair Loss 
Rebecca Voelker, JAMA. 2016; 315(3):243-243


Fruttosio. Oltre alla dieta è il cervello stesso a produrlo

A volte i nomi "amichevoli" traggono in inganno rinforzando l'associazione tra una molecola e un prodotto naturale "buono".
Fruttosio
Un esempio classico è quello del fruttosio, uno tra gli zuccheri più abbondanti nella frutta, e per questo motivo spesso preferito, insieme al miele, al posto del saccarosio, lo zucchero "comune".
Fin qui niente di male, purché (ma questo vale per tutto) il prodotto venga usato in modo quantitativamente "intelligente".

Il problema sorge con l'accoppiata "percezione di minor danno in quanto presente nella frutta" e l'intensivo uso che l'industria alimentare fa di questo zucchero (sotto forma di sciroppo di mais); il risultato netto è un incremento del suo consumo reale. Se a questo aggiungiamo il fatto che il fruttosio è da tempo indiziato di essere uno tra i responsabili dell'aumentata incidenza di obesità e diabete di tipo 2, allora le ragioni per considerarlo un "falso amico" ci sono tutte.

Come detto il fruttosio non è un prodotto cattivo di suo ma presenta caratteristiche che possono facilmente diventare negative in certe situazioni.
  • Ha un elevato potere dolcificante (tre volte superiore a quello del saccarosio) il che teoricamente dovrebbe spingere il consumatore ad usarne di meno. Vero però che una volta "cotto" (come avviene nelle preparazioni industriali) il suo potere dolcificante diminuisce, quindi il consumo reale aumenta e con esso il carico glicemico (soprattutto grazie al numero di prodotti che contengono fruttosio).
  • Ha un basso indice glicemico (il che è buono) che si accompagna ad una sostanziale incapacità di attivare la produzione di insulina, al contrario del glucosio. D'altra parte, sebbene sia in grado di stimolare la sintesi dei lipidi (vedi sotto) non ha alcun effetto sulla produzione della leptina, l'ormone della sazietà, aumentando così il rischio di mangiare più del dovuto
  • Tra le ragioni del basso indice glicemico vi è il suo scarso assorbimento da parte dell'intestino, assorbimento dipendente da un trasportatore (GLUT5) diverso  da quello usato dalle cellule per il glucosio. Dato che il fruttosio viene assorbito lentamente e in modo variabile (alcuni individui hanno deficit di GLUT5), il suo accumulo intestinale favorisce il metabolismo batterico locale con disturbi facilmente immaginabili.
  • A differenza del glucosio, metabolizzabile da ogni cellula, il fruttosio è usato principalmente dal fegato che lo stabilizza sotto forma di glicogeno, previa conversione in glucosio, pronto per essere mobilizzato in caso di bisogno. In condizioni normali il fruttosio viene convertito per la maggior parte in glucosio (54%), glicogeno (18%), lattato (15%) e meno dell'1% in trigliceridi. Di questi solo il glucosio e il lattato fungono da "combustibile" usato dalle altre cellule del corpo. Se c'è troppo fruttosio, la capacità trasformativa del fegato viene saturata e quello in eccesso viene trasformato in grasso, soprattutto nei soggetti con ipertrigliceridemia e diabete, innescando così problemi a cascata.
  • In condizioni normali la quantità di fruttosio assunta è ben al di sotto della soglia di rischio. Vale la pena ricordare però che se per assumere 50 grammi di fruttosio servono 5 mele (difficile che qualcuno ne mangi così tante in una volta sola... senza danni), la stessa quantità si ottiene bevendo qualche bicchiere di succo di frutta. Quindi i "limiti naturali" che ben funzionavano in passato sono oggi inefficaci, specialmente con la dieta estiva.

Nel 2013 un team di ricercatori della università di Yale notò che il fruttosio e il glucosio avevano un diverso effetto sul cervello; non solo il fruttosio appariva meno capace di stimolare la sazietà ma aveva l'effetto opposto. I test dell'epoca tuttavia non permisero di capire se l'effetto del fruttosio fosse diretto o mediato da derivati del suo metabolismo.

La risposta arriva oggi con un articolo pubblicato sulla rivista JCI Insight.
I test sono stati condotti su volontari sani a cui è stato somministrato glucosio per 4 ore, misurando poi la concentrazione dello zucchero nel sangue e nel cervello (mediante risonanza magnetica). La scoperta in un certo senso sorprendente fu che l'infusione di glucosio provocava un aumento di fruttosio nel cervello ma non nel sangue, ad indicare che il fruttosio cerebrale non era il prodotto della conversione epatica. L'ipotesi più probabile è che la conversione  avviene a livello cerebrale mediante la via dei poioli (anche nota come via del sorbitolo e aldosio reduttasi) che trasforma il glucosio in sorbitolo e poi in fruttosio.


Tra le considerazioni che questo studio innesca, quella che il livello di fruttosio (almeno nel cervello) non è semplicemente una conseguenza del fruttosio ingerito ma è (anche) il prodotto ultimo della conversione da altri zuccheri. Il problema in tutto questo è che mentre in presenza di glucosio viene attivato lo stimolo di sazietà, con il fruttosio questo non avviene. La scoperta potrebbe spiegare perché un aumento nella quantità di zuccheri ematici non solo non si traduce sempre in una diminuita voglia di cibo ma anzi possa avvenire il contrario.
Limitare l'assunzione di fruttosio servirebbe quindi a poco se si è soliti indulgere in altri zuccheri dato che questi verrebbero poi convertiti in fruttosio.
Il dato è utile prospettivamente per pensare a terapie mirate per contrastare, nei soggetti a rischio, l'aumento del fruttosio a livello cerebrale

Fonte
- Effects of fructose vs glucose on regional cerebral blood flow in brain regions involved with appetite and reward pathways.
Page KA et al. (2013) JAMA; 309(1):63-70

- The human brain produces fructose from glucose.
Hwang JJ et al, (2017) JCI Insight


Se sei una rana vedi i colori al buio

Le rane non sono sicuramente il primo animale a cui pensiamo quando il termine di paragone è la vista. 
credit: jhfestival
Eppure uno studio recente condotto dall'università svedese di Lund ha dimostrato che questi anfibi sono capaci di vedere i colori anche in condizioni di bassa luminosità, cosa per noi impossibile.

La maggior parte dei vertebrati, inclusi gli umani, sono dotati di due tipi di cellule visive, entrambe collocate nella retina, cioè coni e bastoncelli. 
  • I coni sono responsabili della visione del colore grazie alla presenza di fotorecettori specifici situati in modo esclusivo su sottogruppi di coni. Nei primati ne esistono di tre tipi (specifici per lunghezze d'onda del giallo, rosso e verde), mentre in altri animali il numero può essere inferiore o maggiore (alcuni uccelli ne hanno quattro e quindi hanno una gamma cromatica superiore alla nostra). Per funzionare al meglio necessitano di molta luce e questo spiega per quale motivo al buio o in penombra la nostra percezione del colore svanisce.
  • I bastoncelli sono invece di un solo tipo e la loro alta sensibilità alla luce è quella che ci permette di vedere al buio o di cogliere i movimenti sui lati del nostro campo visivo (il cosiddetto "vedere con la coda dell'occhio"). Il picco di sensibilità è intorno a 502 nm.
La diversità funzionale di queste cellule si rispecchia anche nella loro diversa distribuzione sulla retina con i coni molto più concentrati nella parte centrale e nella fovea, mentre tutto il resto dell'epitelio retinico è dominato dai bastoncelli (per approfondimenti vi consiglio di leggere i precedenti articoli sul tema --> "Vediamo in 13 msec" e --> "Vedere agli infrarossi")


Rospi e rane hanno 2 tipi di coni (uno sensibile al giallo e l'altro sia al giallo che al verde) e, cosa assente in noi, 2 tipi di bastoncelli (uno con picco di assorbimento a 502 nm - verde - e l'altro a 433 nm - blu). Una dotazione che aveva fatto supporre che questi animali fossero in grado di distinguere i colori al buio.
Nota. Gli anfibi sono privi di fovea e hanno la curiosa capacità di percepire la presenza di luce grazie a sensori sulla pelle. L'assenza di fovea e la tipologia di cellule retiniche presenti spiega l'alta sensibilità alla luce pur con bassa acutezza visiva, rafforzata tuttavia dalla visione binoculare che è molto utile per calcolare le distanze. In altre parole sono in grado di vedere prede minuscole ma hanno una scarsa capacità di "cogliere" oggetti (magari prede o predatori) se immobili. Sono "programmati" per cogliere movimenti e "trascurare" tutto ciò che è fermo; una strategia utile quando le prende sono tante e non c'è bisogno di andarle a scovare una per una.
La loro capacità di vedere i colori è stata confermata da ricercatori svedesi mediante una serie di esperimenti comportamentali. Tra i dati emersi vi è quella che questi animali usano la visione a colori quando cercano un compagno (non a caso c'è un marcato dimorfismo sessuale cromatico) o cercano cibo e passano alla visione "notturna colorata" in condizioni di scarsa luminosità.

Credit: Carola Yovanovich
Vedere i colori in condizioni di scarsa luminosità non è qualcosa di nuovo (sia le falene che i gechi hanno questa capacità) ma pressoché unica in condizioni di oscurità pressoché totale.


Articoli su argomenti attinenti, cliccando sul tag  --> "Visione"


Fonte
- Thresholds and noise limitations of colour vision in dim light
 Almut Kelber et al, (2017) Philosophical Transactions of Royal Society B. Volume 372, issue 1717


Modificare l'espressione genica per ringiovanire. Luci e ombre dai risultati di laboratorio

Ringiovanire o anche solo rallentare l'inesorabile scorrere delle lancette è un sogno inseguito dagli umani fin dal momento in si accese la scintilla dell'IO e con essa l'inevitabile consapevolezza della propria caducità.
 Sebbene io appartenga più alla scuola di pensiero riassunta dalla canzone "Who Wants to Live Forever?"  dei Queen (colonna sonora del mitico film "Highlander"),  è indubbio che i continui progressi nella ricerca medica abbiano rinforzato in molti il "miraggio della giovinezza".
Non è semplice definire in poche parole la biologia dell'invecchiamento essendo un fenomeno che si manifesta su più livelli. Se guardiamo ad una cellula dobbiamo confrontarci con un valore, il  Limite di Hayflick, che definisce il massimo numero di divisioni a cui una cellula può andare incontro; un valore che nell'essere umano è compreso tra 50 e 70. La capacità replicativa della cellula è soggetta a molteplici controlli e molti sono gli attori in gioco, uno di questi è la telomerasi. Si tratta di un enzima essenziale per "rattoppare" le estremità dei cromosomi - dette telomeri - che per motivi intrinseci al processo replicativo si accorciano ad ogni duplicazione del DNA. Dopo un certo numero di mitosi, il gene codificante la telomerasi comincia a spegnersi, causando così la progressiva riduzione delle estremità cromosomiche non più riparate; quando la lunghezza dei telomeri scende sotto un certo valore la cellula "sente il danno" e attiva il blocco proliferativo. Il processo nel suo complesso è noto come senescenza cellulare. Molte cellule tumorali sfuggono a questo controllo mantenendo attiva la telomerasi, eliminando così uno dei meccanismi di controllo, oltre quello dell'apoptosi (alias "suicidio cellulare programmato"). La senescenza cellulare serve sostanzialmente ad evitare che le cellule "vecchie" (quindi più danneggiate) generino altre cellule in una spirale ascendente di danni genetici. La correlazione tra età e danno cellulare è ben evidente se si osserva l'aumentata frequenza dei tumori nella popolazione con l'aumento della età media. Nelle cellule germinali e in genere nelle cellule staminali, il limite di divisioni cellulari possibili viene superato sia agendo sullo stato epigenetico che attuando una divisione cellulare "asimmetrica" in cui solo una delle cellule figlie mantiene tutta o in parte la staminalità mentre l'altra è "libera" di iniziare il percorso differenziativo.
Se ci focalizziamo invece sull'organismo, l'invecchiamento è il risultato dei danni accumulatisi nelle cellule (tra l'altro divenute metabolicamente inefficienti) e nella conseguente ridotta capacità dei tessuti di ripararsi; con l'età la cute diventa meno elastica, le giunture meno flessibili, le ossa più fragili e siamo in media meno capaci di difenderci sia dai patogeni che dalle nostre stesse cellule "alterate". Ogni ipotetica terapia finalizzata a contrastare l'invecchiamento non potrà quindi prescindere dalla necessità di minimizzare i danni cellulari (impossibile sul lungo periodo dato che una cellula produce le tossine che la danneggeranno) o di sostituire i "pezzi" danneggiati.
Bisogna infine sottolineare che l'invecchiamento non è un fenomeno universale sebbene sia particolarmente evidente nei mammiferi e anche nei lieviti (--> "Non tutti gli organismi invecchiano"). Vedi anche  --> QUI.
Molte sono state le vie percorse (nella realtà o nella finzione narrativa) per inseguire il miraggio della vita "eterna" e per contrastare il naturale decadimento fisiologico. Dal mero assemblaggio di pezzi di ricambio "rigenerati" (--> "Frankestein" di Mary Shelley) oppure "freschi"  (-->  "Non lasciarmi" di Kazuo Ishiguro), alle vere pratiche efferate attuate dalla contessa Erzsébet Báthory (quasi conterranea e contemporanea di Vlad) che usava il sangue delle vergini come balsamo ringiovanente, arriviamo all'immaginario cyberpunk di "Ghost in the Shell" con il suo armamentario di protesi e "editing" genetico (non così "irrealistico" oggi rispetto ai tempi in cui il fumetto uscì). Nel mezzo ci sono tutti gli elisir miracolosi o i nutrienti salutistici di utilità dubbia (ancorché una dieta sana sia importante ma non determinante se abbiamo un background genetico "ottimo" o "cattivo").

Nella realtà odierna, qualsiasi laboratorio di biologia e genetica molecolare "di medio livello" è dotato di tutti gli strumenti per riprogrammare le cellule in coltura, spingendone indietro la lancetta del loro orologio biologico.
Detto così potrebbe sembrare una sorta di Frankesteinizzazione in vitro ma in verità si tratta di metodi sviluppati nell'ultimo decennio per risolvere il problema etico dell'utilizzo di cellule embrionali umane.
Nota. Il problema etico, e le relative limitazioni legali, è un fatto puramente occidentale. In oriente la flessibilità operativa è molto maggiore come ben evidenziato dagli studi sulla clonazione umana in Corea (parlo solo di quelli dichiarati; non dubito che studi simili siano in atto in Cina). Per approfondimenti --> "Il turismo delle staminali".
L'idea di usare le cellule embrionali (e in particolare quelle nelle primissime fasi dopo la formazione dello zigote) è legata alla loro totipotenza, la capacità di originare un nuovo organismo completo, e quindi a qualunque cellula del corpo. Tutte le altre cellule (non solo nell'adulto ma anche quelle dei feti ad uno stadio di sviluppo appena più avanzato) hanno perso tale potenzialità, limitandosi nel migliore dei casi alla pluripotenza;  ad esempio le cellule staminali emopoietiche possono originare i vari tipi di cellule del sangue ma sicuramente non un epatocita. Le staminali prelevate dal cordone ombelicale sono utilizzabili "per sé" (leggasi senza manipolazioni genetiche) come sostituti emopoietici ma non come strumento per riparare altri tessuti.
Le cellule totipotenti sono quelle presenti nelle primissime fasi dopo la fecondazione. Già quando si arriva alla blastocisti il percorso differenziativo possibile è limitato al "solo" embrione (niente sacco vitellino). Un gradino sotto sono le cellule staminali dell'adulto capaci (se presenti) di ripopolare distretti corporei molto specifici (ad esempio le cellule del sangue o quelle della cute). 

Quando si iniziò ad indagare la possibilità di usare le cellule per riparare i tessuti danneggiati, la scelta più ovvia cadde sulle cellule embrionali mancando all'epoca ogni conoscenza su come "convincere" altri tipi di cellule a fare quel lavoro. Negli ultimi anni questa necessità è stata quasi del tutto aggirata grazie agli studi di Shinya Yamanaka e John Gurdon sulla riprogrammazione delle cellule adulte (lavoro che è valso loro il Nobel nel 2012). Per dirla in modo semplice si è scoperto come trattare le cellule differenziate dell'adulto (non tutte per il momento) in modo da far loro "perdere la memoria di cosa erano", rendendole capaci di trasformarsi in un altro tipo di cellula; uno strumento estremamente potente quando il fine è utilizzare le cellule dello stesso soggetto minimizzando così il rischio di rigetto (ad esempio le cellule della cute del braccio per riparare il tessuto cardiaco). Il trattamento si basa sul forzare l'espressione di alcuni geni o mediante l'inserimento degli stessi dall'esterno oppure con trattamenti chimici in grado di "risvegliarli" dal loro torpore "adulto". Quattro sono i geni chiave - Oct4, Sox2, Klf4 e c-Myc - e codificano per proteine regolatorie in grado di di indurre una serie di effetti a cascata.
Nel 2006 si ebbe la conferma che introducendo un cocktail di geni in cellule adulte di topo, queste potevano tornare ad uno stato differenziativo "aperto". I risultati vennero confermati nel 2007 in cellule umane.

Il trattamento è sufficiente per "cancellare" il programma che le cellule avevano seguito durante lo sviluppo embrionale e che le aveva "intrappolate" dentro una finestra di possibilità differenziative ristretta, pronte così per seguire un nuovo percorso.

La gerontologia sperimentale si basa sulle conoscenze acquisite nel campo dell'invecchiamento cellulare sull'uomo e sui modelli animali per sviluppare trattamenti in grado di agire sull'orologio biologico o più prosaicamente per contrastare i danni legati all'età.
Il campo è molto interessante ma altrettanto specialistico; riassumerò di seguito alcuni lavori cercando di condensarli in poche righe.
  • Un primo filone di ricerche parte da un approccio classico (i primi esperimenti risalgono all'inizio del '900) centrato su sulla ricerca di fattori solubili presenti nel sangue in grado di "ringiovanire" i tessuti. Si tratta per dirla in modo più tecnico di esperimenti di parabiosi eterocronica o semplicemente dell'unione chirurgica dei vasi di due animali di età diversa dimostratasi capace di ringiovanire i tessuti dell'animale più anziano. Più recentemente e con modalità nettamente meno invasive si è ottenuto lo stesso effetto dopo iniezioni di plasma prelevato da animali giovani. Elemento comune è evidentemente la presenza nel plasma di un qualche fattore capace di riprogrammare le cellule anziane e/o di riattivare le staminali dormienti. Vedi anche il precedente articolo -->"Il sangue giovane ringiovanisce il cervello vecchio".
  • Il vero punto di svolta lo si ebbe però nel 2006 con gli studi sulla riprogrammazione delle cellule adulte differenziate riportandole ad uno stato pluripotente. L'idea portante era di ricreare qualcosa di simile allo stato germinale, trasferendo il nucleo delle cellule trattate all'interno di uno zigote a cui era stato rimosso il nucleo (nel cui citoplasma rimanevano però le istruzioni "di inizio") ponendo così le basi per la clonazione. Una capacità ottenuta solo in parte e con risultati alterni (in Cina e Giappone è fiorente il mercato legale della clonazione del proprio animale domestico). In un ambito più "scientifico", riprogrammare le cellule dell'adulto è la via "ideale" per il trattamento di patologie degenerative (o successive a lesioni spinali) grazie alla possibilità teorica di generare sostituti dei tessuti lesionati, in primis cellule nervose e muscolari.
  • Più recentemente Alejandro Ocampo e collaboratori hanno descritto in un articolo su Cell che era possibile aumentare la vita media di topi affetti da sindrome di invecchiamento precoce facendo loro esprimere i fattori di riprogrammazione prima citati; la scelta di usare i topi progerici è una "scorciatoia" sperimentale che permette di ottenere più velocemente i dati sulla efficienza di una terapia anti-invecchiamento. Non solo la vita media dei topi aumentava del 20%, ricalcando l'effetto ottenibile con i metodi classici della restrizione calorica nella dieta, ma gli effetti del ringiovanimento erano osservabili sia a livello cellulare che tissutale. La ripetizione dell'esperimento su topi normali ha dato però solo una parziale conferma; i tessuti mostravano sì un netto miglioramento delle capacità funzionali (come la riparazione delle lesioni) nei topi anziani, ma non si sono avute evidenze statisticamente significative di un effetto sulla longevità. Il vero punto importante viene però dall'avere ottenuto gli effetti cercati (almeno nei topi progerici) facendo esprimere i geni candidati solo per tempi limitati evitando così i danni dell'espressione continuata. Esperimenti precedenti avevano infatti dimostrato che forzare l'espressione dei geni in modo continuativo faceva perdere alle cellule lo stato differenziato e nell'animale si aveva un aumento della frequenza di tumori - teratomi nello specifico. Dato che lo scopo primo è ripristinare lo stato pre-senescente, la perdita dello stato differenziato è inutile ancorché dannosa. Esperimenti simili, ovviamente SOLO in coltura, sono stati condotti anche su cellule umane con risultati paragonabili.

L'obiettivo della ricerca futura non è - spero - quello di renderci immortali ma di sviluppare strategie per massimizzare la guarigione delle ferite, ripristinando la capacità presente naturalmente negli organismi giovani di riparare i tessuti e rimuovere efficacemente le scorie del metabolismo, causa prima dell'invecchiamento dei tessuti.


Fonte
In Vivo Amelioration of Age-Associated Hallmarks by Partial Reprogramming
Ocampo, A. et al. Cell 167, 17191733 (2016)




Risonanza magnetica e lettura del pensiero

L'idea di potere leggere la mente evoca inevitabilmente i maghi delle fiere di un tempo o nei più ansiosi l'esistenza di chip cerebrali con cui i poteri forti controllano il comportamento degli sventurati sotto il loro influsso.
di Sahakian & Gottwald
La verità è che sebbene nella realtà siamo molto lontani dall'immaginario cinematografico, esistono già oggi degli strumenti che permettono di indagare i pensieri del volontario analizzato. Meglio chiarire subito che si tratta di tutto fuorché di strumenti invisibili (occupano una stanza) e capaci di visualizzare su uno schermo l'immagine nitida del nostro pensiero. Si tratta invece del miglioramento di tecniche in uso da qualche anno e che sono ampiamente usate nella diagnostica per immagini, come la risonanza magnetica funzionale (fMRI). L'indagine scientifica delle potenzialità di questi strumenti, capaci sicuramente di svelare le emozioni e il contenuto "oggetto" dei pensieri, è riassunta nel libro "Sex, Lies, and Brain Scans: How fMRI reveals what really goes on in our minds" scritto a quattro mani da Julia Gottwald e Barbara Sahakian.

Un libro interessante non solo per l'analisi dello stato dell'arte nei modi per rilevare e comprendere i dati della complessa rete neurale ma anche di interrogarsi su quali siano i limiti (intrinseci alla tecnica e quelli eventualmente da fissare) di queste tecniche. Un conto è infatti l'analisi della funzionalità cerebrale (normale e patologica) e un altro è quello di una potenziale invasione della memoria e, perché no, una modifica dall'esterno della stessa (vedi le potenzialità insite nella tecnica nota come Stimolazione Magnetica Transcranica).

Un esempio di analisi al fMRI
Non si tratta di un limite facilmente delimitabile in quanto molti sono i casi in cui il confine potrebbe (e dovrebbe) essere superato; pensiamo alla rimozione o neutralizzazione di memorie "dannose" che è una delle possibilità terapeutiche per le persone affette da stress post-traumatico oppure al monitoraggio delle persone incapaci di comunicare con il mondo esterno e di cui oggi si può solo dire che hanno attività corticale (quindi sono vivi) ma null'altro. O ancora pensiamo ad un modo semplice, veloce e indolore per interrogare un sospetto.

Ed è  proprio alla rilevazione delle bugie, e all'evoluzione dei metodi di indagine, che viene dedicata una parte del libro. Se in una prima fase gli studi si erano focalizzati sulla identificazione delle aree cerebrali attivate durante "la bugia" oggi si è passati all'identificazione vera e propria della bugia usando la fMRI come una macchina della verità "migliorata". Il tutto grazie allo sviluppo di algoritmi capaci di imparare dalle risposte preparative e in grado di tenere conto della variazione di parametri non percepiti nemmeno dal soggetto in esame, come le emozioni che parole o immagini sono in grado di scatenare.
fMRI
Nei test condotti finora si è osservato che gli algoritmi "evoluti" si sono dimostrati in grado di distinguere tra bugie e verità nel 90 % delle risposte contro il 70 % ottenibile con i test alla macchina della verità. Ancora troppo bassa perché abbia un valore legale non solo per il 10 % di falsi positivi o negativi ma soprattutto perché il vero obiettivo è distinguere le memorie  vere da quelle false, queste ultime spesso condizionate dalle proprie credenze. Una persona potrebbe essere veramente convinta di avere commesso un crimine e questa convinzione apparirebbe come reale durante l'analisi.

Non da ultima c'è l'analisi dei limiti oltre i quali queste indagini non possono spingersi se non vogliamo cadere nell'incubo di un Grande Fratello onnisciente. Un problema che per il momento non sussiste dato che gli strumenti per la fMRI sono tutto fuorché invisibili e richiedono per essere utilizzati sessioni di studio di parecchie ore e in fase di immobilità: per impedire la lettura ti basterebbe infatti muoverti appena durante la scansione per rendere illeggibili i dati.

Al netto di queste tematiche c'è sempre da ricordare che la fMRI non è una sfera di cristallo e che c'è ancora molta strada da fare prima che esca dall'ambito clinico o della ricerca. Tuttavia nei sempre più politicamente corretti USA c'è qualche società che ha pensato di usarla per assumere solo persone prive di pregiudizi inconsci verso una qualunque delle minoranze, credenze o mode in voga al momento (è noto infatti che lo spauracchio di cause legali sul luogo di lavoro sono da anni una delle principali cause di licenziamento).

***
Un esempio delle potenzialità della fMRI. Di seguito una comparazione tra l'immagine vista dal soggetto in studio e l'immagine ricostruita al computer semplicemente scansionando l'attività cerebrale
dettagli nell'articolo

Altri articoli correlati


Al posto dei probiotici useremo capsule con batteri

Il tratto digestivo contiene migliaia di miliardi di batteri, molti dei quali utili nel processo digestivo e per tenere sotto controllo i batteri nocivi. Recenti studi hanno dimostrato che alcuni di questi batteri possono influenzare, nel bene e nel male, diabete, patologie cardiovascolari e cancro. 

Nota. Il tema "patogenicità" è alquanto sdrucciolevole essendo in genere il risultato di una assenza di equilibrio tra "ospite" e "ospitato". La coabitazione si ottiene quando entrambi hanno un mutuo vantaggio o semplicemente "assenza di danno". Uno dei principali responsabili della comparsa di patologie successive "all'incontro" con microbi (fatti salvi quelli "francamente patogeni") è il nostro sistema immunitario e più specificamente l'induzione di uno stato infiammatorio cronico. L'infiammazione nello stato acuto è fondamentale per debellare una infezione o riparare un danno, ma se cronicizza è di suo causa di danni tissutali anche permanenti. L'esempio classico è nella correlazione tra scarsa igiene dentale (quindi infiammazione cronica delle gengive) in giovane età e il rischio elevato di patologie del miocardio in età matura; sebbene la causa prima sia l'entrata di alcuni batteri nel flusso sanguigno e il loro depositarsi nei tessuti cardiaci il danno non è legato alla loro proliferazione ma alla risposta immunitaria che provoca danni al miocardio i cui effetti diventano evidenti sul lungo periodo.
Imparare a conoscere i microbi con cui conviviamo è quindi la chiave di volta per massimizzare la loro utilità e contrastare, modificando la composizione della loro popolazione, quelli negativi. Per avere una idea di quanto il nostro stato sia intrinsecamente "legato" a quello dei microbi ospiti, pensate che una persona di 70 kg è fatta di circa 3,8 x1013 cellule e ospita sulla sue superficie (ivi compresa quella intestinale) 3 x 1013 cellule microbiche. Un rapporto quasi di 1:1 (Ron Sanders et al, 2016) come a dire che metà delle "nostre" cellule è batterica.

Tra i tanti gruppi impegnati in questi studi, segnalo oggi il lavoro condotto da un team del MIT di  Boston.
Il lavoro pubblicato dal team di Ana Jaklenec sulla rivista Advanced Materials, è centrato su come inglobare batteri utili all'interno di rivestimenti polimerici di una capsula in modo da farli transitare in tutta sicurezza attraverso il brodo corrosivo dello stomaco e il potere emulsionante dei sali biliari fino all'intestino dove colonizzeranno (come fanno tutti i loro simili) le mucose, sostituendosi idealmente ai ceppi patogeni o semplicemente non ottimali (come quelli associati all'obesità). 
Microbi e obesità. Molteplici modelli animali (e alcuni studi su essere umano) hanno dimostrato che il trapianto (leggasi trasferimento di residui fecali) da un donatore normopeso ad uno obeso è sufficiente a trasformare l'animale da obeso a normopeso, a parità di dieta. Una chiara indicazione del rapporto causa-effetto tra i due.
Un esempio di prodotto da scaffale
Nello specifico, le capsule qui testate sono dotate di un rivestimento polisaccaridico fatto di chitosano e alginato. Oltre alla biodegradabilità, questi zuccheri complessi hanno il vantaggio di essere mucoadesivi, di attaccarsi cioè alle pareti intestinali, favorendo così il rilascio locale dei batteri. I test sono stati condotti usando il Bacillus coagulans, un batterio già in uso nel trattamento della colite e della sindrome dell'intestino irritabile. Questo ceppo non si trova normalmente nell'intestino umano, ma si è dimostrato molto efficace nell'alleviare il gonfiore addominale e il dolore associato, grazie alla sua capacità di produrre acido lattico.
Sebbene possa sembrare strana l'idea di trattare una colite fornendo dei batteri, bisogna ricordare che la causa prima di queste patologie è uno sbilanciamento della popolazione microbica locale verso ceppi meno benigni che a sua volta induce uno stato infiammatorio cronico. Fornire ceppi benigni (e tollerati dal sistema immunitario che li riconosce come "non pericolosi") è il modo più naturale per spegnere la miccia. 
La superficie carica negativamente del Bacillus è ideale per l'assemblaggio dei 4 strati del rivestimento della capsula, grazie all'alternanza delle cariche positive del chitosano a quelle negative dell'alginato, con il risultato di una capsula ben compatta.
I batteri incapsulati hanno un tasso di sopravvivenza al transito gastrointestinale sei volte maggiore di quello dei batteri non rivestiti.

Capsule del genere sono in tutto e per tutto dei probiotici ma a differenza di quelli reperibili in farmacia o nei reparti frigo dei supermercati, sono personalizzabili e con una efficienza di colonizzazione molto più alta. Gran parte dei batteri presenti nei vari prodotti oggi in commercio sono invece "labili" e con scarsa resistenza al transito gastrico; il che si traduce in una variabilità nel dosaggio utile, che è individuo e dieta specifico.

I primi beneficiari di questi trattamenti saranno le persone afflitte da coliti ricorrenti come le persone affette dal morbo di Crohn.



Fonte
- Layer-by-Layer Encapsulation of Probiotics for Delivery to the Microbiome
Anselmo AC et al, (2016) Adv Mater. 28(43):9486-9490


http://news.mit.edu/2016/delivering-beneficial-bacteria-stomach-gi-tract-0914

Disegnare molecole analgesiche in grado di funzionare solo dove serve

Gli oppiacei sono tra i migliori strumenti a disposizione del medico per il trattamento del dolore conseguente a danni tissutali e infiammazioni. Tuttavia, possiedono un lato oscuro di primaria importanza consistente in effetti collaterali da moderati a molto seri come sonnolenza, stitichezza, depressione respiratoria e elevata capacità di indurre dipendenza.
Un problema quest'ultimo particolarmente importante negli USA dove si parla apertamente di vera e propria epidemia legata all'abuso di sostanze antidolorifiche, prodotti di facile accesso grazie alle prescrizioni mediche (--> The Guardian).

L'effetto analgesico degli oppiacei si attua su almeno tre livelli:
Il controllo del dolore avviene a più livelli

Fatta salva la necessità (soprattutto in senso etico) di neutralizzare per quanto possibile il dolore è ugualmente importante minimizzare gli effetti collaterali e il rischio di dipendenza (fortemente legato all'attivazione del circuito della ricompensa). Per questo fine una delle vie percorribili è la sintesi di farmaci in grado di funzionare solo dove necessario.
Facile a dirsi nel caso di lesioni periferiche o superficiali, molto meno quando il dolore è interno o oramai cronicizzato con tutto il carico di modificazioni neuronali che questo comporta. In questi casi gli analgesici "utili" sono di terzo livello (in genere oppiacei) i quali funzionano legandosi a recettori "profondi" nel sistema nervoso.
Nello specifico, il bersaglio funzionale sono i recettori oppioidi, il punto di azione naturale di molecole endogene come le encefaline e la beta-endorfina.
Tre sono le classi di recettori noti:
  • μ: genera analgesia (a livello sovraspinale), miosi, depressione respiratoria, riduzione motilità gastrointestinale, euforia;
  • k: genera analgesia (a livello spinale), miosi, depressione respiratoria, disforia (a differenza dei recettori μ), riduzione motilità gastrointestinale;
  • δ: non genera analgesia, ma diminuisce il transito intestinale e deprime il sistema immunitario.
All'interno di ciascuna classe esistono poi nella popolazione molteplici varianti che spiegano la diversa sensibilità delle persone ai farmaci antidolorifici (e anche alla percezione del dolore).

L'oppiaceo per antonomasia, la morfina, agisce come agonista sui recettori di classe μ e solo parzialmente su quelli di classe δ. Un farmaco ideale dovrebbe in qualche modo funzionare solo sui recettori μ (da qui in poi MOR) coinvolti nel circuito analgesico voluto evitando però ogni effetto su respirazione e mobilità intestinale. Ancora più importante, il farmaco non dovrebbe agire sulle cellule del circuito della ricompensa in modo da minimizzare i problemi di dipendenza.
Il problema è che trattandosi dello stesso recettore, sebbene localizzato su cellule o in distretti diversi, non è possibile che l'oppiaceo leghi solo il recettore sulle cellule del circuito X ma non del circuito Y; problema rafforzato dal fatto che la somministrazione del farmaco in questi casi avviene per endovena o con catetere spinale, rendendo quindi "automatica" la diffusione sistemica del farmaco e quindi l'attivazione generalizzata dei MOR.

Il team di Christoph Stein ha pubblicato nei giorni scorsi su Science i risultati di uno studio centrato proprio sullo sviluppo di farmaci analgesici ad azione mirata o meglio sulla modificazione di un farmaco già in uso in modo da renderlo funzionante solo nei tessuti danneggiati.
Punto di partenza è stato il considerare che lo stato infiammatorio associato al dolore - come nel caso di artrite, neuropatie o intervento chirurgico - è quasi sempre accompagnato all'acidificazione del tessuto colpito.
Con questa premessa i ricercatori si sono chiesti se fosse possibile sviluppare un farmaco agonista in grado di legare i recettori solo in condizioni di basso pH, lasciando così liberi (quindi non attivando i segnali a cascata) i MOR nei tessuti a pH normale.
La chimica ci insegna che "predizioni" del genere si ottengono dall'analisi della struttura della molecola e in particolare dal parametro pKa. Il pKa è la costante di dissociazione di una molecola che permette di predire lo stato (protonato o meno) della molecola al variare del pH. Modificando la molecola è così possibile ottenere un pKa "utile" allo scopo.
Il gruppo di Stein ha usato come molecola di partenza il fentanyl (un analgesico oppioide più potente della morfina), il cui pKa è 8,77. Il valore del pKa ci dice che la molecola sarà protonata sia nei tessuti normali (pH 7,4) che in quelli  infiammati (pH 5-7). Dato che lo stato protonato del fentanyl è necessario per la sua funzione (solo così riesce ad interagire con un dato aminoacido - il glutammato -  nel recettore) il pKa ci dice che il fentanyl sarà in grado di interagire con tutti i MOR con cui verrà a contatto.

Se vogliamo che la sua specificità aumenti, sia ristretta cioè solo ai recettori localizzati nei tessuti infiammati, bisognerà modificare la molecola in modo che il pKa abbia valore tra 6 e 7 (un pKa inferiore a 6 limiterebbe la sua funzionalità solo ai tessuti troppo infiammati e/o con danno avanzato).

Per seguire questa idea i ricercatori hanno per prima cosa eseguito simulazioni al computer della molecola scoprendo che si poteva ottenere il pKa desiderato inserendo un atomo di fluoro al posto di un idrogeno in diverse posizioni.
Il fluoro "decisivo" nel fentanyl
modificato (alias NFEPP)
Dopo avere creato un certo numero di molecole sperimentali si è passati ai test di laboratorio, selezionandone una con pKa pari a 6,8 e dotato quindi di una interazione più debole con il recettore a pH fisiologico, ma "protonato al punto giusto" nei tessuti infiammati.
Passo successivo è stato testare il miglior candidato disponibile (che abbreviamo per semplicità con NFEPP) mediante test di funzionalità e tollerabilità in modelli animali.
Anche qui i risultati sono stati positivi:
  • mentre la somministrazione endovenosa di fentanyl provocava analgesia generalizzata, il NFEPP (sempre per via endovenosa) produceva l'effetto analgesico ricercato solo nelle zone infiammate. 
  • Alte dosi di NFEPP non provocavano (a differenza del fentanyl) sedazione o depressione respiratoria. 
  • A riprova della specificità di azione, il trattamento con un antagonista classico come il naloxone, incapace di penetrare la barriera ematoencefalica, eliminava completamente l'azione analgesica del NFEPP ma solo parzialmente quella del fentanyl. Il dato è la migliore dimostrazione che il NFEPP funziona solo a livello periferico.
  • Infine i test critici miranti a escludere il rischio di effetti indesiderati legati all'attivazione dei recettori centrali (nel circuito della ricompensa e quelli responsabili di sedazione, alterazione motoria e depressione respiratoria) o di quelli intestinali (causa di stipsi). Ancora una volta, mentre il fentanyl attivava il circuito della ricompensa (quindi la dipendenza) e alterava attività come locomozione e defecazione, il NFEPP non mostrava alcuno di questi effetti anche alle dosi più alte.
In conclusione, i ricercatori hanno validato una strategia per lo sviluppo di farmaci antidolorifici di nuova generazione, dotati di un profilo di rischio nettamente inferiore.
Nota. Un'altra molecola che ha sfruttato strategie di sviluppo indirizzate ad un effetto più controllato sui MOR è la oliceridina, oggi in fase di sperimentazione clinica.

Fonte
- A nontoxic pain killer designed by modeling of pathological receptor conformations.
 V. Spahn et al. (2017) Science, 355 (6328) pp.966-969



Batteri miccia per il diabete?

La convivenza con i microbi che ospitiamo sulla nostra superficie corporea (sia interna nel caso di intestino e mucose che esterna nel caso della cute) è di mutuo beneficio per entrambi. Noi forniamo loro un habitat in cui vivere e loro ci forniscono sia capacità metabolica aggiuntiva, degli sparring partner per il nostro sistema immunitario e una arma per tenere a bada i microbi patogeni.
Al cambiare delle condizioni dell'habitat cambia anche la popolazione microbica residente in un ciclo resiliente ma allo stesso tempo autoalimentato (vedi sotto il legame con l'obesità). Questo spiega anche l'importanza dei probiotici (di fatto microbi in bibita o pastiglie) dopo terapia antibiotica o in caso di malesseri da "disequilibrio" microbico.
Non a caso quindi lo studio del microbioma ha acquisito negli anni una centralità sempre maggiore, grazie anche ai metodi di indagine genomica oggi disponibili che permettono di ottenere dati sempre più precisi anche su popolazioni microbiche complesse. Come detto, comprendere le variazioni del microbioma, in senso sia quantitativo che qualitativo, ci fornisce una chiave di lettura importante per capire il nostro stato di salute.

L'equilibrio della popolazione microbica
 tiene a bada "i cattivi"
Tra i tanti aspetti che spiegano l'interesse dei ricercatori per il microbioma vi è la relazione tra l'alterazione della flora intestinale e alcune disfunzioni metaboliche come ad esempio l'obesità in un intreccio in cui è a volte difficile capire chi sia causa e cosa l'effetto ma è certa l'esistenza di una correlazione; la flora microbica in un paziente obeso è diversa ed è sia causa che effetto dello stato di obesità.

Un altro campo di interesse è nella comprensione dei meccanismi di innesco, oltre alla genetica predisponente, del diabete di tipo 1 (vedi nota a piè di pagina). Tra le ipotesi più condivise è che una qualche infezione anche asintomatica agisca come miccia inducendo casualmente una risposta "scomposta" da parte del sistema immunitario che "confonde" epitopi presenti sulle cellule beta di Langerhans del pancreas con quelli dell'intruso. Manca ad oggi tuttavia la cosiddetta "pistola fumante", cioè il microbo (batterio, virus o altro) responsabile di mandare "in confusione" le cellule immunitarie nei soggetti geneticamente predisposti.

Sul tema arriva ora uno studio condotto da un team della università di Yale, il cui lavoro è apparso su Journal of Experimental Medicine, focalizzato nell'analizzare il legame tra batteri intestinali e diabete di tipo 1. Il gruppo coordinato da Li Wen ha studiato le cellule immunitarie responsabili dell'attacco, i linfociti T CD8, in un modello murino; si è così scoperta l'esistenza di una proteina in alcuni batteri intestinali avente una struttura molecolare 3D simile a quella di una proteina prodotta dalle cellule pancreatiche che producono insulina. Fenomeni non rari, noti con il termine di mimetismo molecolare, usati da alcuni microbi per confondersi con l'ospite; il nostro sistema immunitario è infatti "addestrato" per non attaccare le "proprie" strutture, il cosiddetto self.
Può però avvenire (ed è qui che entra in gioco la predisposizione genetica) che questa azione di filtraggio e rimozione delle cellule potenzialmente autoreattive non sia stata completa (o il controllo sia difettivo), lasciando in circolazione linfociti pronti a colpire, dietro stimolo adeguato come uno stato infiammatorio, delle strutture totalmente self scambiandole per non self.

La scoperta potrebbe avere implicazioni significative per questa malattia cronica ad esempio agendo preventivamente sul microbioma intestinale  in soggetti con storia familiare di diabete. Come? Potenzialmente mediante l'assunzione di probiotici in grado di sostituire/modificare la popolazione microbica residente.
Chiaramente si tratta di studi preliminari per cui saranno necessarie ulteriori conferme.

Nota. Le due forme di diabete hanno una eziologia alquanto diversa. La forma 1 insorge in giovane età ed è dovuta al "fuoco-amico" del sistema immunitario; il nostro sistema difensivo riconosce come estranee le cellule produttrici di insulina del pancreas e questo innesca l'attacco che porta alla scomparsa di queste cellule. Scomparse (o notevolmente ridotte) le cellule, viene meno anche la produzione di insulina e con questo l'interruttore che permette alle cellule di "catturare" il glucosio dal sangue con il risultato di un affamamento cellulare pur in presenza di iperglicemia (che a sua volta causa altri problemi). Il diabete di tipo 2 è invece a insorgenza tardiva (oltre la mezza età) e spesso conseguente ad altre disfunzioni metaboliche (innate o indotte da alimentazione) come l'obesità. Almeno nelle prime fasi della malattia i livelli di insulina sono normali, quello che cambia è la ridotta sensibilità delle cellule periferiche all'azione dell'insulina. La penuria "percepita" di cibo dalle cellule induce una iperproduzione di insulina per compensare la resistenza periferica, ma questo sul lungo periodo si traduce in un "esaurimento produttivo" delle cellule e di qui una carenza reale di insulina; di fatto una trasformazione in diabete di tipo 1 sebbene per motivi non legati all'autoimmunità.

Per approfondimenti sul tema microbiota --> "Il microbiota e noi. Un ecosistema" o clicca sul tag --> "Microbioma"

Fonte
- Microbial antigen mimics activate diabetogenic CD8 T cells in NOD mice
Ningwen Tai et al, J Exp Med. 2016 Sep 19;213(10):2129-46



Riconoscere la propria immagine è sempre segno di autoconsapevolezza?

Specchio, specchio delle mie brame, chi è il più … autoconsapevole del reame?

La capacità di riconoscersi in uno specchio è considerato da molti studiosi indicatore di capacità cognitive non elementari, e base di partenza necessario per l'empatia, altro tratto associato a funzioni cerebrali complesse.
Riconoscersi in uno specchio non è una prerogativa umana sebbene pochi siano i mammiferi in cui è stata certificata.

Ma siamo sicuri che il riconoscere l'immagine riflessa come propria sia veramente indice di consapevolezza del sé oppure si tratta di due fenomeni tra loro distinti?

Uno studio pubblicato da un gruppo di ricercatori cinesi su Current Biology aggiunge nuovi dettagli a questa "intelligenza sottesa" dimostrando che i macachi possono essere addestrati a prestare attenzione alla loro immagine riflessa, cosa che altrimenti non farebbero. Si tratta della prima osservazione in tal senso fatta sulle scimmie.
Tuttavia lungi dal rispondere a vecchie domande, questo studio ne solleva di nuove, in primis sulla capacità cognitiva delle scimmie e a seguire sull'efficacia dello specchio come misuratore dell'intelligenza animale. Una valutazione sintetizzata efficacemente da Gordon Gallup, uno psicologo evolutivo della State University di New York e tra i primi osservatori dell'interazione tra scimmie e specchi in cattività: "il semplice agire come se uno si riconoscesse nell'immagine riflessa dallo specchio non vuol dire essere auto-consapevoli".
Quando un animale vede la propria immagine nello specchio, la sua reazione iniziale è quella di quando vede comparire improvvisamente un'altra creatura: atteggiamenti aggressivi si associano a vocalizzi e ad altri comportamenti tipicamente di classificazione sociale. Proprio il comportamento che Gallup osservò quando mise per la prima volta uno scimpanzé di fronte ad uno specchio. Dopo che ebbe lasciato l'animale in compagnia dello specchio per circa due giorni le scimmie cominciarono a mostrare maggiore attenzione all'immagine riflessa. "Si guardavano l'interno della bocca, e seguivano il movimento della propria lingua riflessa", aggiunge Gallup. 
Queste osservazioni indicavano che gli scimpanzé di fatto avevano imparato a riconoscersi.
Importante menzionare che test "simili" (capacità di riconoscere la propria immagine) sono stati condotti anche su altri animali come delfini, elefanti e corvi. In molti casi si è visto un comportamento che indicava autoriconoscimento, ma i dati sono quasi sempre limitati ad un solo individuo.
Prevedendo lo scetticismo degli altri scienziati, Gallup progettò un test per valutare l'esistenza di un effettivo autoriconoscimento: a distanza di circa 10 giorni dal momento in cui la scimmia aveva cominciato a mostrare a familiarizzare con la propria immagine, questa veniva anestetizzata in modo da poterle applicare (senza che lei se ne rendesse conto) un segno rosso inodore sull'arcata orbitale, una zona a loro invisibile a meno di specchiarsi.
Dopo il risveglio dall'anestesia ed essere nuovamente venute in contatto con lo specchio, la scimmia cominciava prima a toccare la zona colorata annusandosi poi le dita (per capire se fosse sangue?!). Il test, condotto su una dozzina di scimpanzé e su altre scimmie, ha dato risultati molto simili, in particolare sugli oranghi.
Test allo specchio (©Neng Gong/Current Biology)
A distanza di anni, e con l'aumentare dei dati a disposizione, Gallup è tuttavia giunto alla conclusione che le scimmie in realtà non si autoriconoscono nell'immagine riflessa ma "ne prendono atto".
Ad esempio due macachi cresciuti per 15 anni in presenza di uno specchio hanno imparato a non prestare attenzione all'altra scimmia nello specchio. Nondimeno sfruttavano appieno i "vantaggi" forniti dallo specchio usandoli come strumento per accorgersi di movimenti sospetti alle loro spalle, prodotti dagli studiosi quando entravano di nascosto nella loro area.
"Prendere atto" non equivale a indifferenza  ma "accettazione" del fatto che l'immagine non rappresentava qualcosa di cui valesse la pena occuparsi.

Lo studio prodotto ora dal neuroscienziato cinese Neng Gong ha il pregio di completare le precedenti osservazioni di Gallup con nuovi dettagli comportamentali. La domanda di partenza che si pose Gong era se le scimmie potessero essere addestrate a riconoscere se stesse allo specchio. Per tale scopo mise dei macachi proprio di fronte a uno specchio illuminando un punto del loro volto con un raggio laser fastidioso ma ad energia sufficientemente bassa da non essere doloroso. Ogni volta che la scimmia toccava il punto in cui il raggio le colpiva (ricordo che sono messe di fronte ad uno specchio e possono quindi vedere il punto rosso) ricevevano una ricompensa sotto forma di cibo. Dopo avere fatto questi test quotidianamente per un periodo variabile tra 12 e 38 giorni, 5 scimmie su 7 erano in grado di passare il test a suo tempo sviluppato da Gallup; diventavano cioè capaci da subito di identificare la macchia rossa, molto simile alla luce laser per cui erano in precedenza state condizionate. Erano inoltre in grado di sfruttare lo specchio per esplorare parti del loro corpo altrimenti non visibili.
La conclusione formulata da Neng è che le scimmie possiedono l'hardware neurale per l'auto-riconoscimento ma mancano del software per poterlo usare, cioè le istruzioni che possono acquisire solo dopo una adeguata formazione.

Una visione non condivisa da altri ricercatori che invece propendono per una ipotesi minimalista: la scimmia mette in atto solo quello che gli è stato insegnato durante innumerevoli sessioni.
Un concetto che Gallup riassume con "sarebbe come se io fornissi a qualcuno le risposte corrette di un test di intelligenza. Il risultato ottenuto non potrebbe essere utilizzato per attribuire un certo QI alla persona testata".
Diana Reiss, una delle ricercatrici coinvolte nei test di autoriconoscimento condotti su elefanti e delfini, sottolinea invece la differenza tra i risultati ottenuti in animali che esplorano spontaneamente uno specchio (quelli da lei condotti) e i risultati ottenuti sulle scimmie dopo molti test ripetuti e poco "spontanei".

In conclusione non vi ancora accordo sui risultati ottenuti con i test sulla immagine riflessa.
  • Gong ritiene che sia molto difficile capire se le scimmie abbiano o meno autoconsapevolezza di tale immagine. 
  • Gallup propende invece che l'auto-riconoscimento degli scimpanzé rappresenti un "germe" di consapevolezza di sé utile per la comprensione dello stato mentale di altri membri del gruppo (alla base di ogni società complessa). 
  • La Reiss considera tale capacità una proprietà di cervelli sofisticati.
Altri scienziati sono ancora più cauti e sposano le critiche a tali test presentati in un articolo del 1999 pubblicato sulla rivista Animal Behaviour, in cui si afferma che le condizioni in cui sono cresciuti gli animali sono dominanti rispetto ai risultati ottenibili da questi test.

Chiudiamo la parte prettamente scientifica con un video soft sulla reazione di diversi animali delle foreste equatoriali alla propria immagine allo specchio


Potrebbe anche interessarvi l'articolo -->"Grande cervello, tanta potenza?"


Fonti
- Monkeys seem to recognize their reflections
Nature,
- Mirror-Induced Self-Directed Behaviors in Rhesus Monkeys after Visual-Somatosensory Training
 Liangtang Chang et al (2015) Current Biology

Scoprire un antibiotico proprio sotto (anzi dentro) il naso

La comparsa di batteri resistenti agli antibiotici è un problema di sempre maggiore attualità e ad ogni latitudine, conseguenza del loro utilizzo indiscriminato (e spesso poco motivato) nei più svariati campi, dalla sanità all'agricoltura, dagli allevamenti intensivi alla ricerca.

Il detto "in ospedale si entra sani e si esce malati" ha un certo fondamento di verità in quanto è li che è più facile incappare in batteri resistenti, selezionati naturalmente dal connubio tra alta densità umana (e affetta da una qualche patologia) e il trattamento (prima e dopo una operazione chirurgica) con antibiotici di varia natura. Basta un semplice "buco" nelle procedure di sterilizzazione su un uno qualsiasi dei veicoli di diffusione microbica (bagni, condotte dell'aria condizionata, strumenti medici, ...) perché ne siano colpiti soggetti già di per sé debilitati

Ma abbiamo un valido alleato in un batterio che vive proprio sulla mucosa del nostro naso.

Ma andiamo con ordine.
Tra i batteri più spesso sul banco degli imputati nelle infezioni ospedaliere (e non) vi è lo Staphylococcus aureus meticillina-resistente (MRSA) dotato, come dice il nome, di resistenza agli antibiotici appartenenti alla classe dei beta-lattamici. Non si tratta di un batterio mutante nel comune senso del termine ma di un "banalissimo e comune" Staphylococcus aureus che ha acquisito il gene per la resistenza agli antibiotici da altri batteri, attraverso eventi naturali come la coniugazione o l'infezione da batteriofagi. 
Il plasmide portatore della resistenza agli antibiotici viene perso con relativa rapidità a livello di popolazione in assenza di pressione selettiva (alias presenza di antibiotici), essendo un "peso" metabolico per il batterio portatore. Rimarrà tuttavia presente in un ristretto numero di batteri da cui potrà essere condiviso in caso di necessità.
S. aureus in falsi colori
(Credit: CDC via wikimedia)
Come detto lo Staphylococcus aureus è un batterio comune presente sulla cute e sulle mucose nasali di una persone su tre, senza che questo causi alcun problema di salute. I problemi sorgono quando il batterio colonizza spazi che non gli sono propri (apparato urogenitale, circolo sanguigno, ...) causando infezioni anche molto serie, trattabili tuttavia con terapia antibiotica. Chiaramente se il batterio invasore è del ceppo MRSA le armi a disposizione del medico saranno spuntate; che non sia una mera ipotesi lo prova il fatto che in media 2 persone su 100 sono entrate in contatto con il MRSA che rimarrà innocuo fintanto che non gli si presenti l'occasione di superare la barriera della mucosa.
 Negli USA si stima che il numero di decessi legato a MRSA sia di 11 mila persone all'anno. Il problema è particolarmente importante nei soggetti affetti da fibrosi cistica a causa dell'accumulo di muco (terreno ideale per i batteri) nelle vie respiratorie.
Lugduin, un peptide ciclico con anello
tiazolidinico (credit: Mykhal)
In caso di infezione da MRSA ci si basa oggi su antibiotici di classe diversa dai beta-lattamici, come ad esempio i glicopeptidi. Superfluo forse sottolineare che a ruota dietro i nuovi antibiotici sono comparsi nuovi ceppi resistenti.
Un aiuto inaspettato (ma non troppo conoscendo l'origine degli antibiotici) viene da un "cugino" dello S. aureus, lo Staphylococcus Lugdunensis (presente nelle mucose del 9% delle persone) che è capace di produrre una molecola battezzata lugdunin, dotata di forte attività antibiotica contro lo S. aureus.
La scoperta, riportata in un articolo pubblicato da Andreas Peschel sulla prestigiosa rivista Nature, viene dall'evidenza che in presenza di S. lugdunensis, la probabilità di trovare nell'epitelio nasale lo S. aureus è 6 volte inferiore; un forte indizio che i due batteri sono in competizione tra loro e che lo S. lugdunensis è capace di impedire la proliferazione del rivale. 

Se fosse solo questo, la scoperta rientrerebbe nel novero delle osservazioni classiche di prodotti con attività antibiotica destinati a scomparire con la comparsa di un ceppo resistente. Il vero elemento interessante è che la lugdunin oltre ad essere una molecola  di dimensioni più grandi dei classici antibiotici, ha una modalità di azione diversa dal solito (tipicamente inibitori enzimatici o della sintesi proteica o della formazione della parete cellulare o ...), diretta sulla membrana cellulare batterica. Sebbene il meccanismo di azione sia ancora poco chiaro, il punto interessante è che non si è riusciti a selezionare mutanti spontanei di S. aureus in test "facilitanti" durati 30 giorni (se volete vedere la "facilità" con cui possono comparire batteri resistenti vi rimando ad un articolo/video precedente --> QUI).
La continua coabitazione di S. lugdunensis con il rivale S. aureus ha selezionato la comparsa di una arma rivelatasi evidentemente efficace nel corso degli eoni della loro coevoluzione. Questo è il vero elemento differenziante rispetto agli antibiotici oggi disponibili.
E' ancora troppo presto per gridare al successo in quanto dovranno essere prima condotti studi clinici approfonditi ma i test preliminari condotti sui roditori hanno evidenziato non solo la sua sicurezza ma anche la capacità di bloccare infezioni altrimenti letali mediate dallo Staphylococcus aureus; non solo del tipo MRSA ma anche di ceppi resistenti ai glicopeptidi, e di alcune specie di Enterococcus.
Tra le modalità di assunzione dell'antibiotico, lo spray nasale è ad oggi la via più ovvia, anche in funzione preventiva prima o durante le degenze ospedaliere.


Fonte
-  Human commensals producing a novel antibiotic impair pathogen colonization
Alexander Zipperer et al, (2016) Nature 535, pp. 511–516

L'importanza di informarsi e le bufale antiscientifiche sul rischio vaccini

L'articolo di ieri del Corriere sulla decisione del ministro Lorenzin di contrastare in modo deciso i guasti prodotti dalle fake news in ambito sanitario, nello specifico sui vaccini, è meritorio.
Forse è un atto tardivo ma i media devono ricordarsi che la loro prima funzione è "informare" e non "diffondere" passivamente quanto esonda dalla rete; il dovere di cronaca non vuol dire fare da megafono al "nulla" ma riportare la notizia in un contesto di fact checking.

La scienza in generale e la salute in particolare non si basano sulla "democraticità decisionale" ma sempre e solo sui dati; può sembrare una democrazia elitaria ristretta ai soli operatori del settore e in effetti lo è e non può essere altrimenti. Le riviste scientifiche e l'atto di peer review (valutazione di un pari) sono i pilastri su cui si regge la scienza, in quanto permettono di scremare un risultato validato da una osservazione estemporanea (o peggio da dati privi di fondamento). Ancora di più quando si è chiamati a valutare dati che hanno un impatto sulla salute pubblica come è il caso del processo di approvazione di un farmaco. Un processo che potrà sembrare troppo lungo per alcuni ma che deve essere tale data la mole di dati da presentare e i correttivi da apportare perché il rapporto rischio-beneficio sia favorevole alla persona trattata.

Internet ha avuto enormi meriti ed è una preziosa fonte di informazioni soprattutto per chi come me è nato e si è formato nell'era in cui internet muoveva i primi passi e reperire l'informazione era un processo faticoso ancora fortemente basato su biblioteche, congressi e articoli cartacei. Internet è una miniera d'oro se si hanno gli strumenti per pesare le notizie trovate; purtroppo è proprio la mancanza di questi strumenti, specialmente nelle generazioni dei nativi digitali (troppa informazione uguale nessuna informazione) che ha favorito una diffusione senza pari di bufale, che fino a poco tempo fa erano confinate alle osterie o a gruppi minimali.
La politica in questo ambito ha, troppo spesso, svolto un ruolo facilitatore ergendosi a portavoce di istanze in ambito sanitario che definire dubbie è un complimento. Lo si è visto ai tempi della "terapia" Di Bella e poi ancora con il casus Stamina quando personaggi politici di primo piano, ovviamente senza ALCUNA preparazione in ambito scientifico, le avvallarono (ricordo molto bene chi, signor ex ministro della Difesa e signor allora ministro della Salute). Lo si vede oggi quando una armata Brancaleone di seguaci delle teorie di scie chimiche e chip cerebrali, dai loro scranni del parlamento avvallano le idee sulla inutilità, se non dannosità dei vaccini.
Fortunatamente in tutti questi casi ci sono stati personaggi come Silvio Garattini che si sono spesi per contrastare in tutte le sedi mediatiche (dove quindi potevano essere ascoltati dal grande pubblico) una informazione troppo benevola verso vere e proprie bufale ma dai risvolti tragici (scegliere di curare il diabete o il cancro in modo omeopatico non è particolarmente ... utile). Bisogna poi dare merito ad alcuni ministri (per storia e cultura molto lontani dai miei) come Rosy Bindi e Beatrice Lorenzin di avere agito in modo deciso quando necessario.


Ho pensato quindi che fosse il caso di riproporre un articolo qui pubblicato circa due anni fa e dal titolo emblematico "Il ritorno del morbillo: la stupidità si paga".
Purtroppo allora profetico e oggi attuale.
Non vaccinarsi non è un diritto quando questo comportamento sottintende un aumentato rischio per la comunità e soprattutto, nel migliore dei casi, sfruttare la copertura immunitaria passiva generata dagli altri "vaccinati". Soprattutto perché colpisce in primo luogo le persone più deboli della nostra società, quelli che per malattie varie NON possono essere vaccinate e che sono quindi le prime esposte a picchi epidemici.

***

(scienceabovethecloud del 1/2/2015)

Non servivano capacità divinatorie o abilità analitiche degne dei migliori think-tank per prevedere l'epidemia di morbillo che sta imperversando da qualche mese negli USA. Tanto è vero che l'allarme era stato da me rilanciato quasi un anno fa  in articoli tematici (vedi "Vaccinazione morbillo" e "Non abbassare la guardia sul calo delle vaccinazioni").
(wikipedia)
Il punto centrale dell'articolo odierno sottolinea l'impresa (in senso negativo) dell'essere riusciti a trasformare il morbillo, una malattia sotto controllo (in USA e Europa) da più di 15 anni con un numero di casi annuali meno che esiziale, a malattia che si riaffaccia in comunità immunologicamente impreparate  ad affrontarla. 
E questo non perché nel frattempo sia comparso un nuovo ceppo virale particolarmente insidioso o sufficientemente diverso a livello epitopico da rendere meno efficaci le difese immunitarie. La causa è molto più semplice e va ricercata nella sensibile diminuzione delle persone vaccinate (in alcune aree con numeri percentuali a doppia cifra), che si traduce in più persone sensibili all'infezione; maggiore il bacino di infettabili, più probabile è la diffusione dell'epidemia al di fuori del focolaio iniziale. Dato che la vaccinazione contro il morbillo conferisce una protezione pluriennale, ne deriva che i soggetti sensibili per definizione sono i giovani in età scolare o pre-scolare, una età già di suo a maggior rischio a causa della promiscuità sociale a scuola e nei campi gioco.

Paradossalmente il virus del morbillo potrebbe ben figurare come l'esempio da copertina di un virus contro cui il vaccino manifesta una massimizzazione di utilità (durata e grado di protezione) ed efficacia (rapporto rischio-beneficio) proprio per le caratteristiche del virus: 
  • altamente infettivo (valore dell'indice R0 maggiore di 10, tre volte quello dell'influenza). Il virus rimane attivo e contagioso nell'aria o su superfici contaminate per circa due ore dopo che è uscito dal corpo e il periodo infettivo copre l'intervallo compreso tra 4 giorni antecedenti e successivi la comparsa delle macchie cutanee. Sommando questi dati si evince quanto sia facile per un bambino sensibile (cioè privo di anticorpi specifici) essere infettato. Per altre informazioni vedi i dati OMS.
Malattie infettive a confronto. Morbillo (measles) batte Ebola in quanto a numero di persone infettate da singolo individuo malato




  • la bassa variabilità virale permette di avere una immunità pluridecennale post-esposizione, dato che il virus è sempre "lo stesso". Confrontate questa "staticità" con l'estrema variabilità del virus influenzale (per cui è necessario ogni anno una nuova vaccinazione); solo questo fatto dovrebbe togliere ogni dubbio sull'importanza del vaccino contro il morbillo.
  • Uno dei concetti chiave per comprendere come il rapporto tra soggetti immuni (vaccinati o precedentemente esposti) e sensibili in una data popolazione sia determinante per bloccare sul nascere la nascita di una epidemia, è quello della Herd Immunity (immunità di gregge) Ad ogni malattia infettiva corrisponde un valore diverso di "soglia di immuni" al di sopra della quale il patogeno non riesce a innescare l'epidemia. Come evidenziato dalla figura sotto, il morbillo è tra le malattie infettive comuni quello che è in grado di automantenersi in una popolazione quando la soglia di immuni (vedi sopra) scenda sotto il 90%. Bastano quindi relativamente poche persone (tra quelle sensibili) che decidono di non vaccinarsi per trasformare una popolazione immune in un focolaio epidemico; un fenomeno che, per definizione, favorisce l'insorgere di ceppi virali più aggressivi.

  • La Comparazione tra l'infettività di malattie comuni (a sinistra) e la copertura sulla popolazione conferita dal vaccino. Per ulteriori dettagli su R0 e concetto di "Herd Immunity" vi invito a rileggere l'articolo precedente sul blog (QUI) e le referenze a fondo pagina. Per una descrizione più semplice di Herd Immunity -->QUI.
    E qui veniamo al punto dolente. Mai come stavolta si può affermare che più che la ragione potè la credulità popolare, nell'impresa di ridare fiato ad una malattia prevenibile, grazie alle dicerie sul presunto connubio tra vaccinazione e autismo. Un legame totalmente infondato, per vari motivi:
    • eziopatogenesi. L'autismo oltre ad essere una malattia eterogenea e quindi non correlabile ad un singolo e ben identificabile evento (quindi dire che si conosce il nesso causale è un falso), non è nemmeno una malattia che insorge nell'infanzia ma è conseguente a problemi di sviluppo neurologico nella fase embrionale (vedi "Autismo: una patologia geneticamente eterogenea" e articoli successivi per altri dettagli). Un dettaglio non secondario in quanto rende di fatto impossibile teoricamente anche il solo postulare una associazione tra problemi di sviluppo embrionale e vaccinazione infantile: come possa un vaccino avere un effetto retroattivo è un mistero che nessuno dei seguaci di tale ipotesi sembra considerare.
    • Lo studio responsabile di questa credenza venne pubblicato da un medico inglese negli anni '90. Peccato che la teoria formulata, in cui si ipotizzava il legame vaccino/autismo, non solo NON ha mai trovato riscontro in tanti altri studi condotti da allora ma nasce da dati falsi che hanno portato alla ritrattazione dell'articolo da parte dello stesso autore e alla successiva espulsione dello stesso dall'ordine dei medici. ATTENZIONE: non si tratta di un errore di analisi o di dati poi corretti in seguito a migliori tecniche sperimentali (questo è normale e accettabile nella scienza) ma di dati falsificati come appurato da una indagine successiva. Per altri dettagli vedi QUI.
    Nonostante queste evidenze, il rifiuto del vaccino è diventato sempre una più una bandiera sotto la quale sono confluite persone e idee anche molto diverse tra loro, in particolare nei paesi anglosassoni. Ne riparlerò in chiusura di articolo.

    Non sorprende quindi che dal rischio di epidemie si sia passati alla realtà di epidemie in pochi mesi, come egregiamente riassunto nei due articoli pubblicati oggi sul New York Times (vedi link a fondo pagina).
    La conta dei casi di morbillo negli USA secondo i dati ufficiali diffusi dal Center for Disease Control (CDC). Articolo originale QUI.

    La figura parla chiaro. I casi di morbillo sono saliti l'anno scorso a 644, quasi quanto la somma di casi nell'ultimo decennio. E le prospettive sono negative se si pensa che il numero di casi confermati nel solo gennaio 2015 è già a quota 84, concentrati in solo 14 dei 48 stati continentali degli USA, ad indicare una diffusione ancora nelle prime fasi. Non è nemmeno casuale che uno dei focolai dell'infezione sia stato il parco divertimenti di Disneyland, un luogo "ovvio" in quanto concentra in un'area ristretta e molto affollata quelli che sono i soggetti sensibili per definizione (se non vaccinati): i bambini. Soggetti che al loro rientro a casa e prima della comparsa dei segni rivelatori del morbillo avranno tutte le occasioni per diffondere il virus a scuola o durante le attività ricreative.
    Nota. Sebbene possa sembrare ovvio, vale la pena sottolineare che il motivo per cui negli anni passati la frequentazione degli stessi luoghi non abbia alterato sensibilmente il numero di casi di morbillo, a parità di soggetti portatori sempre presenti nella popolazione, era legato al superamento della soglia minima di individui resistenti che rendevano molto difficile al virus trovare "terreni di coltura" adatti. E qui torniamo al concetto di herd immunity che nel caso del morbillo (vedi figura sopra) deve essere superiore al 85-90% dei membri della popolazione in esame. Se prendiamo la popolazione complessiva è probabile che il valore sia (di poco) ancora superiore; se prendiamo però la sottopopolazione degli under-15 (quelli che compongono scuole e campi gioco) tale valore cala drasticamente arrivando al 60%. Una vera "manna" per il virus del morbillo.
    Contrarre una malattia così contagiosa come il morbillo ha immediate ripercussioni sulle comunità colpite e i racconti forniti dal New York Times sono emblematici; ne citerò di seguito alcuni.
    Le scuole hanno ad esempio cominciato con il vietare la frequentazione ai soggetti non vaccinati (sia perché "a rischio" che per rallentare la diffusione dell'epidemia). Stessa cosa per feste di compleanno e attività sportiva dei ragazzi (attività molto più comuni che da noi).
    Un caso emblematico lo si è avuto nella contea di Riverside (a est di Los Angeles), dove in seguito alla malattia di un dipendente della scuola si è deciso per sicurezza di lasciare a casa 40 studenti non vaccinati
    A questo si aggiunge una crescente stigmatizzazione verso coloro ora additati come "irresponsabili egoisti" che per una idea personale hanno di fatto messo a rischio l'intera comunità; ricordiamoci infatti che la vaccinazione è SOPRATTUTTO utile per tutelare coloro che per motivi sanitari (anziani, immunodepressi, bambini pre-vaccinazione) non sono o non possono essere vaccinati. Si è quindi passati da una filosofia permissiva nelle piccole comunità basata sul "se non credi nella vaccinazione, sei libero di non farla" ad esplicite accuse ai vicini per "comportamento negligente e criminale che lede la mia sicurezza e non solo la tua".
    Molti negozi hanno cominciato ad affiggere avvisi sulle vetrine con inviti alle persone con famigliari malati a indossare mascherine prima di entrare.
    Nota. Il problema principale associato al morbillo non è la "malattia in se" ma le complicanze che ad essa possono associarsi. Il fattore rischio aggiuntivo deriva da una capacità peculiare del virus del morbillo che è quella di essere un efficiente immunosoppressore. Minore attività del sistema immunitario si traduce in un aumentato rischio di sviluppare malattie causate da patogeni opportunisti. I numeri sono ancora una volta chiari: 1 bambino su 20 con morbillo contrarrà anche una polmonite (causa principale di decesso nei più giovani); 1 su 1000 si ammalerà di encefalite (causa di convulsioni e potenziale induttore di danni permanenti come sordità o ritardo mentale); ogni 1000 bambini che si ammalano di morbillo, 1-2  ne moriranno.
    Numeri assolutamente inconcepibili e inaccettabili essendo il morbillo una malattia prevenibile.
    Di fronte al tradursi del morbillo da una minaccia ipotetica ad un evento reale gli stessi attivisti del movimento anti-vaccino americano sono passati da una posizione "militante" compatta ad una divisione tra irriducibili ("preferisco che i miei figli perdano anche un semestre a scuola piuttosto che consentire l'iniezione delle tossine del vaccino" [parole testuali]) e dubbiosi corsi dal medico per una vaccinazione last minute dopo aver soppesato i rischi teorici al morbillo reale. Tendenza in aumento dopo che nuovi focolai di morbillo sono apparsi in Nebraska, Minnesota, New York e in varie contee californiane.
    Nota. La corsa dell'ultimo minuto al vaccino è di suo indicativa di una certa ignoranza sui meccanismi di immunizzazione. Una volta ricevuta la vaccinazione sono necessarie circa 3 settimane perché la copertura immunitaria sia evidente (i primi anticorpi cominciano a circolare circa 8 giorni dopo l'esposizione). Non si tratta di una pozione magica o di una medicina che inizia ad esercitare l'effetto subito dopo l'assunzione
    La Casa Bianca ha esortato i genitori ad ascoltare la scienza e non le dicerie prive di fondamento. Un simile appello viene dai funzionari della sanità dello stato dell'Arizona che hanno stimato in almeno un migliaio le persone ad immediato rischio di morbillo, esortando chiunque mostrasse i sintomi a contattare il proprio medico e a minimizzare i contatti con altre persone. Un timore sostanziato dal fatto che domenica sera a Phoenix (Arizona) ci sarà l'evento clou della stagione sportiva americana, il Super Bowl; si vuole evitare che l'evento sportivo (aggregatore di pubblico) diventi un nuovo trampolino di lancio per la diffusione del virus in aree ancora non colpite.
    Le autorità del New Mexico, stato ancora "libero" da focolai, sono consapevoli di essere a rischio sia per la vicinanza con California e Arizona che per l'alto tasso di bambini non vaccinati, aumentati del 17 per cento nell'ultimo biennio.

    Due parole sulle caratteristiche degli appartenenti al movimento anti-vaccino. Si tratta di una compagine alquanto eterogenea per censo, istruzione e motivazioni: andiamo da persone che ancora credono alla validità dell'articolo incriminato di cui sopra a movimenti religiosi che rifiutano pratiche mediche moderne (ad esempio gli Amish) fino alla sottocultura che incorpora idee post-new age e di salutismo assoluto. Una sottocultura molto in voga tra famiglie benestanti e istruite che vivono in quartieri esclusivi di Los Angeles e San Francisco che fanno del motto "all-natural" un modus vivendi per se e i propri figli (le interviste a divi hollywoodiani come Gwyneth Paltrow et similia sono molto indicative).
    Una compagine sempre più estesa che lascia sconfortati molti pediatri di base che lamentano di "sentirsi proiettati indietro negli anni '50" data la percentuale di bambini non vaccinati negli asili che oscilla tra il 20 e il 40 per cento. "Le motivazioni addotte dai genitori per non farli vaccinare sono sempre legate a convinzioni personali" continua il medico intervistato "E' molto frustrante vedere un bambino ammalarsi e soffrire per qualcosa del tutto evitabile".
    Nota. La protezione fornita dal vaccino trivalente è circa del 95%. Fate voi due calcoli tra la certezza di infezione tra un non vaccinato esposto e un vaccinato. Una differenza molto superiore a 95 volte dato che se nella comunità la soglia dei "resistenti" è superiore al 90% (Herd Immunity) la probabilità di "incontrare il virus" diventa meno che decimale.
    Paradossalmente la percentuale di bambini vaccinati è inversamente proporzionale al reddito medio della contea: la classe medio-bassa è più propensa a seguire i consigli dei medici di quelli a reddito elevato. Un caso che mostra come il quoziente intellettivo non va di pari passo con il reddito ...


    Un esempio pratico di Herd Immunity. All'aumentare della percentuale di vaccinati nella popolazione varia la velocità di diffusione di un virus. Alcuni valori corrispondono alle percentuali di vaccinati "reali" in alcune contee USA. Facile notare quanto la variazione al di pochi punti percentuali (sotto il valore soglia) abbia un profondo impatto sulla epidemia. La foto è una istantanea di un video flash disponibile sul sito del giornale inglese The Guardian. Clicca --> QUI per vedere la simulazione interattiva.

    ***

    Il problema però non riguarda solo il morbillo (ne ho discusso QUI) che pur con le complicazioni associate è meno distruttivo di altre malattie per cui esistono dei vaccini. Un esempio eclatante viene  dal caso della contea di San Geronimo, California, una bella area rurale sita 30 miglia a nord di San Francisco. Qui il 40 per cento degli studenti della locale scuola elementare non sono vaccinati per il morbillo e il 25 per cento non è stato nemmeno vaccinato contro il virus della polio. In totale il 58% dei bambini è carente per almeno una delle vaccinazioni standard.

    Chiudo con il citare una chicca tratta sempre dall'articolo del New York Times che esemplifica al massimo il modo di pensare di alcuni che permangono nelle loro convinzioni anti-vaccino.
    La signora McMenimen, una delle mamme che si trova con un bambino con il morbillo, risponde così al giornalista che chiede il perché della scelta di non vaccinare il figlio: "Tobias ha sopportato molto bene sia la varicella che la pertosse, e quest'ultima è stata come un comune raffreddore. Ho solo avuto la tentazione di fargli fare una antitetanica dopo che il bambino si era tagliato con il filo di un recinto ma poi ci ho ripensato. Ha un sistema immunitario così forte"
    Credo non servano altri commenti

    ***

    E l'Italia?
    L'Italia è stata richiamata ufficialmente dall'OMS a causa del calo del tasso delle vaccinazioni obbligatorie. Sarebbe interessante confrontare i dati e pesarli in base ad aree geografiche, censo, livello di istruzione e origine delle famiglie inadempienti. Dati essenziali per capire come correggere un trend inammissibile.
    Casi per milioni di abitanti: <1 (giallo); <10 (arancione); pois (>20)


    Articolo precedente ---> "Il perchè della stagionalità del morbillo". 


    Fonti ulteriori oltre a quelle già citate nell'articolo
    - Dal New York Times

    • Vaccine critics turn defensive over measles (31/1/2015)
    • As Measle Cases Spread in US, So Does Anxiety (31/1/2015)
    • Reckless Rejection of the Measles Vaccine (3/2/2015)
    - Istituto Superiore di Sanità e Ministero della Salute
    - Centers for Disease Control
    - Mayo Clinic
    - National Institutes of Health


    ****
    Se volete leggere altro su casi limite cliccate sul tag dal nome emblematico --> "Dimensione X". Non potrei definire in altro modo l'assurdità che sottende questi casi.


     ****
    Se volete affrontare l'argomento "quanto sono importanti i vaccini e perché" vi consiglio la lettura del libro scritto da Alberto Mantovani, uno che si occupa di scienza 365 giorni all'anno e che rappresenta un fiore all'occhiello della ricerca italiana in ambito internazionale. Il libro è scritto in modo semplice ma rigoroso, pensato apposta per informare e spiegare senza dogmatismi o dietro false ideologie.

    Clicca su Amazon.it per comprarlo o avere maggiori info






    Wikipedia bloccato in Turchia

    Wikipedia bloccato in Turchia
    Un'altra prova di quello che è la Turchia oggi e del pericolo che rappresenta per l'Europa e le sue libertà

    Vi serve un eReader? Date un occhio ai prodotti sotto sponsorizzati

    Prova Amazon Prime Spedizioni pagate per un anno e consegna anche (per prodotti selezionati) entro due ore!!
    Nuovo Kindle Se come me amate la semplicità, affidabilità e costo basso allora il Touch fa al caso vostro
    Prova il nuovo Kindle Vojage!Se il classico Kindle e volete uno schermo da 6" ad alta risoluzione (300 ppi) con luce integrata a regolazione automatica,
    Prova il nuovo Kindle Oasis!Volete solo il top? Ecco allora il top di gamma. Un po' caro ma ...