CC

Licenza Creative Commons
Questo opera di above the cloud è concesso in licenza sotto la Licenza Creative Commons Attribuzione 3.0 Italia.
Based on a work at scienceabovetheclouds.blogspot.com.
Le notizie raccolte sono etichettate per contenuto e argomento e sono pensate in modo tale da essere "utili" anche a distanza di mesi. Ogni news tratta da articoli peer reviewed (non opinioni!!) è contestualizzata e collegata a fonti di approfondimento. Ben difficilmente troverete quindi notizie il cui contenuto è datato e privo di interesse.
Questo almeno è il mio obiettivo.
Gli hyperlink presenti nel testo dell'articolo (parole con diversa tonalità di colore) rimandano a pagine SICURE.

Volete aiutare il blog? Cliccate sugli annunci sponsorizzati da Amazon (se non li vedete, modificate l'Adblocker per vedere solo Amazon). Se poi decidete di provare Prime o comprate qualcosa Amazon sarà ancora più felice. Tutto qui :-)

Genetica della dipendenza da cannabis e depressione: due facce della stessa medaglia

Introduzione
La Montalcini lo aveva detto.
Peccato però che all'epoca la reazione fu una levata di scudi farcita di attacchi personali da parte di chi non solo era privo di titoli scientifici ma, soprattutto, si faceva vanto del dualismo crociano tra pensiero "alto" (lettere, filosofia, etc) e "basso" (le scienze in generale) visto come mero esercizio tecnico. Per dirla semplicemente era per molti inammissibile l'idea stessa che la biologia (e nello specifico la genetica) potesse avere un qualche ruolo nelle malattie e nella dipendenza "in quanto solo frutto di scelte individuali e/o causate dall'ambiente". 
Una corrente di pensiero quella antiscientifica da sempre maggioritaria in Italia innestatasi poi sulla perniciosa moda del politicamente corretto che soppesa ogni affermazione in base al rischio "discriminatorio". Un problema che viene esacerbato dalla pochezza dei media generalisti sempre più alla ricerca di "click" sui social (come si vede dai titoli  acchiappalettori) rispetto a quello che dovrebbe essere il loro vero ruolo: informare sui fatti e fornire a chi ne è privo gli strumenti per contestualizzare le informazioni. 
Cosa disse di così scandaloso la Montalcini? Che alcuni individui sono più predisposti di altri a sviluppare una dipendenza da sostanze psicotrope (droghe, alcol, fumo, etc).
Una affermazione che un qualunque studente impegnato nel corso di genetica-1 (ma anche un liceale) potrebbe spiegare pena l'immediata cacciata dall'aula d'esame.
Eppure la reazione mediatica fu che la Montalcini con tali affermazioni "marchiava" de facto le persone come "ineluttabilmente destinate a diventare tossicodipendenti" e come tale il concetto era discriminatorio e quindi da rigettare. Una risposta scomposta che veniva in primis da persone incapaci di distinguere sia le basi neurochimiche della dipendenza che concetti altrettanto elementari di epidemiologia e statistica.

Parlare di "predisposizione" infatti NON equivale a dire condanna certa ma maggiore probabilità che l'evento X si verifichi. Ovvio no?!
La predisposizione può essere ereditata dai genitori (e qui conta la cosiddetta "penetranza" genetica) oppure insorgere de novo a causa di neo-mutazioni o dalla formazione di neo-aplotipi conseguenti al riassortimento meiotico del genoma parentale. La combinazione di due alleli derivati dai genitori, "innocui" quando in singola copia, può fare comparire l'effetto (o al contrario scomparire) nei figli.
Di fatto tale "predisposizione" non è diversa rispetto a quella che nei soggetti portatori di mutazioni pre-oncogeniche nei geni BRCA1 e BRCA2 si associa al rischio, dimostrato, di sviluppare tumori all'ovaio o al seno. Se nel caso dei geni BRCA il rischio è molto elevato (superiore al 50 %) a causa del ruolo di questi geni nella riparazione del DNA, nel caso di altri geni il rischio incrementale è in genere nettamente inferiore ma nondimeno statisticamente evidente.

Il punto centrale alla base della negazione di genetica della predisposizione è che per troppe persone ancora oggi la dipendenza o in generale ogni problematica legata all'attività cerebrale e al comportamento riguardano un livello superiore dell'essere rispetto alla "mera materia" corporea. Evidentemente non è così come ben dimostra la neurochimica e lo studio delle neuroscienze in generale.

L'affermazione della Montalcini era quindi, da un punto di vista scientifico, innegabile e non avrebbe fatto sollevare nemmeno un sopracciglio di dubbio in qualunque consesso scientifico l'avesse espressa. Sicuramente la dipendenza da sostanze psicotrope è meno compresa rispetto alla predisposizione tumorale data la complessità dei circuiti neuronali che regolano i nostri comportamenti ma il principio è lo stesso. Studiare la neurochimica equivale a capire come agisce la sostanza X; nello specifico quale sia il bersaglio (diretto o indiretto) tra i vari recettori, neurotrasmettitori e canali di membrana (oltre che in quali cellule e distretti cerebrali).
Le sostanze psicotrope agiscono in modo specifico su uno o più circuiti neurali con una certa predilezione (non esclusiva) per l'area sinaptica. In molti casi è il "circuito della ricompensa" (centrato sul neurotrasmettitore dopamina) il bersaglio principale proprio per l'effetto "feel good" che provoca la dopamina.
Va da sé che se un circuito contiene una variante che lo rende più sensibile (ad esempio a causa di una maggiore affinità) ad una data sostanza "ambientale", il soggetto portatore avrà una diversa propensione a subirne gli effetti neurochimici. Al contrario l'assenza dello stimolo riduce fortemente il ricorso ad attività che in condizioni standard provocherebbero piacere (ad esempio i topi privi di recettori per gli endocannabinoidi fanno molto meno jogging sulla ruota e si sa che la corsa libera endorfine ed è per questo che molte persone hanno "bisogno" di correre tutti i giorni).
Questo spiega anche perché a parità di sigarette fumate nell'adolescenza, alcuni diventano fumatori ed altri no, e perché tra i primi alcuni non avranno grossi problemi nel decidere di smettere di fumare dall'oggi al domani mentre altri (a parità di motivazioni) proveranno a smettere ripetutamente nel corso della vita ma con esiti parziali o nulli.
Lo studio
Lo studio, pubblicato sulla rivista JAMA Psychiatry da un team della università di Yale, ha preso in esame il genoma di oltre 14 mila individui alla ricerca di varianti genetiche associabili alla dipendenza da cannabis (la pianta da cui si ricava la marijuana tra i cui principi attivi vi è il THC).
I componenti "attivi" della marijuana, noti come cannabinoidi, provocano indirettamente un incremento dei livelli di dopamina (neurotrasmettitore coinvolto tra le altre cose nel circuito della "ricompensa") attraverso il blocco funzionale del neurotrasmettitore GABA.
Cannabis (credit:
Cannabis Training
University)
In sintesi l'analisi genetica ha dimostrato che vi è una correlazione tra l'essere a rischio dipendenza da marijuana e il rischio della cosiddetta depressione maggiore. In altre parole chi ne fa uso è anche la persona che avrebbe avuto maggiori rischi di depressione cronica, indipendentemente dall'uso di droga.
Lo studio è uno dei primi ad avere identificato le varianti genetiche che aumentano significativamente il rischio dipendenza e deve molto, concettualmente, a quanto si è appreso negli anni sulla componente ereditaria, del rischio alcolismo. Rischio inteso, attenzione, come una maggiore tendenza a trovare "soddisfazione" nell'alcol (o in altre sostanze). Se una persona è più sensibile di un'altra all'effetto di una sostanza, la probabilità che la prima ne abusi (almeno nelle fasi iniziali di "non dipendenza") sarà maggiore.  Un esempio di gene le cui varianti modificano la predilezione per l'alcol (alias quanto si è propensi a bere) è β-Klotho, codificante per una proteina di membrana con effetti di "relay" tra la FGF21 e l'alcol nel sangue.
I risultati potrebbero anche spiegare perché le persone affette da schizofrenia sono molto meno propense ad usare cannabis (quest'ultima "anticipa" l'insorgere delle crisi) forse per la sovrapposizione di alcuni pathway neurochimici.

Particolarmente importanti saranno i dati sulle differenze genetiche tra i soggetti per i quali è stata diagnosticata dipendenza da cannabis e coloro che pur facendone uso non mostrano alcun segno di dipendenza. Per il momento si sa che alcuni dei geni le cui varianti sono "correlabili" alla dipendenza sono coinvolti nella regolazione dei livelli intracellulari di calcio, ione chiave della funzionalità sinaptica.

Il legame tra dipendenza, circuiti della ricompensa e predisposizione "parziale" è riassunto da questo frasi, estratte da una review pubblicata su Cell
(...) most drugs of abuse exert their initial reinforcing effects by activating reward circuits in the brain and that, while initial drug experimentation is largely a voluntary behavior, continued drug use impairs brain function by interfering with the capacity to exert self-control over drug-taking behaviors and rendering the brain more sensitive to stress and negative moods. Indeed, individuals with genetic vulnera- bilities, exposed to chronic stress, or suffering from comorbid psychiatric conditions, as well as those who abused drugs during early adolescence, are at greater risk of transitioning into the automatic and compulsive behaviors that characterize addiction  (...).
[Nora D. Volkow & Marisela Morales (2015), Cell]




Fonte
-  Genome-wide Association Study of Cannabis Dependence Severity, Novel Risk Variants, and Shared Genetic Risks
Richard Sherva, Qian Wang, Henry Kranzler, JAMA Psychiatry. 2016;73(5):472-480

- Genome-wide Significant Associations for Cannabis Dependence Severity
James T. R. Walters & Michael J. Owen, JAMA Psychiatry. 2016;73(5):443-444

- Further evidence found for causal links between cannabis and schizophrenia
  University of Bristol, news

***

Chiusura doverosa la segnalazione (per chi non lo avesse ancora letto) del libro di Rita Levi-Montalcini

Le "Super-Terre" sono i pianeti più abbondanti. E sono i "migliori" per ospitare la vita

La costruzione del telescopio orbitale Kepler è stato il vero punto di svolta per chi, in campo astronomico, si occupa della ricerca di esopianeti, vale a dire di pianeti orbitanti attorno ad altre stelle. Un campo di studio che fino a pochi anni fa suonava come pura speculazione ai confini con l'immaginario della fantascienza, si è trasformato in realtà nel 2009 con il lancio e la successiva entrata in funzione del satellite. Nonostante alcuni gravi problemi occorsi nei primi anni della missione (guasto del giroscopio e quindi compromissione del sistema di puntamento) la mole di dati che ci ha fornito è impressionante con migliaia di esopianeti scoperti pur con una visuale limitata (--> sito ufficiale).

Il puntatore di Kepler dalla sua prospettiva ...
Come spesso avviene è l'accurata pianificazione dei dettagli a condizionare le possibilità di successo di una opera; in questo ambito rientra la decisione presa ancora durante la fase progettuale di selezionare "dove" puntare il telescopio. La scelta di scansionare la frazione della volta stellata appena sopra il piano del disco della Via Lattea (vedi figura) fu considerato il miglior compromesso tra due fattori concorrenti: la presenza di un gran numero di stelle nel campo visivo di Kepler (più sono le stelle e maggiore la probabilità di trovare pianeti); minore il numero delle sorgenti luminose sulle sfondo e maggiore è la possibilità di rilevare le minuscole variazioni di luminosità di una stella durante il transito di un pianeta (vedi nota a fine pagina).


... e da un "punto di vista galattico" (image credit: HarvardX SPU30x)
L'idea iniziale era di scansionare con il tempo diversi "tasselli" della volta celeste fino a coprirne una ampia porzione; purtroppo, come anticipato sopra, il guasto al giroscopio ha impedito al puntatore di funzionare per cui il cambio di "visuale" è stato parziale e ottenuto solo grazie a laboriosi cambi di assetto del satellite. Non lamentiamoci però, dato che pur in condizioni di ripiego i dati ottenuti hanno di gran lunga superato le aspettative più ottimistiche; e il futuro sarà ancora più ricco di sorprese con la prossima generazione di satelliti, TESS e CHEOPS, il cui lancio è previsto entro la fine dell'anno.

Tra le migliaia di pianeti scoperti in questi anni, le cosiddette Super-Terre (pianeti di diametro maggiore della Terra, ma molto più piccoli di Urano) sono per una serie di motivi i candidati più interessanti se lo scopo è valutare la loro capacità di ospitare forme di vita - almeno con biologie per noi immaginabili - più che microscopiche (queste ultime in teoria potrebbero essere presenti nelle profondità di Marte e magari anche in lune come Europa o Encelado dove la presenza di oceani sotterranei è quasi certa).

Cosa rende le Super-Terre dei candidati migliori per la vita rispetto a pianeti più piccoli (i giganti gassosi sono esclusi per ovvie ragioni)? Al netto della posizione del pianeta che deve in ogni caso trovarsi nella cosiddetta zona abitabile (distanza dalla stella in cui l'acqua può esistere allo stato liquido), le variabili determinanti sono la massa (e quindi la gravità) e con essa la maggiore probabilità che un pianeta massiccio sia anche "tettonicamente" attivo e dotato di magnetosfera (diretta conseguenza di età, massa e caratteristiche del nucleo), tutti fattori che concorrono alla esistenza di una atmosfera.

Partiamo dalla massa ...
Le Super-Terre sono, per definizione, più massicce del nostro pianeta ma ben inferiori a Urano, circa 15 volte più massiccio della Terra, che rappresenta il confine tra pianeti rocciosi e gassosi; nell'intervallo di riferimento rientrano le molteplici varianti delle Super-Terre.
La relazione tra velocità di fuga (quindi massa e
gravità) e temperatura superficiale (velocità termica)
permette di predire quali gas sfuggono da un pianeta. 
Pur nella variabilità di composizione (ad esempio la presenza o meno di un nucleo ferroso) la massa del pianeta conferirà gravità sufficiente a trattenere gas "essenziali" (ossigeno, anidride carbonica, vapor acqueo, …) ma non idrogeno ed elio. La massa è quindi un prerequisito perché possa permanere nel tempo una atmosfera "degna" di questo nome. Un pianeta "ideale" come Marte, ha imboccato una strada diversa dalla Terra non tanto per la sua posizione nel sistema solare ma per una massa insufficiente a conservare il calore. Il raffreddamento e l'assenza di magnetosfera hanno a cascata facilitato la dispersione dell'atmosfera nello spazio ("spazzata" via dai pur deboli - rispetto a quelli terrestri - venti solari).

Senza un'atmosfera abbastanza densa da permettere all'acqua di potere esistere allo stato liquido, senza sublimare, anche un pianeta più caldo di quanto sia oggi Marte sarebbe inospitale, almeno sulla sua superficie, per qualsiasi forma di vita basata sull'acqua. Sebbene sia difficile stabilire una soglia precisa, è chiaro che pianeti anche solo leggermente più piccoli della Terra sono più vulnerabili alla massiccia perdita di acqua e ad altri cambiamenti drastici nella loro atmosfera, soprattutto quando orbitano nella porzione più interna della cosiddetta "zona abitabile".
Venere è andato in direzione opposta rispetto a Marte. Sebbene più piccolo della Terra (ma più massiccio di Marte) si è trovato intrappolato in una atmosfera rovente a base di acido solforico e CO2  a causa di un mix tra "massa sufficiente" a trattenere gas serra e attività vulcanica. Risultato, una pressione atmosferica alla superficie pari a circa 92 atmosfere e una temperatura ben superiore a quella di Mercurio!

Pianeti più grossi della Terra, ma con dimensioni compatibili con un pianeta roccioso, non presentano da un punto di vista teorico problemi evidenti riguardo la stabilità atmosferica e sono quindi candidati "migliori" perché la vita possa comparire.
Sappiamo oggi che le Super-Terre sono i pianeti più comuni, anche se in un primo momento erano stati i cosiddetti Hot-Jupiter a finire sui taccuini (per motivi ovvi dato che un pianeta gigante e vicino alla stella è più facile da scoprire di un pianeta come la Terra).
La distribuzione per caratteristiche degli esopianeti finora scoperti (image credit: HarvardX SPU30x)

Con 3440 pianeti confermati (dato del 12/01/2017 --> qui per i dati aggiornati) di cui circa il 30% nella zona abitabile e con dimensioni tipiche da Super-Terra (due parametri che non sempre coincidono), la domanda che sorge spontanea è che tipo di pianeti siano. Difficile generalizzare dato il numero di variabili da prendere in considerazione (posizione, composizione, tipo di stella, profilo spettrale dell'atmosfera ... se presente, massa, densità, ...).
Ad esempio un profilo spettrale mirante a valutare la presenza di acqua (atmosferica) e valori di densità indicativi della presenza di acqua nel pianeta possono essere fuorvianti se lo scopo è desumere la "abitabilità" di un pianeta.
Cerco di spiegare meglio.
Il nostro pianeta visto da lontano apparirebbe come un pianeta poco attraente a causa della scarsità di acqua (0,02% della massa) sebbene i nostri oceani coprano il 71% della superficie! Bisogna però ricordarsi che anche il più profondo degli oceani "scava" una porzione di pianeta inferiore a quello - per analogia - della buccia di una mela. Il che vuol dire che percentuali di acqua simili a quelli terrestri potrebbero sottintendere (in assenza di altri dati) sia a un pianeta veramente "secco" ricco di enormi vulcani che riforniscono l'atmosfera che a un pianeta più "terrestre". Per distinguere tra le due possibilità può venire in aiuto lo studio della composizione atmosferica, possibile associando l'analisi spettrometrica al "transit method" (vedi sotto).
Potremmo però trovarci all'estremo opposto in cui i valori di densità di un pianeta (NON le misure spettrometriche) ci dicono che l'acqua è presente con percentuali a due cifre; ci troveremmo allora di fronte a pianeti ben più estremi del filmico "Waterworld", veri e propri pianeti-oceano privo di continenti e con fondali profondissimi.
Siamo chiaramente limitati nella nostra comprensione dei "mondi rocciosi" possibili, dalla limitatezza di esempi presenti nel nostro sistema solare; limitatezza che aveva fatto ipotizzare che i giganti gassosi fossero sempre localizzati nelle porzioni esterne di un sistema stellare, ipotesi negata con la scoperta degli Hot-Jupiter.
L'esistenza dei pianeti definibili, per caratteristiche di massa e rocciosità, come Super-Terre fu avanzata la prima volta una quindicina di anni fa, predizione confermata nel 2005 con la identificazione del primo esopianeta appartenente a questa categoria.
Negli anni successivi la scoperta di pianeti potenzialmente interessanti si è scontrata con la realtà di posti "infernali". Il pianeta CoRoT-7b (di cui ho parlato nell'articolo "I pianeti più bizzarri scoperti") è un esempio estremo avendo una orbita così prossimale alla stella (periodo di 20 ore!) che anche la sua considerevole massa è insufficiente ad evitare che l'atmosfera venga "spazzata via" nello spazio dal "vento" (e calore) della stella. Altro esempio di "Super-Terra" nel posto sbagliato è Kepler-78b, che con un'orbita di 8 ore è talmente vicina alla stella (seppur una nana fredda) da avere temperature superficiali intorno a 2500 K. GJ1214b è stato uno dei primi esopianeti in cui è stata rilevata presenza di nubi di vapor acqueo sovrastanti un "pianeta oceano" bollente, sempre a causa della vicinanza alla stella.
Super-Terre
Ogni definizione necessita di parametri, che nel caso delle Super-Terre è quella di pianeti con massa compresa tra 1,1 e 10 volte ed un raggio minore di 2 volte quelli terrestri.
La risultante di questi parametri è quella di pianeti rocciosi con una percentuale d'acqua estremamente eterogenea, con valori che si spingono fino a 50-70% della massa.
Pianeta roccioso vs. Waterworld, da non confondere con un pianeta fatto esclusivamente di acqua (possibilità teorica discussa su physics.stackexchange). Image credit: NASA via HarvardX SPU30x)

credit: Henrykus via wikimedia commons
Come possono esistere pianeti dove l'acqua è la maggioranza assoluta della massa? Pianeti del genere rimangono di fatto "pianeti solidi" grazie alle peculiari proprietà dell'acqua che in condizioni di elevata pressione e temperatura diventa più densa che allo stato liquido.
Una affermazione che vi avrà di sicuro fatto storcere il naso: "cosa sta dicendo? E' impossibile dato che non solo l'acqua è incomprimibile ma allo stato solido (ghiaccio) ha anche una densità inferiore alla forma liquida (gli iceberg infatti galleggiano)". Tutto vero ma qui dobbiamo considerare che in condizioni estreme di pressione e di temperatura l'acqua acquista proprietà "esotiche" come il ghiaccio VII o il ghiaccio X che rendono possibile uno stato come il "ghiaccio bollente". Condizioni di pressione simili sono assenti nel nostro pianeta; perfino il più profondo dei nostri oceani dovrebbe essere 10 volte più profondo per raggiungere una pressione sufficiente ad indurre la trasformazione dell'acqua liquida in ghiaccio VII (il quale rimarrebbe tale anche a temperature intorno a 1000 gradi Kelvin).
Gli stati fisici dell'acqua (image credit: Cmglee via wikimedia commons). Un esempio "pratico" di questi fenomeni viene da uno studio del MIT che ha mostrato come all'interno di nanotubi di carbonio (dimensioni interne tali da ospitare poche molecole di acqua) l'acqua può diventare solida (alias congelare) anche a temperature superiori a quella di ebollizione (--> MIT news)
 Il ghiaccio VII è caratterizzato da un cristallo cubico avente una densità di 1,65 g/cm3, in altre parole il 65% più denso dell'acqua liquida. A causa della sua densità intermedia tra quella di una roccia e quell'acqua liquida, tale ghiaccio formerebbe una sorta di mantello intorno al nucleo roccioso del pianeta attorno al quale si muoverebbe grazie a fenomeni convettivi indotti dal calore delle profondità.
Queste condizioni estreme sono possibili su una qualunque Super-Terra avente una percentuale di acqua rispetto alla massa totale di almeno il 10%. In queste condizioni potrebbero esistere oceani profondi 100 km, alle cui profondità l'acqua esisterebbe come ghiaccio VII.
L'aspetto generale di questi pianeti (come la presenza e le caratteristiche di una atmosfera) dipendono da altre variabili, tra cui la distanza dalla stella, oltre che dalla tipologia di stella con le nane rosse considerate i migliori candidati (vedi l'articolo -->"Cercare ET nel posto sbagliato" e "Pianeti-oceano e nane rosse").

Avere una massa sufficiente a trattenere l'atmosfera è solo uno degli elementi chiave da considerare e giocando con alcuni dei parametri chiave non è difficile trovarsi di fronte a scenari "esotici" (in quanto concettualmente alieni e non perché mete ideali per futuri vacanzieri). Solo prendendo in considerazione pianeti la cui densità è ascrivibile alla presenza "rilevante" di ferro oscilleremmo tra pianeti meglio definibili come Super-Mercuri (ferro intorno al 70% contro il 30% della Terra) o Super-Lune (a causa della scarsità o assenza di ferro) con ovvie conseguenze sulla magnetosfera
Quando si parla di Super-Terre molte sono le variazioni sul tema
(credit: Marc Kuchner/NASA GSFC)
Credit: planetary Habitability lab (via galileonet.it)


Limitando la ricerca a Super-Terre con caratteristiche non eccessivamente esotiche, gli astronomi ritengono che sia i pianeti rocciosi "secchi" (percentuale di acqua inferiore al 1%) che i Waterwold siano "biologicamente" interessanti. Le deduzioni sulla presenza di vita rimarranno sempre, temo, pura speculazione basata certamente su dati scientifici (composizione atmosferica e caratteristiche fisiche del pianeta) ma senza evidenze di "se e quale" forma di vita possa lì essersi formata (parliamo di pianeti distanti anche centinaia di anni luce da noi) .

Nella lista (in continuo aggiornamento) di pianeti interessanti vale la pena citare: 
  • Kepler-22b è con ogni probabilità un "pianeta oceano" in base al rapporto dimensione-massa.
  • Kepler-62e "visione artistica"(NASA)
  • Il sistema stellare Kepler-62 è composto da almeno 5 pianeti, due dei quali siti all'interno della zona abitabile. La stella è più piccola e fredda del Sole e questo consente orbite "abitabili" molto più prossimali di quelle possibili nel nostro sistema. Entrambi i pianeti (Kepler-62e e -62f) sono Super-Terre, con dimensioni 60% e 40% maggiori della Terra e orbite di 122 giorni e 267 giorni, rispettivamente. Si attendono informazioni sulla loro composizione atmosferica e la conferma, ad oggi ritenuta probabile, che siano dei Waterworld.  
  • Kepler-186F è il primo esopianeta con caratteristiche simil-terrestri (raggio 1,1 volte la Terra) orbitante nella porzione esterna della zona abitabile (molto prossima in ogni caso alla stella essendo questa una "ottimale" nana arancione di classe M). Per questo motivo il pianeta riceve un terzo dell'illuminazione e del calore che la Terra riceve dal Sole; la cosa non è necessariamente un problema in quanto la temperatura alla superficie dipende da una serie di fattori, tra cui la presenza di una atmosfera (e dell'effetto serra associato). Anche gli altri 4 pianeti del sistema sono Super-Terre con orbite tuttavia più interne.

... e non trascuriamo tettonica e campo magnetico
La tettonica è il processo che controlla e interessa la struttura e le proprietà della crosta planetaria, nonché la sua evoluzione nel tempo insieme ad altri agenti, atmosferici e "fluidi" (erosione da ghiacci e acqua nel nostro caso). Alla base del fenomeno i moti convettivi che originano dalle porzioni più interne, fuse e molto viscose, del pianeta (il mantello), che spostano le parti solide soprastanti, all'interno delle cui fenditure spesso si insinuano per giungere alla superficie e originare i vulcani.
Senza questi moti non ci sarebbe rimescolamento degli elementi (ad esempio non esisterebbe il ciclo carbonio-silicio alla base del termostato terrestre) e anche in presenza di un nucleo ferroso il campo magnetico presente sarebbe insufficiente a proteggere la superficie dalle radiazioni della stella. Sebbene tutti i pianeti rocciosi siano stati in qualche fase della loro vita incandescenti, la permanenza di un nucleo caldo è fortemente correlata alla composizione (decadimento radioattivo) e massa del pianeta. Marte ha avuto una intensa attività vulcanica nel passato (ha il più grande vulcano del sistema solare) ma l'assenza di tettonica ha velocizzato il suo raffreddamento fino a generare una crosta così spessa da "spegnere" anche i vulcani. La "chiusura del rubinetto" dei gas e l'assenza di ricircolo si sono sommate ad una massa insufficiente con conseguente perdita dei gas atmosferici e il raffreddamento superficiale per assenza di effetto serra.
Un pianeta più massiccio di Marte avrebbe potuto "resistere" più a lungo perpetuando l'attività tettonica. Le Super-Terre hanno per definizione un rapporto crosta/interno inferiore a quello di pianeti piccoli e questo dovrebbe consentire il protrarsi nel tempo di tutti quei fenomeni ciclici che sul lungo termine promuovono la stabilità dinamica.



Altro punto non trascurabile per le possibilità di vita su questi esopianeti, è il fatto che dimensioni maggiori mettono più al riparo dalle conseguenze di impatti con corpi celesti o a variazioni "repentine" (pensate all'effetto prodotto da un asteroide di 10 km alla fine del Cretaceo).
Insomma, se vogliamo cercare qualcosa fuori di qui, puntiamo i telescopi su una delle tante Super-Terre … ed incrociamo le dita.



****

Postilla metodologica
Che metodi usano gli astrofisici per identificare i pianeti al di fuori del nostro sistema? 
  • Transito. Dalla variazione di luminosità apparente (cioè percepitata dai nostri strumenti) della stella e dalla sua periodicità si può ricavare massa, distanza e periodo orbitale del pianeta orbitante. Limiti ovvi di questo metodo la dimensione del pianeta e la sua distanza dalla stella, che si traduce per un osservatore esterno in una diversa proporzione della quantità di luce bloccata; data la distanza tra noi e la stella, la distorsione prospettica (distanza tra pianeta e stella) è irrilevante a meno di volere cercare "un Plutone" e il calcolo può essere approssimato come
    (dove Rp è il raggio del pianeta, R* il raggio della stella e F il flusso). Ovviamente possono essere osservati solo quei sistemi planetari in cui l'orbita è tale da essere in asse con il nostro punto di osservazione. Altre informazioni sul tipo di orbita vengono dal fenomeno dell'oscuramento al bordo.
    Image converted from Kepler 10c, courtesy of NASA
  • Astrometria. Ogni oggetto con massa planetaria è in grado di perturbare la rotazione della stella, spostando il fuoco dell'orbita all'esterno della stella stessa. A causa di questo la stella ci apparirà orbitare non "su sé stessa" ma intorno ad un punto la cui distanza è funzione della massa dei pianeti nelle vicinanze. Si può dedurre la perturbazione dell'orbita osservando l'eventuale effetto Doppler della luce stellare.
  • Effetto lente gravitazionale. Per il noto effetto della gravitazione sulla luce, un qualunque oggetto dotato di massa è in grado di modificare il percorso della luce. La somma delle forze gravitazionali esercitata da stella e pianeta in asse rispetto al percorso della luce proveniente da una stella sullo sfondo funzionano come una lente di ingrandimento del segnale. Dal confronto tra segnale di riferimento prima e dopo il transito del pianeta si possono ricavare informazioni sulla massa aggiuntiva transitata, vale a dire quella del pianeta. 
  • Osservazione diretta. Utile per stelle vicine (meno di 500 anni luce) e per pianeti in orbita non troppo ravvicinata. La visualizzazione si basa sull'oscuramento della luce stellare così da visualizzare la luce riflessa (e in parte anche quella emessa) dai pianeti. 
  • L'insieme dei dati ottenuti, incrociati dove possibile tra loro, permette di creare un modello ottimale, vale a dire il modello con il maggior numero di osservazioni coerenti e nessun dato "negatore".
Un esempio "semplice" delle informazioni che l'insieme di questi dati fornisce è quella che permette di distinguere un pianeta roccioso come Marte da uno gassoso come Giove. Quando un pianeta supera certi valori dimensionali, e di massa, il pianeta "deve" essere gassoso. La distanza del pianeta dalla stella fornisce poi altri elementi e i risultati non sono sempre prevedibili. Fino a pochissimi anni fa la predizione dei sistemi planetari era viziata da una visione solar-centrica per cui i pianeti rocciosi dovevano essere interni e quelli gassosi esterni. Oggi, dopo avere scoperto molti pianeti definiti come Hot Jupiter, cioè giganti come Giove ma siti in un'orbita interna a quella di Mercurio, sappiamo che il modello del sistema solare è solo uno dei tanti possibili. Alcuni di questi pianeti sono talmente vicini da avere periodo orbitale e periodo rotazionale coincidenti (come avviene per i satelliti geostazionari) con la conseguenza che un lato è perennemente esposto e l'altro sempre al buio; una caratteristica in grado di generare differenze di temperatura fino a 400 gradi e perturbazioni atmosferiche altrettanto estreme. 
Per chi volesse saperne di più sulle tecniche in uso rimando a siti "facili" come (link associati al nome) lo Smithsonian, l'università del Colorado, l'articolo "Exoplanet Detection Techniques" oppure la consigliatissima pagina della NASA)


Fumare fa male, appena svegli è peggio

Accendi una sigaretta poco dopo il risveglio?  Male, visto che uno studio della Penn State University pubblicato sulla rivista Cancer, Epidemiology, Biomarkers and Prevention, dimostra che tra le variabili che aumentano il rischio di malattia nei fumatori (oltre alla genetica, a malattie concomitanti, dieta, etc) vi è anche quella del tempo intercorso fra il risveglio e la prima tirata.
image: news.psu.edu
Steven Branstetter, uno degli autori dello studio, spiega "abbiamo scoperto che i fumatori che consumano sigarette immediatamente dopo il risveglio hanno livelli ematici più elevati di NNAL [(4-(methylnitrosamnino)-1-(3-pyridyl)-1-butanol)], un metabolita cancerogeno del tabacco".
Studi precedenti avevano già dimostrato che il NNAL induce tumori polmonari in diverse specie di roditori, quindi è a tutti gli effetti un carcinogeno. Lo studio attuale fa un passo in avanti associando i livelli del carcinogeno direttamente alle abitudini del fumatore
L'elemento preoccupante, ma come vedremo utile per un futuro approccio diagnostico-preventivo, è che il livello di NNAL ematico, non solo è indipendente dal numero di sigarette fumate nella giornata (non c'è quindi una "dose minima" sicura) ma è fortemente correlato al fumare nella prima mezzora dopo il risveglio.
Come marcatore il grosso vantaggio diagnostico è che il livello di NNAL è stabile nel tempo nei fumatori. Una singola misurazione permette di valutare in modo altamente affidabile l'esposizione pregressa di un individuo al carcinogeno.
NNAL (credit: sigma-aldrich)
Nello studio durato tre anni, sono stati esaminati 1945 fumatori, i quali oltre all'analisi delle urine hanno fornito  grazie ad una serie di questionari una serie di informazioni complementari, tra cui le loro abitudini come fumatori.
Si è così scoperto che circa il 32 per cento dei partecipanti fumavano la prima sigaretta entro 5 minuti dal risveglio, il 31 per cento entro 6-30 minuti; il 18 per cento tra i 31 a 60 minuti e solo il 19 per cento si tratteneva per più di un'ora.
Il livello di NNAL è correlato anche con l'età dei partecipanti, l'età a cui hanno iniziato a fumare, e l'essere uomini o donne. Non dipende però dal numero di sigarette fumate. Quindi diminuire SOLTANTO il numero di sigarette, sebbene importante per altri parametri quali la funzionalità respiratoria, è poco utile nell'abbassare i livelli di NNAL.
Continua l'autore, "riteniamo che le persone che fumano subito dopo il risveglio inspirino più profondamente e più a lungo, il che potrebbe spiegare gli alti livelli di NNAL nel loro sangue, così come il maggior rischio di sviluppare il cancro ai polmoni o nel cavo orale".
Prospettive immediate? Utilizzare il momento di assunzione della prima sigaretta giornaliera come un parametro critico per identificare i fumatori ad alto rischio e attuare interventi comportamentali mirati.

Fonte
- Time to First Cigarette and 4-(Methylnitrosamino)-1-(3-Pyridyl)-1-Butanol (NNAL) Levels in Adult  Smokers; National Health and Nutrition Examination Survey (NHANES), 2007-2010.
  Cancer Epidemiology Biomarkers & Prevention, 2013; 22 (4): 615

La madre fuma ... e il feto risponde

Se l'articolo precedente metteva in risalto i deleteri effetti del fumo sul DNA maschile, l'effetto sulle donne gravide è ancora più evidente

Il feto non apprezza - e lo mostra - la madre che fuma. 
La conferma viene grazie alla possibilità di catturare immagini in HD del feto in modo assolutamente non invasivo.

Fumare durante la gravidanza non è una cosa saggia. Nessuno oggi può nascondersi dietro la scusa di non saperlo. Ma se fino ad oggi per ottenere i dati sull'effetto del fumo sulla progenie era necessario basarsi su osservazioni post-natali (ulteriori dettagli --> qui) la ricerca di cui parlo oggi mostra chiaramente la reazione LIVE del feto al fumo materno.
(drprem.com)
Lo studio, condotto da ricercatori inglesi dell'università di Lancaster e pubblicato sulla rivista Acta Paediatrica, mostra attraverso ecografie in 4D (vale a dire 3D più movimento) che i feti le cui madri erano fumatrici mostravano un tasso significativamente più alto di movimenti della bocca rispetto a quanto mediamente osservato nei feti di madri non fumatrici.

I ricercatori ipotizzano che alla base di questi movimenti eccessivi vi sia un anomalo sviluppo del sistema nervoso centrale associato all'esposizione al fumo, dalla cui funzionalità dipendono sia i movimenti corporei che quelli del volto. Un dato che va a rafforzare quanto scoperto in studi precedenti, cioè una ritardata capacità di elaborazione vocale di neonati di madri fumatrici.
Quattro delle madri monitorate fumavano in media 14 sigarette al giorno, mentre le restanti sedici erano non fumatrici. Alla nascita tutti i bambini sono stati valutati clinicamente sani (una valutazione necessaria per evitare di alterare i risultati dello studio gestazionale con dati ottenuti da bambini con altre patologie).
I ricercatori hanno osservato 80 ecografie in 4D prese da 20 feti, centrate sul movimento del volto e sul movimento delle mani a toccare il volto. Le scansioni sono state effettuate in 4 momenti diversi nel periodo compreso tra la 24ma e la 36ma settimana di gravidanza.
Le maggiori differenze sono state osservate nel movimento facciale mentre meno significativi sono le differenze dei movimenti delle mani.
I dati suggeriscono che l'esposizione alla nicotina ha un effetto su alcuni movimenti fetali oltre a quanto già si sapeva su fertilità, diabete, obesità ed ipertensione.

Dato il basso numero di soggetti coinvolti lo studio pubblicato deve essere considerato uno studio pilota.

Articoli sullo stesso tema in questo blog 



Fonti
- Long-Term Consequences of Fetal and Neonatal Nicotine Exposure: A Critical Review
JE Bruin et al, Toxicol Sci. 2010 Aug;116(2):364-74
- Ultrasound observations of subtle movements: a pilot study comparing foetuses of smoking and nonsmoking mothers
N. Reissland Acta Paediatr. 2015 Jun;104(6):596-603

Maschi attenti! Fumare fa perdere il cromosoma Y

Se il messaggio contenuto nel precedente articolo circa la genotossicità intrinseca del fumo non è bastato a distogliervi da malsane tentazioni, l'articolo che segue dovrebbe, soprattutto se siete maschi, essere risolutivo.
A parte gli scherzi, rimango sul tema del fumo per completare il discorso genotossicità citando i dati di un articolo (anche questo pubblicato sulla rivista Science) di qualche tempo fa sull'effetto del fumo, o meglio dei prodotti contenuti nel fumo della sigaretta, sulla stabilità del cromosoma Y.
Lo studio, condotto su oltre 6000 uomini, mostra che chi fuma ha una frequenza di cellule ematiche geneticamente alterate (delezioni nello specifico) nel cromosoma Y, tre volte superiore a quella riscontrabile nei non fumatori.

Al momento non è dato sapere se tali alterazioni siano causalmente correlate al rischio cancro o siano un epifenomeno. Se nel precedente articolo le cellule coinvolte erano in gran parte (ma non solo, vedi le cellule epatiche) direttamente esposte al fumo, la presenza di alterazioni nei globuli bianchi è un ulteriore indizio del fatto che i "mutageni" sono assorbiti, trasportati dal sangue e quindi metabolizzati (alias trasformati in altro dal fegato e/o reni) ma non necessariamente detossificati. 
Per quale motivo la genotossicità abbia una qualche preferenza per il cromosoma Y non è chiaro. L'ipotesi più probabile che mi viene in mente è ... duplice:
  • il cromosoma Y è in singola copia nella cellula (tranne per la regione terminale chiamata pseudoautosomica presente anche sul cromosoma X) e questo rende non utilizzabile uno dei metodi di riparazione del DNA più affidabili, quello che usa come "copia carbone" il cromosoma omologo (➔Homology directed repair); il risultato netto è la "sedimentazione" di gran parte degli errori in quanto non riparabili; 
  • il cromosoma Y è tra i cromosomi quello "informativamente" meno rilevante, proprio perché a causa dell'alto rischio di mutazioni, si sono accumulati pseudogeni e i geni funzionali si sono concentrati nella zona pseudoautosomica (SAR) oppure sono finiti su altri cromosomi. Secondo stime recenti solo il 3% dei geni originariamente presenti nel cromosoma Y di un proto-mammifero ha mantenuto la sua funzionalità nel cromosoma Y "moderno" (➔ Daniel W. Bellott et al, Nature 2014). Di conseguenza la gran parte delle mutazioni che "cascano" in queste regioni è sostanzialmente "indolore" in quanto a carico di aree non funzionali. Il gene chiave per la determinazione del sesso maschile (SRY) si trova nella SAR mentre tutti i geni che sono attivati a cascata sono autosomali. Il cromosoma Y è quindi una cartina di tornasole perfetta per monitorare l'esposizione a mutageni in quanto sottoposta strutturalmente meno sottoposta ai sistemi di "rilevazione dell'errore" da parte dei sistemi cellulari.
    Cariogramma di un maschio umano (credit: NHGRI)

Ecco perché l'analisi è stata effettuata solo sui maschi.

Fonte
- Smoking is associated with mosaic loss of chromosome Y
Jan P. Dumanski et al,  Science (2015): Vol. 347 no. 6217 pp. 81-83 

La pressione negativa riduce i tempi di guarigione delle ferite

Minor tempo di guarigione, riduzione della frequenza nel cambio dei bendaggi e ridotto tempo di ospedalizzazione sono alcuni dei vantaggi dimostrati dalla terapia a pressione negativa nel trattamento delle infezioni associate alla chirurgia vascolare nelle zone inguinali.

L'approccio non è nuovo ma sta diventando sempre più "conveniente" (nel rapporto costi-benefici) ed efficace come si evince dalla lettura dello studio pubblicato nella tesi di dottorato svolta presso l'università di Lund (Svezia).
La terapia a pressione negativa di una ferita è una procedura medica in cui l'area interessata viene esposta a condizioni di vuoto (da -125 a -75 mmHg) su ferite suturate. E' utilizzata sia per lesioni acute che croniche, ed ha mostrato un discreto successo nel trattamento delle ustioni di secondo e terzo grado. Lo scopo è quello di aumentare l'irrorazione sanguigna della sede lesionata facilitando allo stesso momento la dispersione dei fluidi in eccesso. Per mantenere la pressione nella sede della ferita si utilizzano materiali di medicazione con funzione di riempimento come la schiuma di poliuretano o una garza antimicrobica che agiscono come filtri per tenere in sede macroparticelle come coaguli di sangue o pezzi di tessuto, evitando così di intasare il sistema a vuoto. La ferita viene quindi ricoperta in modo ermetico con poliuretano e il vuoto applicato. La pressione può essere continua o a intermittenza e il trattamento ha una durata variabile (giorni o settimane) a seconda dei casi. Non si tratta di una procedura indolore, specie nel momento in cui viene variata la pressione esercitata ma questo è in linea con la gravità delle lesioni (ad esempio le ustioni) e viene compensata mediante antidolorifici.
Image credit:  woundeducators.com
Lo studio clinico svedese, molto specifico nei suoi obiettivi, mirava a dimostrare e a quantificare l'effetto della pressione negativa, rispetto alle sole terapie tradizionali, nella guarigione di infezioni associate a lesioni profonde nella zona inguinale, successive ad interventi di chirurgia vascolare. Ricordo che l'inguine è la zona di accesso preferenziale usata dai chirurghi vascolari per accedere a diversi organi senza bisogno di "aprire" il paziente. Si tratta in ogni caso di approcci che per loro natura (data la sede peri-intestinale e l'invasività) necessitano di particolare attenzione per minimizzare il rischio (alto) di infezione; per tale ragione i pazienti sono sottoposti a terapia antibiotica pre- e post-operatoria. Tale "precauzione" si scontra oggi con la preoccupante diffusione di ceppi batterici multi-resistenti (vedi articoli precedenti --> qui) imponendo misure ulteriori tali da facilitare la guarigione della ferita nel minor tempo possibile.


La tesi si è basata sulla analisi retrospettiva dei pazienti trattati tra il 2004 e il 2006, e su  uno studio randomizzato, condotto tra il 2007 e il 2011, in cui il decorso dei pazienti sottoposti a "medicazioni in pressione negativa", è stato confrontato con quello di pazienti trattati con la classica medicazione basata su alginato. I dati così ottenuti sono stati poi incrociati con interviste ai pazienti trattati, a distanza di 10 giorni dalla dimissione, per avere un riscontro qualitativo sull'efficacia dei diversi trattamenti.
In estrema sintesi i risultati provano che l'aggiunta alle terapie standard del trattamento a pressione negativa dimezzano il tempo di guarigione dei pazienti, passando da 104 a 57 giorni. Se a questo si aggiunge il fatto che l'ospedalizzazione richiesta è passata da una media di 20 giorni a 13, il risparmio di costi (sia in senso stretto che come costo sociale) è indubbio.

Fonte
- Faster and better healing of infected wounds using negative pressure technique
Lund University, news
Effects of Negative Pressure Wound Therapy on Perivascular Groin Infections after Vascular Surgery. Wound Healing, Cost-Effectiveness and Patient-Reported Outcome
Christina Monsen, tesi discussa ad ottobre 2016

Fumo e mutazione del DNA. Uno studio quantifica in 150 le mutazioni aggiuntive

Fumare fa male, e fin qui nulla di nuovo.
Fa male sotto molti aspetti: economico (fatevi due calcoli del costo diretto e indiretto del fumo); neurologico (crea dipendenza e condiziona il comportamento); salute (malattie cardiovascolari, cancro e patologie polmonari).

Sebbene i primi due aspetti meriterebbero di per sé una estesa trattazione, è l'aspetto sanitario, quello su cui è centrato l'articolo odierno. Anzi, per essere precisi il focus è sulla genotossicità del fumo, direttamente correlata al rischio di sviluppare tumori.
Se è ben noto che i tumori originano dall'accumulo di mutazioni nel DNA che causano un funzionamento anomalo della cellula che diventa refrattaria ai normali meccanismi di controllo (interni e delle cellule normali adiacenti), è altrettanto noto che le mutazioni non sono "un accidente" ma un "prodotto collaterale" della replicazione del DNA e del metabolismo ossidativo. Ad ogni divisione cellulare il DNA viene ricopiato ed è solo grazie ai vari meccanismi di identificazione e di correzione degli errori se il numero di quelli che "sfuggono" è estremamente limitato. Il problema però è che con tutte le divisioni cellulari avvenute dalla formazione dello zigote fino alla vecchiaia (e parliamo di 6,4 miliardi di nucleotidi che compongono il DNA moltiplicati per il numero di cellule nel corpo per il numero di divisioni cellule), la probabilità cumulativa che una mutazione compaia in un gene importante è evidente. Se poi siamo sfortunati e la mutazione compare non solo nelle primissime divisioni cellulari post-zigote ma è a carico di uno dei geni coinvolti nella correzione degli errori, allora la probabilità di accumulare altre mutazioni aumenterà in modo sensibile. Da qui la comparsa di tumori in età molto precoce.
Ma oltre agli accidenti probabilistici un danno importante è conseguenza di una più o meno volontaria esposizione a mutageni esterni, siano questi l'inquinamento o il fumo delle sigarette, che vanno ad aggiungersi ai normali sottoprodotti del metabolismo ossidativo della cellule. In questo caso inspiriamo direttamente molecole reattive capaci di danneggiare il DNA, saturando così velocemente la capacità dell'apparato preposto a correggere i danni (l'evoluzione non ha previsto che noi avremmo fumato).

Se da un punto di vista epidemiologico i dati abbondano (fumare aumenta nettamente il rischio di patologie tumorali e non), l'analisi qualitativa e quantitativa dei danni genetici da fumo ha dovuto attendere il completamento del Progetto Genoma e lo sviluppo di sistemi di rilevazione ad alta sensibilità (e basso costo) per riuscire a guardare in dettaglio alla mole dei danni (pensate a cosa vuol dire "scoprire" le mutazioni in una singola cellula quando nella biopsia ci sono sia cellule normali che cellule con mutazioni diverse tra loro).
Se all'inizio del Progetto, nel 2001, il costo per sequenziare il genoma era di 100 milioni di dollari (sic!), oggi il costo è intorno ai 1000 dollari (meno se si considera il solo esoma). 
Ora arriva uno studio pubblicato sulla rivista Science e condotto congiuntamente dai ricercatori inglesi del Wellcome Trust Sanger Institute e americani del Los Alamos National Laboratory, nel quale si quantifica in una media di 150 il numero di mutazioni supplementari (oltre a quelle "naturali") in ogni cellula del polmone, ogni anno, tra chi fuma un pacchetto di sigarette al giorno
Facile con questi numeri (e considerando il numero di cellule coinvolte) che nonostante le dimensioni del genoma, la probabilità che una queste di mutazioni prima o poi colpisca un gene chiave, diventano rilevanti.
Image credit: Wellcome Trust Sanger Institute.
Particolarmente interessante il fatto che se da una parte i tassi di mutazione più elevati sono stati osservati nei tumori polmonari (cellule direttamente esposte al fumo) dall'altra vi è anche un evidente aumento nel tasso di mutazione in altri distretti corporei, ad indicare la diffusione delle molecole carcinogene. Il che non sorprende se si considera che sono almeno 17 i tipi di cancro umano correlati al fumo.

Nello studio i ricercatori hanno analizzato più di 5000 tumori, ottenuti sia da fumatori che da non fumatori, confrontandone il genoma. La comparazione ha permesso di identificare almeno 16 "firme genetiche" (tipologia e distribuzione delle mutazioni) correlabili a diversi sottogruppi di pazienti. Chiaramente le 150 mutazioni annuali calcolate funzionano come singoli punti di partenza che si sommano ad alterazioni future grazie all'effetto cumulativo (sono necessarie più mutazioni per la trasformazione cellulare) facilitato a volte dalla natura "proattiva" di una data mutazione.
Il punto centrale dell'articolo è la quantificazione del carico mutazionale supplementare causato dal tabacco.
Oltre alle cellule polmonari, lo studio dimostra che un pacchetto di sigarette al giorno si correla ad una media per cellula di 97 mutazioni nella laringe, 39 nella faringe, 23 nella mucosa orale, 18 nella vescica e 6 nel fegato. Ogni anno.

L'eziologia delle mutazioni è chiaramente diversa a seconda del tipo di tessuto; se gli effetti carcinogenici sono diretti nelle cellule che entrano in contatto con il fumo inalato, nel caso delle cellule (ad esempio) epatiche un ruolo importante viene dai prodotti metabolici secondari o dall'anomala funzionalità di proteine di segnalazione che possono aumentare lo stress ossidativo in una cellula per tutto il resto normale.
Senza entrare troppo in dettaglio sono 5 i meccanismi correlati al fumo di sigaretta in grado di danneggiare il DNA; tra questi uno particolarmente importante è quello che attiva l'invecchiamento precoce delle cellule rendendole meno capaci di rilevare i danni genomici.
E una volta che viene "manomesso" il sensore di allarme, la probabilità che il danno si estenda non è più esiziale.

Fonte
- Mutational signatures associated with tobacco smoking in human cancer
Ludmil B. Alexandrov et al, Science (2016), 354 (6312) pp 618-622

- Smoking a pack a day for a year leaves 150 mutations in every lung cell
Los Alamos National Laboratory / news  & Wellcome Trust Sanger Institute / news




Alla ricerca del nono pianeta del sistema solare

Dopo la retrocessione di Plutone a planetoide (o pianeta nano) la ricerca del nono pianeta del sistema solare è continuata pur se con falsi allarmi e conseguenti delusioni da parte degli astronomi.
L'idea che ci debba essere un pianeta inizia all'inizio del '800 quando l'astronomo francese Urbain Le Verrier, solamente in base all'orbita di Urano, predisse l'esistenza di Nettuno ed indicò con estrema sicurezza ai suoi scettici colleghi dove cercarlo. Seguendo tali indicazioni, e nel giro di una sola notte, l'astronomo tedesco Johann Gottfried Galle identificò Nettuno.
Sulla base di simili evidenze (l'orbita di Nettuno) si predisse che "doveva" esistere un altro pianeta, il nono, che fu identificato in Plutone da Clyde Tombaugh nel 1930 (ma predetto dai calcoli di Percival Lowell). I dubbi sul fatto che Plutone fosse effettivamente definibile come "pianeta" si fecero sempre più forti con la scoperta negli ultimi anni del secolo scorso di corpi celesti di dimensioni simili a Plutone nella zona transnettuniana (area generica che comprende la fascia di Kuiper o più esternamente la nube di Oort) e che quindi a rigor di logica avrebbero anche essi dovuto essere classificati come pianeti (un numero tra 53 e 200!!). L'accumularsi di evidenze contro Plutone (ad esempio la scoperta di Eris) portò nel 2006 alla revoca del suo status di pianeta, fissando condizioni minime perché un corpo celeste potesse essere definito come pianeta, tra cui forma sferoidale e dominanza gravitazionale (quindi avere ripulito la propria orbita dai detriti).
Se Plutone non fosse stato "retrocesso" a planetoide allora questi e altri corpi rocciosi della Kuiper Belt avrebbero dovuto essere etichettati come pianeti del sistema solare
La ricerca dell'ipotetico nono pianeta non fu mai accantonata soprattutto dopo la caratterizzazione delle orbite di alcuni planetoidi come Sedna troppo eccentriche e troppo lontane da Nettuno per essere da questo influenzate, fino ad arrivare alla rilevazione di corpi celesti nella zona transnettuniana con una orbita perpendicolare al piano del sistema solare come Niku (alias 2011 KT19) scoperto ad agosto 2016.
L'orbita di Niku, usata come indizio per scovare il nono pianeta (credit: NASA/JPL)
Da qui la predizione di quali dovrebbero essere le caratteristiche fisiche e orbitali del nono pianeta ; ricordo ancora una volta che tale ricerca non nasce da una semplice (e di per sé opinabile) volontà di catalogazione ma è una "necessità" per spiegare le orbite di pianeti e planetoidi nella parte esterna del sistema solare.
Clip tratta dal seminario di Batygin con le caratteristiche che il nono pianeta dovrebbe avere

Questo un brevissimo riassunto dello stato dell'arte a fine 2016.

Ma il vero motivo per cui ho deciso di scrivere questo articolo è di mostrarvi il video del seminario di Konstantin Batygin tenuto circa un mese fa al Caltech. Il video dura poco meno di 1 ora e oltre ad essere (come solo i seminari in USA sanno esserlo) piacevole e divertente da seguire, è stato pensato per un ampio pubblico. Ovviamente è in inglese ma, per mia esperienza diretta, è ben più semplice da seguire di alcuni seminari in italiano aulico e monotònico che troppo spesso mi capita di ascoltare.

Ora sedetevi, rilassatevi e invece di guardare la tv godetevi questa ora di scienza
In caso di problemi nella visione del video, cliccate QUI per il link a youtube



Due parole su Konstantin Batygin e sul Caltech, giusto per darvi una idea del contesto. Batygin è un  giovane assistant professor, coautore dell'articolo pubblicato a gennaio 2016 sul nono pianeta mentre il Caltech è uno degli istituti di ricerca più importanti ed elitari degli USA (solo pochi studenti tra i migliori disponibili viene accettato ogni anno in aree di studio che vanno dalla ricerca biomedica all'astronomia) e la cosa si riflette nell'essere l'istituto con il più alto tasso di premi Nobel se rapportato al numero di persone che vi hanno studiato e lavorato.
Siamo anni luce, temo, dalle nostre università dove la gerontocrazia impera e si è considerati giovani professori se ottieni (magari per vie innominabili) il ruolo a vita (cosa impossibile negli USA) quando sei un quarantenne. Ma questa è un'altra storia ... .


Articoli su temi correlati --> "Plutone e la missione New Horizons" oppure cliccate il tag "Astronomia"


Fonti
- Curious Tilt of the Sun Traced to Undiscovered Planet
Caltech news (19/10/16)
- Caltech Researchers Find Evidence of a Real Ninth Planet
Caltech news (20/1/16)



***

Blog e siti di alto livello su temi correlati con l'astronomia (link associato al nome)
  • Bad Astronomy External - L'astronomo Phil Plait spiega le novità del campo e affronta i punti a volte erroneamente percepiti dal grande pubblico. Ricco di immagini e spiegazioni. Sito top.
  • The Planet Hunters External. Blog che farte di una tendenza sempre più comune, quella della "citizen science" cioè come gli sforzi di tutti possono aiutare a processare i dati complessi semplicemente "giocando". Nello specifico il sito è dedicato alla ricerca di esopianeti in base ai dati del progetto Keplero.

Podcasts (in inglese):

  • StarTalk Radio - Condotto da Neil DeGrasse Tyson, direttore del Hayden Planetarium a NYC.
  • 365 Days of Astronomy - Ogni giorno un nuovo podocast su diversi temi astronomici.
  • AstronomyCast, Temi che vanno dall'astronomia ai videogiochi centrati sullo spazio.
Libri consigliati
--> link
--> link
--> link


La mano bionica che trasmette il tatto

Per la prima volta un essere umano privo della funzione delle braccia ha potuto sperimentare il senso del tatto attraverso una protesi robotica "cablata" con il cervello.
Un successo frutto degli sforzi dei team delle università di Chicago e di Pittsburgh coordinato da Robert Gaunt il cui lavoro è stato pubblicato sulla rivista Science Translational Medicine.
I ricercatori hanno progettato e costruito una interfaccia neurale impiantata poi chirurgicamente in un paziente di 28 anni, paralizzato dal torace in giù a seguito di un incidente stradale avvenuto nel 2004. L'interfaccia è stata quindi collegata ad un braccio robotico esterno che convoglia lo stimolo motorio e il feedback sensoriale mediante elettrodi impiantati nelle aree del cervello corrispondenti. La novità del prototipo non è infatti nell'arto meccanico in sé, di cui ci sono oramai molti esempi, ma nella protesi capace di trasmettere la sensazione del "tocco".
Il paziente è diventato così in grado di distinguere il tocco sulle singole dita e nel palmo della mano robotica. Questo il suo commento: "sento quasi ogni dito, e questa è una sensazione davvero strana. A volte sento come qualcosa di elettrico e altre volte una pressione ma per la maggior parte del tempo ho la sensazione precisa delle dita, come quando si tocca qualcosa o quando queste ricevono una leggera pressione".
Il paziente durante i test (vedi video sotto).
Credits: University of Pittsburg Medical Center. 
Il sistema sviluppato è il risultato di anni di lavoro con le scimmie volto a capire il modo con cui il sistema nervoso interpreta gli stimoli tattili, fondamentali per operazioni "banali" come toccare o afferrare oggetti, spostare il braccio in una direzione precisa o anche solo percepire le differenze tattili di una superficie sulla quale viene fatto scorrere un dito. Si tratta chiaramente di compiti estremamente complessi che richiedono un grande sforzo computazionale da parte del cervello; complessità di cui non ci rendiamo conto ma che sono ben evidenti quando si osserva il "rodaggio motorio" nei bambini durante la prima interazione con gli oggetti o meglio ancora durante la fisioterapia di recupero nelle vittime di incidenti (o di ictus) che devono riprogrammare il cervello nel loro rapporto sensoriale e motorio.
Proprio a causa di tale complessità computazionale è stato necessario utilizzare i primati come modello di studio.
La bella immagine del saluto tra Barack Obama e il paziente durate una visita alla Casa Bianca
Credit: Pete Souza/The White House via UChicagoNews

Progettare una mano funzionalmente adatta ad un tetraplegico richiede uno sforzo ingegneristico duplice: fare muovere la mano connettendola agli impulsi della corteccia e implementare un sistema di rilevazione sensoriale. Per capire come agire è stato necessario applicare le conoscenze disponibili sui meccanismi di controllo volontario degli arti e sulla conduzione degli stimoli sensoriali, cercando poi di imitarne il funzionamento e di fare un "bypass" che unisse la "funzione" con il cervello.
Il fatto che si sia riusciti a fare entrambe le cose, con tutti i limiti del caso, è la vera notiza, indice della sinergia tra neuroscienze e ingegneria.
C'è ancora molto lavoro da fare e questo prototipo è solo il primo passo.

Nel video una dimostrazione del test di percezione del tocco in cui il paziente bendato deve identificare non solo il tipo di tocco ma anche su quale dito è avvenuto.

Se non vedete il video cliccate su https://videopress.com/embed/O4cvfWZh
(all credits: University of Pittsburg Medical Center)

Fonti
- In a First, Pitt-UPMC Team Help Paralyzed Man Feel Again Through a Mind-Controlled Robotic Arm
UPMC / news
-  Researchers help paralyzed man regain sense of touch through a robotic arm
University of Chicago / news
- Pioneering brain implant restores paralysed man's sense of touch
Nature, news


Vi serve un eReader? Date un occhio ai prodotti sotto sponsorizzati

Prova Amazon Prime Spedizioni pagate per un anno e consegna anche (per prodotti selezionati) entro due ore!!
Nuovo Kindle Se come me amate la semplicità, affidabilità e costo basso allora il Touch fa al caso vostro
Prova il nuovo Kindle Vojage!Se il classico Kindle e volete uno schermo da 6" ad alta risoluzione (300 ppi) con luce integrata a regolazione automatica,
Prova il nuovo Kindle Oasis!Volete solo il top? Ecco allora il top di gamma. Un po' caro ma ...