CC

Licenza Creative Commons
Questo opera di above the cloud è concesso sotto la Licenza Creative Commons Attribuzione 3.0 Italia.
Based on a work at scienceabovetheclouds.blogspot.com.

The Copyright Laws of the United States recognizes a “fair use” of copyrighted content. Section 107 of the U.S. Copyright Act states: “Notwithstanding the provisions of sections 106 and 106A, the fair use of a copyrighted work (...) for purposes such as criticism, comment, news reporting, teaching, scholarship, or research, is not an infringement of copyright.”
Any image or video posted is used according to the fair use policy
Ogni news è tratta da articoli peer reviewed ed è contestualizzata e collegata a fonti di approfondimento. Ben difficilmente troverete quindi notizie il cui contenuto sia datato.
QUALUNQUE link in questa pagina rimanda a siti sicuri!! SEMPRE.
Volete aiutare questo blog? Cliccate sugli annnunci/prodotti Amazon (se non li vedete, disattivate l'Adblocker mettendo questo sito nella whitelist. NON ci sono pop up o script strani, SOLO Amazon). Visibili in modalità desktop! Se poi decidete di comprare libri o servizi da Amazon, meglio ;-)
Dimenticavo. Questo blog NON contiene olio di palma (è così di moda specificarlo per ogni cosa...)

La causa di una rara malattia neurologica trovata … 16 generazioni fa

Risale a 16 generazioni fa la mutazione causa di una rara malattia neurologica

Questa è la conclusione alquanto inattesa ottenuta da un team internazionale nato per cercare di comprendere le cause genetiche di una malattia neurologica estremamente rara (e poco caratterizzata clinicamente) ma con frequenze anomalmente alte in alcune regioni della Turchia. La malattia, ad ereditarietà recessiva, è caratterizzata da ritardo mentale, attacchi epilettici e problemi motori. L'analisi cerebrale per imaging mostra atrofia della corteccia cerebrale, del cervelletto e del tronco cerebrale.
Nota. Una patologia caratterizzata da ereditarietà recessiva indica la necessità di due copie (alleli) mutati di un dato gene affinchè si manifesti. Quindi entrambi i genitori devono essere portatori (oltra ai casi sporadici di nuove mutazioni germinali). Tipico esempio di malattia genetica recessiva è la fibrosi cistica. Al contrario si parla di trasmissione dominante quando è sufficiente un solo allele mutato perchè la malattia compaia. Un esempio è il nanismo dove avere un solo genitore malato conferisce una probabilità del 50% di avere un figlio malato. E' chiaro che le malattie ereditarie a carattere dominante hanno come prerequisito affinchè possa avvenire la trasmissione che la malattia non sia totalmente invalidante e in caso positivo questa si manifesterà in fase adulta avanzata: difficile infatti che una persona seriamente disabile possa riprodursi e quindi trasmettere l'allele mutato.
I due articoli, pubblicati in contemporanea sulla rivista Cell dai team coordinati da James Lupski e Joseph Gleeson, rispettivamente della UCSD e di Yale, sono giunti alla stessa conclusione: stesso gene mutato (CLP1) e stessa mutazione.
Nel lavoro di Gleeson viene descritto il sequenziamento del genoma di 2000 bambini con disturbi nello sviluppo neurologico e la successiva identificazione di una identica mutazione in 4 famiglie della Turchia orientale non imparentate tra loro.
L'articolo di Lupski conferma il dato grazie alla identificazione indipendente della stessa mutazione in altri 11 bambini appartenti a 5 famiglie apparentemente non imparentale, sempre della Turchia orientale.

Due parole sul gene CLP1. La proteina codificata svolge un ruolo importante nella produzione di un RNA fondamentale per la sintesi proteica, il tRNA, la cui funzione è quella di convogliare il corretto aminoacido in corrispondenza di una data tripletta nucleotidica "letta" dal ribosoma. Mutazioni a carico di questo processo sono state già descritte e, non a caso, sono associate a malattie neurologiche come l'ipoplasia cerebellare. Il coinvolgimento di mutazioni del gene CLP1 in patologie neuronali e deficit motori  era, finora, noto solo in topi.
Dall'analisi del linkage con vari marcatori genetici è stato possibile risalire all'origine di questa mutazione (e a spiegare soprattutto l'elevata diffusione rispetto ad altri posti) a 16 generazioni fa, vale a dire circa 400 anni fa, in pieno impero Ottomano. Il fatto interessante è che tutti i casi studiati in Turchia possono essere fatti risalire ad un unico soggetto che chiaramente ha avuto un buon successo riproduttivo. Sebbene questa mutazione allo stato eterozigote non sia associata a malattia, essenziale per  sedimentare la mutazione nella popolazione, il raggiungimento di una frequenza così elevata (in assenza come nel caso ad esempio della fibrosi cistica di un vantaggio parziale per i portatori) è spiegabile unicamente con l'elevata frequenza di matrimoni tra individui imparentati (cugini di primo o secondo grado), un fenomeno assolutamente normale nelle piccole comunità.
In tempi brevi questa scoperta permetterà di calcolare il rischio, e quindi prevenire, di avere figli malati grazie alla analisi genetica dei genitori e/o del feto.

Fonti
- Human CLP1 Mutations Alter tRNA Biogenesis, Affecting Both Peripheral and Central Nervous System Function
Ender Karaca et al, Cell (2014) Volume 157, Issue 3, p636–650 

- CLP1 Founder Mutation Links tRNA Splicing and Maturation to Cerebellar Development and Neurodegeneration
Ashleigh E. Schaffer et al, Cell (2014)Volume 157, Issue 3, p651–663 


Gli elefanti dicono "Attenzione. Uomo in avvicinamento"?

Uno studio recente sembra indicare che gli elefanti africani siano in grado di emettere suoni specifici indicanti il potenziale pericolo causa presenza di esseri umani".
(credit: natureworldnews.com)
Questo almeno è quanto emerge da uno studio congiunto della Oxford University in associazione con organizzazioni come "Save the Elephants" e "Animal Kingdom" della Disney. Tra le prove presentate vi è la reazione (confermata da osservazioni ripetute) manifestata da elefanti a riposo al sentire registrazioni audio di voci di membri di una tribù del Nord del Kenya, i Samburu, loro vicini naturali. La reazione degli elefanti alle voci umane è stata immediata ed ha comportato prima un'aumento della vigilanza di ciascun membro del branco seguita dal precipitoso allontanarsi dalla fonte del suono. 
Un comportamento preceduto dall'emissione da parte del membro che per primo ha ascoltato le voci umane dall'emissione di un suono particolare a bassa frequenza, diverso dal classico barrito.
La reazione al suono di voci registrate di membri di una tribù locale (©L. King/Oxford Un.)
Clicca su AUDIO per ascoltare il suono emesso dall'elefante in risposta a suoni di origine umana.
"Gli elefanti sembrano essere in grado di manipolare il loro tratto vocale (bocca, lingua, gola etc) per modellare i suoni emessi e generare segnali distinti" afferma Lucy King una delle responsabili dello studio insieme a Joseph Soltis, un esperto di bioacustica di Animal Kingdom della Disney.
Il Canto dell'Elefante
Nota. Nei mammiferi, la produzione del suono vocale avviene generalmente in due modi: attraverso il controllo muscolare, ad esempio quando il gatto fa le fusa, oppure durante il passaggio dell'aria attraverso le corde vocali, una modalità in grado di produrre sia la voce umana che i tipici suoni ad ultrafrequenza dei pipistrelli. Da circa 20 anni è noto che gli elefanti sono in grado di comunicare tra loro grazie a suoni a frequenza estremamente bassa.
"Non posso escludere la possibilità che questi suoni particolari non siano altro che un sottoprodotto 'emozionale' prodotto dall'elefante in fuga. D'altra parte però, le evidenze in nostro possesso mostrano che questi allarmi sonori corrispondono a quasi-parole, e sono usate dagli elefanti in modo specifico. Un certo tipo di suono avverte di uno specifico pericolo. In altre parole il segnale è riproducibilmente distinto cosi' come la minaccia potenziale rappresentata da api o esseri umani".
A riprova di questa affermazione, il fatto che la risposta scatenata da "allarme-api" si caratterizzi da una fuga più un contemporaneo scuotimento della testa. Perché se è vero che gli elefanti hanno una pelle sufficientemente spessa da fornire una protezione sicura dalla puntura delle api non altrettanto si può dire della zona intorno agli occhi. Un'area estremamente sensibile che se colpita ripetutamente dalle api può avere conseguenze letali. Comprensibile allora che la risposta alle api implichi uno scuotimento della testa oltre che la fuga. L'assenza di questa reazione nella fuga dall'uomo è una riprova della specificità del segnale d'allarme

--> Video su youtube


Questo studio è di particolare importanza in quanto fornisce uno strumento per minimizzare i conflitti tra le popolazioni di agricoltori locali e gli elefanti che invadono i campi coltivati. La costruzione di alveari sul limitare dei campi coltivati ha già dimostrato essere un efficace deterrente per tenere lontani gli elefanti ed ha il vantaggio ulteriore  di fornire agli agricoltori una ulteriore fonte di reddito (ed alimentare) come il miele.

Fonti
- Do elephants call ''human!''?
Oxford University, news
- African Elephant Alarm Calls Distinguish between Threats from Humans and Bees
Joseph Soltis et al, PLoS ONE, (2014) Feb 26;9(2)

Hawking rivoluziona (ancora) i buchi neri. Nessun orizzonte degli eventi, quindi nessun buco nero duraturo

"Il buco nero esiste ma dato che non posso definirne i bordi forse non esistono come entità discrete". Questo potrebbe essere, in modo molto semplificato, il senso dell'articolo che sta scuotendo il mondo della fisica estrema.

Non si tratta infatti di una osservazione da poco dato che a proporla è la persona che ha speso più tempo nell'elaborazione teorica dei buchi neri. La maggior parte dei fisici non avrebbe la credibilità (e gli attributi intellettuali) per anche solo immaginare di scrivere un articolo il cui corollario fosse "non ci sono buchi neri".
Credit & ©: Astronomy/Roen Kelly/daviddarling.info
Ma se l'autore dell'articolo è Stephen Hawking, il padre di molti concetti rivoluzionari nella fisica dei buchi neri - come ad esempio la "radiazione di Hawking" - allora l'articolo deve essere preso in seria considerazione.
Il suo articolo è in realtà una ridefinizione del concetto dei buchi neri e riguarda l'esistenza stessa di un confine "netto" come l'orizzonte degli eventi. Al suo posto il fisico propone il concetto di orizzonte apparente una regione che trattiene energia/materia solo temporaneamente salvo poi rilasciarle anche se talmente rimescolate da rendere "irriconoscibile" l'informazione originaria. Ridefinire il punto di confine tra ciò che è dentro (e che sapevano non potere mai uscire) e ciò che è fuori equivale a togliere definizione al concetto stesso di buco nero. Una affermazione che ha fatto strabuzzare gli occhi (se non contestualizzata) al lettore superficiale. 
Una schematizzazione delle regioni in prossimità di un buco nero.
©space.com / NASA's Goddard Space Flight Center/J. Schnittman, J. Krolik (JHU) & S. Noble (RIT)

Andiamo con ordine.
S. Hawking  (©Photoshot)
S. Hawking  (©Photoshot)
Il 22 gennaio scorso Hawking ha pubblicato una versione preliminare (nel senso di non ancora accettata dai revisori) di un articolo che suona come "la conservazione di informazioni e le previsioni meteorologiche per i buchi neri". Titolo già di suo curioso.
Il documento si basa in gran parte su un discorso tenuto da Hawking via Skype durante una conferenza presso l'Istituto Kavli di Fisica Teorica a Santa Barbara, California, nell'agosto del 2013 (VIDEO).
Il punto centrale dell'intervento (e quindi dell'articolo) era il cercare di risolvere il cosiddetto "paradosso del firewall del buco nero", un problema su cui lavorano i fisici teorici da un biennio, da quando cioè  Joseph Polchinski si trovò di fronte ad un problema teorico inaspettato associato al famoso dilemma "cosa accadrebbe ad un astronauta che avesse la sfortuna di cadere in un buco nero?"
Il paradosso della perdita di informazione (©Nature)

 Ovvio che si tratta di un problema matematico e di fisica "estrema" che non potrà mai essere testato da alcuno (a meno che non si trovi il modo di viaggiare fino al centro della galassia). Si tratta di un puro mezzo per sondare la validità delle basi teoriche che abbiamo sull'argomento.
L'orizzonte degli eventi è difatti una conseguenza matematica della teoria generale della relatività di Einstein, evidenziata per la prima volta nel 1915 da Karl Schwarzschild, meno di un mese dopo la pubblicazione della teoria. L'ipotesi a lungo accettata è che l'astronauta attraverserebbe questa linea di confine (oltre la quale nulla può più sfuggire, nemmeno la luce) senza accorgersene, inconsapevole della sua morte imminente. Una volta passata questa invisibile linea di confine le tremende forze gravitazionali inizierebbero a tirarlo verso il centro del buco nero e, soprattutto, a stirarlo come un elastico verso l'interno (da qui il termine spaghettificazione) fino a schiacciarlo nella singolarità, l'ipotetico nucleo infinitamente denso del buco nero (vedi anche l'eccellente articolo apparso su vialattea).
Polchinski tuttavia rilevò che, analizzando il fenomeno mediante le logiche della meccanica quantistica, le conclusioni cambiavano radicalmente in quanto l'orizzonte degli eventi non sarebbe più una linea di confine invisibile ma al contrario una barriera ad altissima energia (firewall) che brucerebbe l'astronauta all'istante. Un problema non indifferente non tanto per l'astronauta destinato in ogni caso ad una fine tragica, quanto perché in aperto contrasto con la teoria generale della relatività. Secondo questa teoria infatti, qualunque persona in caduta libera dovrebbe percepire le leggi della fisica in modo identico, ovunque si trovi nell'universo, sia che stia cadendo in un buco nero o fluttuando nei pressi del suo veicolo spaziale. Per Einstein l'orizzonte degli eventi è un luogo "insignificante".
E' impossibile a tal proposito non citare i lavori precedenti di Hawking sul destino dell'informazione catturata in un buco nero.
Già nel 1974 lo scienziato inglese propose che materia e energia potevano sfuggire ad un buco nero attraverso quello che oggi è nota come radiazione di Hawking. Una teoria che in sostanza rivoluzionò il campo in quanto presupponeva il concetto stesso di evaporazione dei buchi neri.
Il corollario di questa idea è che se viene emessa una radiazione allora forse questa potrebbe essere usata per risalire alla materia caduta nel buco nero. Una ipotesi negata dallo stesso Hawking, in quanto la radiazione è stata sottoposta ad un rimescolamento operato dalle immani forze del buco nero; quindi sebbene la radiazione sia un effetto "dell'evaporazione della materia" non ha più con essa alcun legame. Sarebbe come cercare di leggere una pagina dopo che questa è bruciata in un caminetto. Anche recuperando i vapori emessi e la cenere è chiaramente improponibile cercare di capire se la pagina fosse in formato A4 o se fosse scritta in corsivo o stampatello. Ma se l'informazione è persa allora si entra in diretto conflitto con un assunto fondamentale della teoria quantistica, cioè l'idea che l'informazione non possa essere distrutta.
A distanza di 30 anni nel 2004, Hawking ammise di essersi sbagliato  sulla perdita di informazione sebbene ad oggi nessuno sia in grado di spiegare come l'informazione possa sfuggire a un buco nero. Un problema doppio dato che da una parte l'idea della informazione che fuoriesce da un buco nero non è compatibile con la relatività generale, e dall'altra distruggere l'informazione non è compatibile con la teoria quantistica.
Allora chi ha ragione?
Con il nuovo articolo Hawking propone una terza via, che permette di salvare capra e cavoli, cioè meccanica quantistica e relatività generale: dai buchi neri scompare l'orizzonte degli eventi. La chiave per comprendere tale modifica teorica è che nei pressi del buco nero le oscillazioni dello spazio-tempo sono talmente ampi da rendere improbabile l'esistenza stessa di un confine ben definito. Al posto dell'orizzonte degli eventi, Hawking suggerisce di usare un "orizzonte apparente", un'area lungo la quale i raggi di luce rimarranno come sospesi.
Secondo Hawking "l'assenza di orizzonti degli eventi significa che non ci sono buchi neri - nel senso di regioni da cui la luce non può sfuggire all'infinito. Ci sono, tuttavia, gli orizzonti apparenti, che persistono per un certo periodo - finito - di tempo".
Il fatto che l'orizzonte apparente sia "flessibile" come posizione, associato al fatto che non sia eterno e possa dissolversi (quando le sue dimensioni siano diminuite oltre ad una certa soglia), porta con se un concetto estremo nelle sue implicazioni: in linea di principio qualunque cosa può uscire da un buco nero. Una volta svanito il buco nero ciò che era stato in tempi immemori intrappolato al suo interno verrebbe infine rilasciato.
Certo in una forma ben diversa da quella originaria (una parte emessa in precedenza sotto forma di radiazione di Hawking), ma indubbiamente sarebbe destinato ad uscire.

 Se l'idea di Hawking fosse corretta, potrebbe anche accadere che … non esiste alcuna singolarità al centro del buco nero. La materia sarebbe "semplicemente" trattenuta temporaneamente dietro l'orizzonte apparente, senza mai raggiungere il centro.

In termini grossolani cancellare il concetto di orizzonte degli eventi assomiglia ad un escamotage per rimuovere l'essenza stessa del paradosso: no-orizzonte, no-conflitto tra relatività e quantistica. Una soluzione che non accontenta alcuni fisici teorici, tra cui Raphael Bousso, della università della California a Berkeley. "Non è possibile avere entrambe le cose, togliere la barriera posta sul confine e fare ricomparire l'informazione disassemblata durante il passaggio del confine. Stephen semplicemente non ha discusso di questo argomento, quindi non è chiaro lo abbia affrontato".
Un altro critico è Don Page, della università di Alberta in Canada, "Io non penso che eliminare il concetto di orizzonte degli eventi sia in grado di per sé di risolvere il problema del firewall, che è un problema sottile. Inoltre l'idea di eliminare il concetto di orizzonte degli eventi non è nemmeno una idea nuova essendo stata proposta la prima volta un trentennio fa, se non prima".
In conclusione, essendo ben lungi dal potere anche solo immaginare chi dei due abbia ragione, la discussione rimane aperta

(Articoli precedenti sul tema buchi neri, qui)
(articolo successivo, qui)

Fonti
- Information Preservation and Weather Forecasting for Black Holes
S. Hawking, arXiv.org (2014)
- Firewall, un muro di energia alla fine dello spazio-tempo
Le Scienze, novembre 2013
- Stephen Hawking: 'There are no black holes'
Nature, 24 gennaio 2014
- Astrophysics: Fire in the hole!
 Nature, aprile 2013

- Stephen Hawking: 'There are no black holes'
space.com
-  Stephen Hawking's New Black Hole Theory: Scientists Remain Unconvinced
space.com



Selezionati i siti di atterraggio su Marte della missione ExoMars

ExoMars. Alla ricerca del luogo più adatto in cui fare atterrare il rover europeo

Mandare un "robottino" su Marte implica una accurata pianificazione sotto molteplici aspetti: tecnico (il viaggio e le caratteristiche strutturali della sonda); scientifico (quale la strumentazione, meglio se ridondante, di cui necessiterà per svolgere i compiti predefiniti); previsionale (prevedere in anticipo le anomalie o incidenti di percorso per non essere presi alla sprovvista).
Tuttavia questa pianificazione servirebbe a ben poco se non si valutasse accuratamente dove fare atterrare la sonda perché sia in grado di espletare la sua missione. Tra le variabili da considerare vi è la morfologia (troppi sassi, pendi scoscesi, dentro un cratere, etc), la geologia e le condizioni atmosferiche (stare lontani dalle zone soggette a tempeste di sabbia) del luogo prescelto. Una deviazione di soli pochi chilometri può annullare la riuscita di una missione.
Tutte problematiche queste ultime che hanno dovuto essere affrontate dagli scienziati dell'Ente Spaziale Europeo (ESA) quando hanno cominciato a pianificare dove fare atterrare ExoMars, il primo rover europeo  che parteciperà alla ricerca della vita su Marte.
ExoMars (credit: ESA)
ExoMars è il nome del rover da 300 kg in fase di sviluppo nell'ambito di una missione congiunta tra la ESA e la agenzia spaziale russa Roscosmos prevista per il 2019.
A differenza dei rover attualmente operanti sulla superficie marziana, ExoMars sarà dotato di un trapano in grado di penetrare per 2 metri sotto la superficie alla ricerca di tracce organiche. Solo al di sotto della superficie è infatti possibile ipotizzare la presenza di vita (o di tracce organiche di una vita passata) a causa delle condizioni proibitive legate sia alla tenue atmosfera che al debole campo magnetico. Due condizioni queste che spiegano l'irraggiamento da raggi solari e cosmici della superficie marziana a livelli ben superiori a quelli presenti sulla Terra.

A tale scopo il 27 marzo scorso, 60 degli scienziati coinvolti nella missione si sono incontrati allo European Astronomy Centre vicino a Madrid per definire quale tra gli otto siti selezionati per l'atterraggio fosse il migliore. Quattro tra questi hanno ricevuto i maggiori consensi: Mawrth Vallis, Oxia Planum, Hypanis Vallis e Oxia Palus. Ristretta la rosa dei candidati toccherà ad un gruppo ristretto di esperti fare all'ESA la propria proposta entro la fine del 2016.
I siti potenziali in cui fare atterrare il rover (credit: NASA/Goddard Space Flight Center/nature.com) Vi consiglio di inserire
le aree ricercate su Google-Mars (link) per visualizzare la loro posizione sul pianeta rosso

"Trovare il posto giusto è cruciale", dice Matt Balme, uno scienziato planetario presso la Open University di Milton Keynes. "Se facessimo una scelta sbagliata, potremmo fare atterrare la sonda in una zona "pericolosa" - e quindi al probabile fallimento totale della missione - o in un'area in cui a causa delle caratteristiche geomorfologiche non avremo alcuna possibilità di conseguire gli obiettivi scientifici della missione".
Gran parte del pianeta è stato infatti escluso proprio per motivi tecnico-scientifici. Per avere una possibilità di trovare tracce di vita, gli scienziati dei gruppi di lavoro hanno dovuto selezionare un sito che fosse verosimilmente acquoso 3,6 miliardi di anni fa, il periodo in cui ci sono ottime ragioni per pensare che l'acqua fosse abbondante su Marte, in condizioni quindi molto simili alla Terra nello stesso periodo.
E' anche importante che questo sito sia stato sepolto in tempi geologicamente brevi in modo da avere conservato le eventuali tracce organiche del lontano passato. 
I quattro siti prescelti  si dividono in due categorie: luoghi in cui le caratteristiche minerarie sono indicative della azione dell'acqua; luoghi in cui è la morfologia stessa ad indicare la presenza di passata di fiumi (e quindi di sedimenti fini in cui siano rimaste intrappolate molecole organiche).
Mawrth Vallis e Oxia Planum, due vaste pianure che contengono alcune delle rocce più antiche del pianeta, rientrano nella prima categoria. Tra le rocce presenti vi sono, in base alle rilevazioni delle sonde orbitali, minerali noti come fillosilicati ad indicare che le rocce erano una volta argille umide formatesi in un pH neutro adatto per la vita.
Nella zona di Oxia Palus sembra invece esserci stato un fiume serpeggiante, mentre Hypanis Vallis mostra le tracce di un estuario, posto ideale per cercare tracce sepolte di sedimenti organici trasportati dal fiume e catturati nella roccia sedimentaria.
Secondo Jack Mustard, un geologo della Brown University, il posto migliore per trovare segni di vita è in una zona dove vi sia stata abbondanza continuativa di flussi d'acqua. Tra questi "Mawrth Vallis sembrerebbe essere perfetto" ha affermato. Un sito non a caso scelto in precedenza dai progettisti della missione Curiosity della NASA, il cui rover atterrò invece nel Gale Crater (link).
In giallo i siti delle precedenti missioni.
Per informazioni dettagliate sulla missione Curiosity vedi l'ottimo blog rockhounds (credit: rockhounds)

Questo insegna che è prioritario massimizzare le possibilità di fare atterrare in tutta sicurezza il rover ma anche di farlo atterrare dove prestabilito. Un compito tutt'altro che semplice come vedremo. Questo è il compito di Roscosmos, subentrato nel progetto alla NASA dopo che questa si era tirata fuori per motivi di budget e per concentrarsi sulle proprie missioni. Una competenza quella della russa Roscomos, basata sul lavoro condotto con i lander lunari tra il '60 e il '70.
Dicevamo che sono proprio i vincoli tecnici legati all'atterraggio ad avere scremato molti dei siti indicati in un primo tempo come ideali. Dato che la procedura di atterraggio si basa su uno scudo termico e un paracadute sarà necessario fare viaggiare la sonda il più possibile dentro l'atmosfera in modo da rallentarne la discesa a sufficienza per non danneggiare gli strumenti nell'impatto. Da qui la scelta di punti di atterraggio in depressioni invece di quelli posti su altopiani.
Inoltre, a differenza di Curiosity che era alimentato da una batteria nucleare, ExoMars sfrutterà un motore a energia solare, un fatto che impone di scegliere zone con poca polvere (altrimenti addio all'energia solare) e sufficientemente irraggiate, quindi zone prossime all'equatore.
La finestra di atterraggio, date l'incertezza intrinseca nella traiettoria è una ellisse lunga 104 km e larga 19 km, più di dieci volte superiore all'area selezionata per Curiosity che pur molto più precisa di Exomars non è riuscita a centrare il sito prescelto. Va da se che l'area deve essere povera di grossi massi e di crateri e tale da non richiedere lunghi spostamenti perché rover possa raggiungere il punto ideale in cui iniziare le analisi.
Non quella che definirei una situazione ideale.
La NASA, da parte sua, non sta a guardare ed è previsto per maggio l'inizio del processo decisionale che la porterà a scegliere dove inviare il prossimo rover su Marte nella missione prevista per il 2020.
Insomma, gli analisti hanno molto lavoro da fare per selezionare i siti di atterraggio ideali per le due missioni. Sbagliare vorrà dire buttare anni di lavoro e i soldi già scarsi (rispetto ai budget del passato). 
Non fare queste missioni è invece un crimine contro la conoscenza, la cui ricerca è un elemento imprescindibile dell'essere umano.
Nota. Giusto per rimanere in tema marziano e sfruttare appieno le potenzialità dello strumento fornito da GoogleMars, vale la pena citare la zona Valles Marineris, un canyon che si estende per migliaia di chilometri  e raggiunge dislivelli compresi tra i 5 e i 10 km di profondità. Si tratta del più grosso canyon nel sistema solare; giusto per fare un paragone il Grand Canyon ha un dislivello di soli 2000 metri. Sebbene sia localizzato in stretta prossimità con la gigantesca montagna vulcanica Tharsis, l'origine del canyon è fortemente dibattuta. Vedi qui la mappa dell'area.
Il futuro delle missioni su Marte (credit: NASA)

In attesa del futuro, ecco un video riassuntivo di quanto fatto finora dal rover Curiosity (articolo precedente QUI).
Credit a Jeff Quitney per il video


(prossimo articolo su "missioni marziane" ---> qui)



Fonte
- ExoMars scientists narrow down landing sites
Nature, 2 aprile 2014
- The ExoMars programme 2016-2018
European Space Agency (ESA), qui e qui



Scarsa pulizia orale e eccessivo colluttorio. Due possibili cofattori nei tumori orali

Studio europeo rivela nuove cause della bocca e cancro alla gola: scarsa pulizia ed eccessivo uso di colluttori sono fattori di rischio.

Una scarsa igiene orale associata ad rare visite di controllo dal dentista sono, secondo uno studio pan-europeo, potenziali fattori di rischio per la comparsa di tumori del cavo orale e della gola. Se questo in un certo senso non è scientificamente così sorprendente, data l'associazione tra scarsa igiene orale e infiammazione (ed infezione) cronica, il dato nuovo è che anche l'uso eccessivo di colluttori è potenzialmente (e sottolineo "potenzialmente") dannoso. Un uso eccessivo di colluttorio è riferito a che ne fa un uso superiore a tre volte al giorno.
Era noto da tempo che fumo e alcol, ancora di più se usati in associazione, fossero fattori di rischio per le neoplasie del tratto orofaringeo (bocca, laringe, faringe ed esofago), ma evidentemente non sono i soli. 
Lo studio che riporta questi dati è frutto della collaborazione tra l'università di Glasgow e l'Istituto Leibniz di Brema ed ha coinvolto 1962 pazienti con tumori del cavo orale (bocca e gola) e 1993 persone sane come controlli, distribuiti in 13 centri in 9 paesi europei, tra cui l'Italia.
Dall'analisi osservazionale e una volta eliminati i fattori già noti come fumo, alcol e fattori socio-economici (un minore status sociale e una minore cultura si legato ad una minore tendenza nel fare visite periodiche dal medico) si è scoperto che tra le variabili rimaste spiccava una carente attenzione all'igiene orale. All'interno del gruppo con scarsa igiene orale rientra una ampia categoria di persone, tra cui coloro che hanno protesi complete o parziali e chi soffriva di gengive sanguinanti; persone quindi che non necessariamente soffrivano di mal di denti (ad esempio quelli con protesi complete) ma che, forse per un falso senso di sicurezza legato all'avere oramai la protesi, hanno trascurato l'igiene orale e con essa anche le periodiche visite dal medico.
Per quanto riguarda il discorso del colluttorio le cause sono più "nebulose"; non si può infatti escludere che l'uso del colluttorio sia legato alla volontà di mascherare l'odore di fumo e/o di alcol. Si tratterebbe in questo caso di una falsa correlazione causale o, nella peggiore delle ipotesi, di una interazione non prevista tra i principi attivi del colluttorio e l'alcol o i prodotti derivanti dal fumo.

Non si tratta di numeri drammatici ma sono sufficienti da essere statisticamente validi e quindi da tenere in considerazione. Questo non vuol dire che i colluttori siano da evitare, dato che molteplici sono le condizioni che rendono questi presidi importanti (ad esempio nel caso di scarsa salivazione o come anti-infiammatorio), ma semplicemente vale la pena ribadire che non è corretto pensare di usarli come una alternativa all'uso regolare di spazzolino e filo interdentale.

Fonti
- European study reveals new causes of mouth and throat cancer
 University of Glasgow, news
- Oral health, dental care and mouthwash associated with upper aerodigestive tract cancer risk in Europe: The ARCAGE study 
Wolfgang Ahrens et al, (2014) Oral Oncology, 26 marzo

Acqua su Encelado, una delle lune di Saturno

Encelado, una delle lune di Saturno, è entrata a far parte del club di chi, all'interno del sistema solare, possiede acqua allo stato liquido, sia essa localizzata sulla o sotto la superficie del corpo celeste.
Saturno e i suoi satelliti (by Wikipedia)
L'acqua allo stato liquido è l'elemento fondamentale perché la vita possa svilupparsi, o forse sarebbe meglio dire la chimica della vita per come noi la conosciamo.
Gli altri membri del club sono, oltre alla Terra, Titano ed Europa, lune di Saturno e Giove, rispettivamente. Marte è al momento in "lista d'attesa" in quanto gli elementi sulla presenza di acqua liquida sono ancora indiziari e nessuna conferma è arrivata dai "lander" in missione sulla superficie marziana.
Aggiornamento 2020. La presenza di acqua su Marte è stata confermata.
La notizia della presenza di acqua su Encelado viene da un articolo pubblicato sulla rivista Science, i cui autori senior sono Luciano Iess, Marzia Parisi e Marco Ducci della Sapienza di Roma, e Paolo Tortora dell'università di Bologna. Il lavoro, frutto della collaborazione con il California Institute of Technology e la UC-Santa Cruz, e basato sui dati della sonda Cassini, ha permesso di identificare un oceano di acqua posto a circa 35 (corretto in seguito a 10 km) chilometri sotto la crosta ghiacciata di Encelado, nei pressi del polo sud. L'oceano, profondo circa altri 8 km, avrebbe una una massa d’acqua pari a quella del Lago Superiore nordamericano, uno dei maggiori laghi terrestri. Ad aggiungere interesse alla notizia, il fatto che i fondali di questo oceano, ritenuti rocciosi e non di ghiaccio, sono probabilmente costituiti da silicati. La chimica ci insegna che la reazione tra silicati ed acqua, in presenza di una fonte di energia interna potrebbe, teoricamente, rendere possibile la vita su Encelado. I silicati infatti forniscono fosforo e zolfo, due tra gli elementi essenziali per la vita. Certo il silicio non ha la stessa versatilità del carbonio come mattone biomolecolare ma ne è un teorico sostituto. Sempre che ovviamente non esista carbonio su Encelado, in questo caso il cocktail sarebbe "ideale".
Encelado visto dalla sonda Cassini (©NASA/JPL-Caltech/SSI/PSI). Notare le differenze sulla superficie nei due emisferi. Per la bellezza dell'immagine di Europa (luna di Giove) guardate qui.
Con un diametro di 504 chilometri di diametro, Encelado è una delle lune più piccole di Saturno, orbitante all'interno del cosiddetto anello E, uno dei più esterni tra quelli che definiscono la caratteristica silhouette del pianeta.  
Encelado ha un aspetto che lo classifica come estremamente giovane o soggetto ad elevata attività di rimodellamento (o forse entrambe). La sua superficie infatti presente un basso numero di crateri da impatto, distribuiti tra l'altro in modo asimmetrico, essendo localizzati principalmente nell'emisfero settentrionale. Le altre zone del satellite appaiono lisce, come "asfaltate", grazie all'azione di una attività vulcanica tutta particolare. Non è infatti lava (roccia fusa) quella che fuoriesce dalla superficie ma ... acqua! 

A sinistra i getti fotografati dalla sonda Cassini (©NASA/JPL-Caltech/SSI/PSI)
La certezza che si trattasse di acqua è venuta dall'analisi Doppler compiuta dalla sonda Cassini durante tre passaggi intorno a Encelado. Una scoperta fondamentale in quanto fornisce la cosiddetta "pistola fumante" che ha permesso sia di identificare la presenza di acqua su Encelado che di spiegare la elevatissima albedo del satellite (conseguenza dell'essere ricoperto di ghiaccio). Ghiaccio e non acqua, date le temperature sulla superficie che oscillano intorno ad una media di -200°C
L'attività idrotermica su Encelado (ipotesi)
credit:saturn.jpl.nasa.gov
La probabile origine del metano (abiotico) su Encelado (credit: NASA/JPL/CalTech)

Che dovesse esistere dell'acqua sotterranea era "quasi" una certezza data la presenza di vapor acqueo nella tenue atmosfera del satellite. Una atmosfera che tuttavia non avrebbe potuto mantenersi a lungo per la bassa gravità; l'unica spiegazione possibile era che vi fosse un apporto costante di acqua dall'interno del pianeta e perché ciò fosse possibile la quantità di acqua nel sottosuolo doveva essere rilevante.
Come prima accennato, i due emisferi sono alquanto diversi tra loro a causa della predominante attività vulcanica (ad acqua) nell'emisfero meridionale; quest'ultimo è caratterizzato da peculiari "strisce di tigre", le fenditure attraverso cui l'acqua fuoriesce sulla superficie (--> PNAS). Dall'analisi delle mappe di calore superficiali (vedi foto sotto) si nota che queste aree sono molto più "calde" (-93 °C) rispetto alla media sopra citata.
L'analisi spettroscopica fatta sulle "strisce di tigre" evidenzia acqua, ammoniaca (che qui agisce come "un antigelo" e molte molecole organiche).

Le immagini che seguono sono tratte dall'ottimo portale "space.com", una preziosa fonte per tutto ciò che ha a che fare con l'astronomia.
Clicca per ingrandire o vai al link originale (all credit to: space.com)
Nel dettaglio abbiamo: 1) una ricostruzione della struttura di Encelado; 2) il posizionamento del satellite negli anelli di Saturno e nel riquadro una immagine fotografica; 3) la dimensione relativa di Encelado rispetto ad altri corpi del sistema solare; 4) una foto della superficie; 5) le "strisce di Tigre" sulla superficie e la mappa di calore associata; 6) uno schema della composizione della atmosfera di Encelado.

Quello che la sonda Cassini ci ha insegnato su Encelado (video credit: NASA/JPL)

Riguardo ad Europa, un satellite di Giove, e membro del club dei "possessori di acqua liquida", si ritiene che al di sotto di una crosta di ghiaccio spessa alcune decine di km sia presente un oceano salmastro in grado di raggiungere profondità fino a 150 km. Queste almeno sono le supposizioni nate dai dati inviati tra il 1995 e il 2003 dalla sonda Galileo. Se i dati sono corretti la quantità di acqua presente sulla Terra è circa due volte inferiore a quella presente su Europa!!!
Europa vista da Hubble. In blu le tracce della fuoriuscita di acqua.
(®bbc.com/news & Roth/USGS)
Una delle migliori immagini dei ghiacci di Europa. In bianco ghiaccio, in grigio forse sali, acido solfidrico ... (©NASA)


In conclusione, abbiamo "a portata di mano" due luoghi in cui potrebbe essere presente vita extra-terrestre anche se verosimilmente (ma sarebbe già la scoperta più importante fatta nella storia umana) di tipo microbico.

(Altri articoli tematici --> qui)

Fonti
-  The Gravity Field and Interior Structure of Enceladus
L. Iess et al, Science 4 April 2014: Vol. 344 no. 6179 pp. 78-80 

- All about our solar system, outer space and exploration
 space.com

-  L’oceano nascosto sotto Encelado, la luna di Saturno
Wired (Italia)

-  Jupiter Moon Europa May Have Water Geysers Taller Than Everest
space.com





Le nuove linee guida USA per il controllo del colesterolo

Il Lipitor (atorvastatina), è tra i farmaci anti-colesterolo a base di statine quello di maggior successo di vendita nella storia farmaceutica.
La sua efficienza nell'abbassare i livelli del LDL, pur comprovata, non è assoluta dato che un certo numero di soggetti sembra "resistente" ad un farmaco altrimenti molto efficente. Una resilienza alla normalizzazione dei valori ematici, osservabile anche dopo il trattamento di questi pazienti con dosi crescenti di Lipitor o con farmaci diversi, che non deve stupire più di tanto dato che non tutte le ipercolesterolemie sono uguali. Gli effetti collaterali associati al trattamento (in genere dolori muscolari) sono associati alla dose di farmaco assunta, tendono cioè a diventare più frequenti all'aumentare del dosaggio. I farmaci anticolesterolo, vale la pena ricordarlo, devono essere assunti in modo continuativo; da qui l'importanza di valutare sempre il rapporto rischio (e gravità) degli effetti collaterali con i benefici legati al decremento di morbilità che il farmaco determina.
E' evidente che farmaci del genere sono delle vere e proprie galline dalle uova d'oro per l'industria farmaceutica anche una volta che il brevetto sia scaduto. Il numero di utenti è alto e "fidelizzato". L'inizio del trattamento avviene, in genere, con l'approssimarsi della mezza età, momento in cui è più probabile (al netto di predisposizioni genetiche) rilevare livelli di colesterolo superiori ai parametri di riferimento. Ed è proprio su questi "parametri di riferimento" che si gioca la partita tra le pulsioni dell'industria a cercare di vendere il farmaco e il consensus medico su quali siano i parametri più affidabili che giustifichino l'inizio del trattamento. Parametri che sono definiti da linee guida raccolte nell'Adult Treatment Panel (ATP) ed elaborate da 15 esperti nominati dai National Institutes of Health americani. Negli ultimi questi valori soglia sono stati spesso contestati in quanto non univocamente predittivi del rischio cardiovascolare.
Dopo anni di discussioni si è giunti infine all'ultimo aggiornamento delle linee guida (pubblicate a fine 2013 sotto il nome di ATP IV), con novità interessanti per il campo. Notizie non legate all'arrivo di farmaci più efficienti (anche se è vero che sono in fase di sperimentazione avanzata) quanto per la revisione dei valori clinici di riferimento per LDL.
Qui un riassunto

L'attuale linea guida (ATP III) ha come cardine centrale il mantra "meno [LDL] è meglio". Un assunto che tuttavia, pur fortemente indiziario e con molte evidenze cliniche, non è mai stato formalmente dimostrato.
Infatti sebbene sia chiaro e comprovato che le statine riducono il rischio di infarto e ictus, il solo abbassamento di LDL (ottenuto con altri farmaci) non fornisce la stessa azione protettiva. Quindi le statine fanno qualcosa in più che solo abbassare il colesterolo. Molto probabilmente l'azione unica delle statine è correlata all'azione di contrasto dello stato infiammatorio generale, di suo è un fattore di rischio per le malattie cardiache.
Il dubbio sulla centralità del LDL nella prevenzione cardiovascolare non è nuovo, essendo emerso nello studio clinico Action to Control Cardiovascular Risk in Diabetes (ACCORD) che nel 2010 mise in discussione un altro dogma, mostrando come la riduzione della pressione o della glicemia non sono sufficienti da soli per ridurre il rischio di infarto o di ictus. Anzi, paradossalmente abbassare i livelli glicemici ne aumentava il fattore di rischio. Questo per sottolineare come la plurifattorialità intrinseca ad alcune malattie renda inutile cercare di curarle intervenendo solo su un parametro fisiologico, che è magari solo un epifenomeno. Anzi potrebbe essere dannoso dato che si agirebbe solo sul campanello di allarme senza avere prima spento l'incendio.
Del resto come affermano alcuni esperti del campo "la maggior parte di coloro che hanno un attacco di cuore non hanno livelli di LDL troppo alti". Sarebbe più utile avere una panoramica generale sullo stato di salute delle arterie e "se le arterie e il cuore sono sani, non mi interessa il valore di LDL o della pressione del sangue". Una affermazione forse eccessiva ma che spiega i dubbi su alcuni atteggiamenti interventistici spiegabili con gli enormi interessi delle aziende farmaceutiche per vendere farmaci anti-colesterolo anche a soggetti non veramente a rischio. Sebbene ad oggi la maggior parte di questi farmaci siano fuori brevetto (quindi disponibili in forme low-cost) è altrettanto vero che alcuni nuovi farmaci (come quelli che inibiscono la proteina PCSK9, coinvolto nella sintesi del colesterolo) sono in dirittura d'arrivo.

La, apparente, buona notizia è che le nuove raccomandazioni eliminano i vincoli del tipo "se superi il valore x di LDL devi prendere la statina" ma al contempo, volendo essere dubbiosi, ampliano il bacino dei candidati alle statine, dato che raccomandano l'utilizzo a chi abbia accumulato un fattore di rischio cumulativo rispetto alla media superiore del 7,5 % in 10 anni. Un dubbio esposto sul British Medical Journal da John Abramson della Harvard University e autore del saggio "Overdosed America: The Broken Promise of American Medicine". Il rischio è che il numero di sani che, soprattutto in USA, inizieranno ad usare le statine possa aumentare.
Entrando nel dettaglio all'atto della prescrizione i medici dovranno valutare se i fattori di rischio cardiovascolare rispondendo a quattro domande:
  • il paziente è malato di cuore?
  • soffre di diabete?
  • i valori di LDL superano 190? E' inferiore ma ha il diabete?
  • il rischio di infarto a 10 anni è superiore a 7.5?
Se anche una sola di queste domande sarà positiva si dovrà optare per un trattamento a base di statine. In tutti gli altri casi, si consiglierà di modificare la dieta e lo stile di vita.

(potrebbe interessarti su questo blog l'articolo su "LDL cattivo?")


Fonti
- Management of Blood Cholesterol in Adults:  Systematic Evidence Review from the Cholesterol Expert Panel

- 2013 ACC/AHA Guideline on the Treatment of Blood Cholesterol to Reduce Atherosclerotic Cardiovascular Risk in Adults
 Am Coll Cardiol. 2013;():. doi:10.1016/j.jacc.2013.11.002






Nature 494, 410–411 (28 February 2013)
Check http://www.nhlbi.nih.gov/guidelines/cholesterol/atp4/
Powered By Blogger
"Un libro non merita di essere letto a 10 anni se non merita di essere letto anche a 50"
Clive S. Lewis

"Il concetto di probabilità è il più importante della scienza moderna, soprattutto perché nessuno ha la più pallida idea del suo significato"
Bertrand Russel

"La nostra conoscenza può essere solo finita, mentre la nostra ignoranza deve essere necessariamente infinita"
Karl Popper
Controllate le pagine delle offerte su questo blog




















Zerbini fantastici