CC

Licenza Creative Commons
Questo opera di above the cloud è concesso in licenza sotto la Licenza Creative Commons Attribuzione 3.0 Italia.
Based on a work at scienceabovetheclouds.blogspot.com.
Le notizie raccolte sono etichettate per contenuto e argomento e sono pensate in modo tale da essere "utili" anche a distanza di mesi. Ogni news tratta da articoli peer reviewed (non opinioni!!) è contestualizzata e collegata a fonti di approfondimento. Ben difficilmente troverete quindi notizie il cui contenuto è datato e privo di interesse.
Questo almeno è il mio obiettivo.
Gli hyperlink presenti nel testo dell'articolo (parole con diversa tonalità di colore) rimandano a pagine SICURE.

Volete aiutare il blog? Cliccate sugli annunci sponsorizzati da Amazon (se non li vedete, modificate l'Adblocker per vedere solo Amazon). Se poi decidete di provare Prime o comprate qualcosa Amazon sarà ancora più felice. Tutto qui :-)

Diabete. Nel dedifferenziamento una nuova spiegazione e una possibilità nuova di cura

Partiamo da un punto fermo: il diabete insulino dipendente è una conseguenza della progressiva perdita di funzionalità pancreatica.

Non appena però ci allontaniamo da questo assioma entriamo nell'alveo delle possibilità. Se ci chiedessimo quale è la causa di tale malfunzionamento le ipotesi sarebbero varie. Una fra queste associa la componente autoimmunitaria della malattia, che porta alla distruzione delle cellule beta pancreatiche, con un agente primario di tipo virale che favorirebbe uno stato infiammatorio cronico e, nei soggetti geneticamente predisposti, una risposta immunitaria aberrante diretta contro il self (le proprie cellule).
 E' anche vero però che nel diabete dell'adulto la componente autoimmunitaria è trascurabile ed il deficit pancreatico compare solo nelle fasi tardive della malattia. La spiegazione ora in auge afferma che il deficit pancreatico sia dovuto ad apoptosi delle cellule beta. Ora uno studio del team di Domenico Accili della Columbia University pubblicato su Cell (link) introduce un elemento di novità: le cellule beta scompaiono non (o non solo) perchè muoiono ma soprattutto perchè si dedifferenziano. Una scoperta molto importante. Se infatti alla morte cellulare ci sono pochi rimedi, ad esempio il trapianto, il dedifferenziamento potrebbe essere, in teoria, invertito con trattamenti opportuni.

Un'arma, in un prossimo futuro, per la cura del diabete (e non solo per il trattamento sintomatico).

Qui sotto il video dell'intervista associata all'articolo


Mucche non allergeniche

Mucche non allergeniche

"Soffrite di intolleranze alimentari o siete predisposti a reazioni allergiche da cibo? Nessun problema abbiamo quello che fa per voi"

Questo potrebbe essere il nuovo slogan pubblicitario di prodotti alimentari in un futuro prossimo.
Fantasia? Non proprio, visto che il fine ultimo di molte ricerche è proprio la creazione di animali da allevamento migliorati. Fra questi abbiamo infatti la mucca in grado di produrre latte privo di una proteina allergenica (beta-lactoglobulina), bloccata al momento della sintesi grazie alla tecnologia della RNA interference. Il lavoro è stato pubblicato sulla rivista PNAS (--> link).
Altro studio-altro animale-stessa rivista ma diverso scopo (farmaceutico).
In questo caso l'animale modificato è il maiale, uno strumento prezioso per lo studio della aterosclerosi. Ad essere alterata qui è la via metabolica coinvolta nella rimozione del colesterolo dalle arterie con conseguente induzione di ipercolesterolemia (--> articolo). Animali quindi ideali per lo studio di farmaci ipocolesterolizzanti di nuova generazione.

Questi sono solo alcuni esempi delle potenzialità offerte da tecnologie come TALEN. Nel futuro vedremo sempre più animali e vegetali modificati geneticamente (grazie alla nuova tecnologia CRISPR-CAS) per i più diversi scopi. Starà a noi che ci occupiamo di scienza spiegare le finalità alla base della loro creazione per evitare che tali ibridi appaiano ai più come puro prodotto virtuosistico (!?) e immorali degni di novelli dr. Frankestein.
® Paul Nash

Supernovae e dintorni

Oggi un post riassuntivo delle ultime ricerche nel campo Supernovae. Tralascio tutti gli aspetti più conosciuti facilmente reperibili anche su wikipedia (meglio la versione inglese).
Supernova
Le stelle dotate di massa 8 maggiore di quella del Sole sono destinate ad una fine spettacolare: diventano supernovae.Negli ultimi 10 anni i sistemi di monitoraggio spaziale hanno permesso di identificare alcune varianti rare di supernove, molto più luminose di quelle osservate fino ad allora.
Sul numero di Science del 24 agosto Avishay Gal-Yam del Weizmann Institute in Israele, riassume in una review questi eventi stellari "superluminosi" catalogandoli in tre classi a seconda delle caratteristiche osservazionali e fisiche.

Gamma ray burst
Un altro tipo di eventi "estremi" è rappresentato dai gamma ray burst, uno dei fenomeni più frequenti (circa uno al giorno) fra quelli rilevabili dalla Terra e a più alta emissione di energia. I gamma ray burst sono, come dice il nome, lampi di raggi gamma della durata di pochi millisecondi provenienti da galassie esterne alla Via Lattea che secondo l'ipotesi corrente sono associate alla fase di collasso di una stella massiccia nel processo che origina un buco nero (sull'argomento vedi articolo successivo, qui).
L'energia risultante viene emessa in entrambe le direzioni dell'asse di rotazione originando così i gamma burst. Gehrels e Mészáros, sempre su Science a pagina 932, riassumono i dati relativi ottenuti con i satelliti Swift e Fermi.

Dilday e collaboratori analizzano invece il particolare tipo di supernovae (tipo Ia) usate per misurare le distanze cosmiche; si ritiene che queste supernovae siano originate dalla esplosione di una nana bianca in un sistema binario di cui l'altro partner stellare è ancora poco caratterizzato. Nell'articolo pubblicato a pagina 942, gli autori descrivono la supernova PTF 11kx ipotizzando che il partner, a lungo cercato, possa essere una gigante rossa.
Origine di una supernova di tpo Ia (®The Johns Hopkins University)

Le Pulsar sono le stelle a neutroni più facilmente rilevabili. Si tratta di stelle molto dense, rotanti e con un campo magnetico molto inteso. Lo spettro elettromagnetico generato risulta dalla superimposizione di componenti termiche e non termiche. Kargaltsev e collaboratori descrivono in modo dettagliato lo spettro di emissione (Science a pagina 946).
Questi dati sono molto importanti per la comprensione della fisica delle stelle a neutroni.
Schema di una stella a neutroni (®hyperphysics.phy-astr.gsu.edu)
 
Ogni galassia contiene al suo centro un buco nero. Di tanto in tanto (ovviamente su tempi cosmici) qualche stella "sventurata" posta in prossimità del buco nero viene catturata e distrutta dalle onde di marea (gravitazionali). Il satellite Swift fu in grado lo scorso anno di individuare uno di questi eventi. R.C. Reis a pagina 949 mostra che subito dopo l'evento distruttivo si generò un disco di accrescimento intorno al buco nero. Un evento osservato finora nei buchi neri più piccoli, generati dal collasso stellare, più che nei buchi neri massicci posti al centro della galassia

Insomma molta carne al fuoco per gli astrofisici.


_______________________________________
Fonti di riferimento

Batteri, arsenico e ... vita extraterrestre. Quando si corre un po troppo

Contrordine: la notizia di qualche mese fa che alcuni batteri potessero vivere sfruttando l'arsenato al posto del fosfato ... era un poco prematura
Qualche tempo fa un articolo pubblicato su Science era rimbalzato sui media generalisti, grazie anche ad un ufficio stampa della NASA un poco frettoloso. Perchè la NASA? Era parte in causa nella ricerca e perchè tale ricerca ricadeva nel campo di interesse della esobiologia (vedi sotto).
 Cosa diceva di così importante quel comunicato?
(wikipedia)
Il Mono lake è un lago fortemente salino e alcalino, quindi velenoso per la maggior parte delle specie viventi, che tuttavia non è deserto. 
Ospita infatti un particolare tipo di crostacei della famiglia dell'Artemia che a sua volta è fonte di cibo per diverse colonie di uccelli.
L'aspetto tuttavia più interessante è la presenza di batteri della famiglia Halomonadaceae. Bene, udite udite, si era scoperto che questi batteri proliferavano in queste condizioni estreme grazie ad una capacità unica: utilizzavano l'arsenico (sotto forma di arsenato) al posto del fosforo (sotto forma di fosfato). Una informazione importante? Certamente visto che fra i tanti ruoli del fosforo il DNA si basa su uno "scheletro" di fosfato e quindi questa informazione indicava che una forma di vita in cui al posto del fosforo ci fosse l'arsenico era possibile. Una notizia importante per gli esobiologi. Gli esobiologi sono ricercatori che studiano la possibilità che vi siano forme di vita in condizioni diverse da quelle che noi sperimentiamo sul pianeta Terra. Condizioni molto diverse, e per noi estreme, rendono possibili percorsi evolutivi del tutto diversi.
Una notizia quindi molto interessante che come detto rimbalzò sui media di tutto il mondo (vedi il Corriere con "Scoperto batterio che si nutre di arsenico"). Non si tardò tuttavia a ridimensionare la portata della notizia grazie alla pubblicazione di successivi lavori.
Rimaneva tuttavia da chiarire come facesse il batterio a distinguere, e quindi a scegliere, fra le due forme chimicamente molto simili del fosfato e dell'arsenato.
Un articolo recentemente pubblicato su Nature da Dan Tawfik del Weizmann Institute (Israele) e Tobias Erb dello Swiss Institute a Zurigo ci da qualche suggerimento.
Comparando le proteine responabili del trasporto del fosfato in 4 specie di batteri, 2 resistenti e 2 sensibili all'arsenato, si è calcolata la concentrazione di arsenato alla quale il 50% dei trasportatori legava l'arsenato; un modo classico in biochimica per misurare l'affinità di un recettore per un dato ligando. Anche in soluzioni contenenti 500 volte più arsenato che fosfato tutte e 5 le proteine trasportatrici studiate mostravano una preferenza per il fosfato. Addirittura una di queste mostrava tale preferenza anche in presenza di un eccesso di arsenato di 4500 volte.
Questa è la chiave per comprendere i primi dati pubblicati. I batteri che vivono in ambienti critici come quelli in cui l'abbondanza di arsenico impedirebbe la vita ad ogni altro organismo (competendo e sostituendosi al fosfato), sono in grado di estrarre dall'ambiente il poco fosfato presente. Questo non vuol dire che l'arsenato non possa penetrare nelle cellule ma che il batterio è estremamente bravo a selezionare la molecola corretta. Si tratta quindi di ottimi selezionatori e non di esempi di chimica della vita alternativa.
Una osservazione che mette definitvamente, per dirla come Wolfgang Nitschke del Mediterranean Institute of Microbiology a Marsiglia, "i chiodi sulla bara all'ipotesi iniziale che l'arsenato sostituisse il fosfato in questi batteri". 
Un commento definitivo che suggerisce una volta di più di prendere le notizie scientifiche amplificate dai media. Cercate sempre le fonti originali quando possibile.

p.s.
Avete letto notizie sui media che riportano quest'ultimo (e molto ben fatto) lavoro? No? Appunto. Non fa notizia.

Articolo di riferimento
The molecular basis of phosphate discrimination in arsenate-rich environments, Nature 2012 (link)


I pianeti di Keplero e le orbite "caotiche"

Potrà sembrare strano ma le orbite dei pianeti del sistema solare sono caotiche.
In termini matematici questo vuole dire che oltre una certa scala temporale, anche noto come Tempo di Lyapunov, la loro traiettoria è imprevedibile. Ovviamente non si tratta di un valore standard, altrimenti sarebbe chiamato costante di Lyapunov; dipende dalle variabili presenti in ciascun sistema stellare come numero di pianeti, dimensione, etc. Nel caso del sistema solare il tempo di Lyapunov è pari a 5 milioni di anni; oltre questo intervallo (un tempo cosmologicamente irrisorio) non possiamo predire la posizione relativa dei pianeti.
Come apparirebbe Keplero-c da Keplero-b
(David Aguilar, Harvard-Smithsonian Center for Astrophysics)
Un articolo pubblicato su Astrophysical Journal da Katherine Deck e collaboratori contiene una osservazione interessante. Il Tempo di Lyapunov per due pianeti del sistema di Keplero-36 è inferiore a 10 anni!! Gli unici altri due esempi noti di orbite con un tempo così breve (o così imprevedibili) riguardano due delle lune di Saturno, Prometeo e Pandora.
Tornando al sistema di Keplero-36, una stella di massa simile al Sole, i due pianeti "caotici" (Keplero-b e Keplero-c) hanno masse pari a 4 e 8 volte quella terrestre e sono fra loro così vicini che ad un ipotetico abitante sul pianeta più piccolo, l'altro pianeta sembrerebbe grande 3 volte la nostra luna piena. Orbitano attorno a Keplero-36 a una distanza di 11-12 milioni di miglia (circa 5 volte più vicino alla stella di quanto sia Mercurio al Sole) in circa 15 giorni.
Fatte queste considerazioni non stupisce come l'azione gravitazionale tra i due pianeti sommata all'azione di Keplero-36 produca un orbita la cui evoluzione anche a tempi brevi è difficilmente prevedibile.


Le osservazioni compiute dalla sonda Keplero sono talmente tante da avere saturato la capacità analitica dei ricercatori che si devono limitare ai casi più promettenti. C'è un modo per contribuire a questa ricerca anche per chi astrofisico non è. Si puo' dedicare un po' del proprio tempo per aiutare ad analizzare i dati presenti. Il modo è descritto nel sito  Planet Hunters; il nome dice tutto. Buon divertimento e grazie per la collaborazione.
_____________________________

Articoli simili sul blog
nuove prospettive
in una galassia lontanain una galassia lontana

Articolo di riferimento

Rapid dynamical chaos in an exoplanetary system, Astrophys. J. 755, L21 (2012), link
Sito NASA: descrizione del progetto Keplero (ricerca di pianeti simili alla Terrra), link

Una pillola contro le radiazioni?

Una pillola per il trattamento di massa dopo disastri nucleari?
 
Torniamo indietro con la memoria all'incidente di Fukushima, frutto di una serie di eventi concatenati non attribuibili, a differenza di Chernobyl, agli errori o al pressapochismo umano. Un evento che seppur molto grave non ha avuto un impatto tragico in termini di vite umane ... ma avrebbe potuto averne.
Fukushima
Una possibilità questa che le autorità giapponesi valutarono nelle concitate ore in cui il rischio "fusione del reattore" si materializzava e che avrebbe comportato comportato l'evacuazione di circa 36 milioni di persone (pari a circa la metà della popolazione italiana) dall'area metropolitana di Tokjo. Oltre ad i problemi logistici un problema fondamentale da affrontare era il trattamento delle persone esposte nell'area di "fallout". 

Da questa considerazione parte una interessante analisi del New York Times (che uso come spunto) in cui si riassumono i progressi nel campo delle terapie preventive dei danni da radiazioni. Terapie diverse a seconda che la terapia sia contenitiva o preventiva. Mentre il trattamento terapeutico di un danno acuto (ustioni, morte cellulare, edemi, necrosi, ...) è sostanzialmente contenitivo e anti-dolorifico, nel caso di trattamenti su soggetti esposti ma non al punto tale da manifestare danni acuti il margine potenziale di manovra è maggiore.
Mi spiego.
Una dose di radioattività (elettromagnetica come con la radiazione X/gamma o particolata come quella associata ad i radionuclidi che decadono emettendo particelle beta o alfa) sufficientemente elevata provoca danni immediati ad i tessuti direttamente esposti. Questi danni comportano in genere morte cellulare che se coinvolge un numero di cellule critico altera la funzionalità del tessuto/organo colpito (ad esempio ustioni della pelle, edemi, etc). Se il danno pur essendo superficiale (cioè nessun altro distretto corporeo appare colpito) coinvolge anche le cellule necessarie per la riparazione/rigenerazione dei tessuti il danno sarà permanente e necessiterà di trapianti di cute più o meno estesi. A questo vanno aggiunti i danni genetici che potrebbero nel tempo causare tumori sia nella zona esposta che diffusi.
Con questo tipo di esposizione, acuta essendo limitata nel tempo, l'approccio base è agire sulle ferite e monitorarne l'evoluzione. Non essendovi più la fonte radiante i danni sono quelli generatisi nel momento dell'esposizione.

Diverso è il discorso in caso di una esposizione cronica dove la fonte di contaminazione sia persistente (ad esempio il cibo e l'acqua contaminati della zona di Chernobyl, ma anche i minatori esposti in continuo alla radioattività delle miniere). In questo caso anche se l'esposizione primaria fosse stata minima e non tale da provocare danni visibili (i danni genetici purtroppo si vedono con il tempo) rimarrebbe il problema della esposizione secondaria. Una esposizione potenzialmente aggravata dall'accumulo nel corpo di radionuclidi; fra questi i radionuclidi più dannosi sono gli emettitori alfa o beta e non, come viene comunemente pensato i quelli che emettono radiazione elettromagnetica.
Il motivo è semplice: la radiazione particolata fa poco strada essendo prontamente assorbita, data la massa della particella, dai tessuti circonstanti mentre i raggi X o gamma poichè interagiscono solo in minima parte con la materia, diffondono all'esterno del corpo.
Il problema principale quindi è che le persone contaminate internamente hanno un beneficio parziale dalla rilocazione ad aree non contaminate in quanto i nuclidi assorbiti rimangono nel corpo dove continuano a bombardare le cellule in prossimità.
Una precisazione importante: una persona contaminata con nuclidi beta o alfa emettitori NON è una persona che contamina/irradia il proprio vicino di sedia. Ricordo infatti che le particelle alfa e beta vengono fermate da molto meno di 1 mm di tessuto cellulare.

Tornando al motivo per cui ho iniziato questo articolo, l'incidente in stile-Fukushima rappresenta solo uno dei tanti incubi che non fanno dormire le persone preposte a pianificare la macchina dei soccorsi in caso di contaminazione radioattiva di massa. Oltre ad i malfunzionamenti delle centrali nucleari (di cui si sa almeno numero e localizzazione), l'incubo maggiore è legato ad azioni terroristiche che sfruttino le cosidette bombe sporche (di cui ovviamente non si sa dove e quante).
Fukushima in un certo senso ha ricordato a tutti l'importanza della ricerca di trattamenti poco costosi e facilmente utilizzabili sul campo. L'obiettivo primario è infatti mettere in sicurezza le persone a rischio di esposizione e trattare quelle già esposte.

Cosa è disponibile oggi e su cosa si sta lavorando? 
Ad oggi l'agente chimico disponibile per la decontaminazione "interna" è un relitto della guerra-fredda e si chiama DTPA (diethylene triamine pentaacetic acid). Questa molecola deve essere somministrata per via endovenosa ed è solo parzialmente efficace in quanto rimuove solo una parte degli actinidi, cioè quella serie di elementi atomici che sulla tavola di Mendeleev si trovano fra l'actinio e il laurenzio e che sono i maggiori responsabili del rischio biologico.
Molto interessante quindi la notizia di nuove molecole sviluppate da team coordinati da Ken Raymond del Department of Energy presso il Lawrence Berkeley National Laboratory, con potere decontaminante molto maggiore, in grado di rimuovere gli actinidi rilasciati in seguito ad un incidente nucleare (civile o terroristico) come l'americio, il curio, l'uranio ed il nettunio.

Il trattamento, in fase di sperimentazione, consiste in una pillola, una modalità di somministrazione questa ideale in caso di contaminazione di massa. A seconda della quantità di radiazione a cui si è stati esposti, e dalla immediatezza del trattamento, la assunzione di una sola pillola permette di rimuovere fino al 90% dei contaminanti actinidici entro le 24 ore. Un regime di trattamento consistente in 1 pillola al giorno per due settimane sarebbe in teoria sufficiente per rimuovere ogni traccia actinidica.

I danni?  Sfortunatamente i danni genetici provocati dalla permanenza dell'agente radiante una volta prodotti sono un problema "irrimediabile" (per ulteriori dettagli vedere la parte finale dell'articolo nel paragrafo danno da radiazioni)

Quali sono i principi attivi di questa pillola?
Si tratta di molecole in grado di funzionare come delle gabbie chimiche in grado di legare nel modo più specifico possibile gli actinidi. Disegnare molecole del genere è possibile considerando che sia il plutonio (IV) che il ferro (III) sono chimicamente simili. Usando come modelli naturali le unità chelanti trovate nei siderofori (piccole molecole secrete dai batteri per estrarre e catturare il ferro a loro necessario) è stato possibile progettare molecole del tipo idrossipiridonati (HOPO) contenenti 4 o 8 braccia chelanti, cioè atomi con coppie di elettroni disponibili per il legame covalente con un actinide.
La molecola octadentata in grado di catturare gli actinidi
 Molecole di questo tipo sono sintetizzabili su scala industriale (prodotti finora 5 kg) ed in più hanno dimostrato di essere altamente efficaci e prive di effetti tossici alle dosi testate. Caratteristiche queste che hanno permesso, seguendo le direttive imposte dalla Food and Drug Administration (FDA), di iniziare la procedura di sperimentazione necessaria per la richiesta di autorizzazione all'uso di un qualunque medicinale. Un percorso estremamente costoso che necessita di sponsor che vogliano spendere soldi per un farmaco che, si spera, non verrà mai usato.
Ogni anno il numero di farmaci noti come NME (nuove molecole) approvati in USA dalla FDA sono meno di 25, e ciascuno ha un costo di sviluppo cumulativo superiore al miliardo di dollari. Decidere quindi di investire questi soldi per un farmaco il cui utilizzo è previsto solo in seguito ad un incidente nucleare è una decisione che nessun consiglio di amministrazione aziendale approverebbe. La partnership finanziaria pubblico-privato è in certi casi fondamentale se la società civile vuole essere pronta a fronteggiare eventi potenzialmente catastrofici come Chernobyl, Fukushima o peggio una azione terroristica con una bomba "sporca".
 Questo ha un prezzo, ma il prezzo da pagare in caso di catastrofe sarebbe molto maggiore.

____________________________

Danni da radiazioni (continua da sopra)
Purtroppo i danni genetici provocati dalla permanenza dell'agente radiante sono, una volta prodotti, "irrimediabili". Irrimediabili in quanto la cellula diviene portatrice del danno. Il danno genetico in senso lato è solo un fattore di rischio non una condanna. Infatti la maggior parte del genoma contiene zone non codificanti e solo un numero minimo di geni ha funzioni regolatorie chiave. Inoltre la maggior parte delle cellule danneggiate nelle funzioni chiave si "suicida" mediante il processo noto come apoptosi.
Il rischio derivante dalle radiazioni è bi-faccia:
  • da una parte il danno è cumulativo (più esposizione è uguale a maggiore probabilità di danno in un gene chiave) e sopra una certa dose la cellula non è in grado di riparare il danno; 
  • dall'altra a differenza delle tossine non vi è una soglia minima sotto la quale non vi sia rischio. Il danno da radiazione è un evento probabilistico, una singola particella alfa potrebbe essere sufficiente a creare un danno genetico grave se per puro caso colpisse il punto giusto sul DNA, la cellula giusta (ad esempio una cellula pluripotente), al momento giusto. Il rischio aggiuntivo è considerato irrilevante qualora la radiazione assorbita sia inferiore a quella assorbita in condizioni standard (somma di radiazione ambientale e cosmica).

Capisco che la maggior parte delle persone non abbia dimestichezza con un linguaggio a base di DNA e lesioni genetiche. Per spiegare meglio questo punto consideriamo la tipologia dei indotti:
  1. Danno tale da provocare la morte o la mancata capacità proliferativa della cellula. L'effetto è locale e immediato e, se non compensato dalle altre cellule, di impatto generale. Ad esempio una radiazione che provocasse la morte delle cellule epidermiche risulterebbe in una necrosi di diversa entità a seconda del numero (e del tipo) di cellule coinvolte. La perdita di cellule staminali epidermiche provocherebbe una lesione non guaribile. Esiste un valore soglia (anche se prima ho detto che se vogliamo essere precisi in realtà non vi è). Al di sotto di valore la radiazione assorbita è, sul breve termine, sostanzialmente innocua e riparata con i meccanismi fisiologici cellulari. Poi va da se che il danno è innocuo sul breve ma ... vedi punto 2
  2. Danno genetico. Anche se il danno fosse sotto soglia, cio nonondimento potrebbe essere causa di future patologie tumorali a causa di modificazioni genetiche indotte. In questo senso si dice che non esiste un valore soglia per i danni genetici. Siamo di fronte ad un evento stocastico: un singolo evento radiante (sia esso dovuto ad i raggi cosmici, al radon delle rocce o a contaminazioni industriali/militari/etc) può essere sufficiente se "colpisce il DNA nel punto giusto, la cellula giusta, nel momento giusto, per provocare danni futuri.
Torniamo allora alla pillola di cui sopra.
Qualunque trattamento il cui fine sia di prevenire i danni da radiazioni (tranne quelli acuti già avvenuti ... ) deve rimuovere nel minor tempo possibile gli agenti radianti dall'interno del corpo, in modo da minimizzare l'accumulo di cellule danneggiate che porterebbero ad un danno visibile e diminuire il numero di eventi mutagenici "futuri" (quelli che avverrebbero se il radionuclide e tutti i derivati permanesse in sede).
Una volta assorbiti gli actinidi devono essere immobilizzati e rimossi dal corpo nel più breve tempo possibile.


_________________________________________
vedi anche Lawrence Berkeley National Laboratory

Dove è finito lo Xenon?

Il mistero del gas Xenon
Lo Xenon è un gas nobile presente in tracce nell'atmosfera terrestre. Come tutti i gas nobili è anche detto a valenza zero, essendo sostanzialmente inerte nella interazione con gli altri elementi.
Il mistero dello xenon nasce dal fatto che la quantità rilevata è inferiore rispetto al valore atteso, derivato dalla quantità di xenon presente nei meteoriti, cioè i mattoni usati per costruire i pianeti rocciosi del sistema solare.
Visto che lo xenon non si trasforma in altri elementi e tantomeno forma con essi legami covalenti, due sono le possibili spiegazioni del cosiddetto paradosso dello xenon
  • si è perso nello spazio; 
  • è intrappolato nelle profondità della Terra.
A questo quesito ha provato a rispondere un gruppo di ricercatori tedeschi con un lavoro pubblicato su Nature.
Il team di Hans Keppler, un geofisico della università di Bayreuth, ha analizzato la perovskite, un silicato di magnesio componente principale del mantello terrestre. Secondo la loro ipotesi i gas nobili possono, in particolari condizioni, dissolversi all'interno del minerale rimanendo li intrappolati. Hanno quindi provato a dissolvere lo xenon e l'argon nella perovskite a temperature superiori ad i 1600 ºC e a pressioni 250 mila volte superiori a quella atmosferica (condizioni simili a quelle presenti nel mantello). Con loro sorpresa l'argon penetrava agevolmente nella perovskite mentre lo xenon no.
Perovskite
(Rob Lavinsky, iRocks.com – CC-BY-SA-3.0)
Da qui l'ipotesi che nelle prime fasi della formazione della Terra, quando il pianeta ancora fuso era sottoposto ad un bombardamento costante da parte dei meteoriti, lo xenon che fuoriusciva, non trattenuto da alcun legame (covalente o non) venne perso nello spazio, insieme a gran parte della atmosfera primordiale. Successivamente al raffreddamento della crosta terrestre la fuoriuscita dei gas nobili intrappolati divenne possibile solo durante le eruzioni vulcaniche (o similari); ed è nell'atmosfera che ancora oggi li troviamo. Non è un caso, scrivono gli autori dello studio, che il rapporto relativo tra  xenon, krypton e argon nell'atmosfera sono direttamente correlati alla loro diversa solubilità nella perovskite e alla loro "pesantezza" (il più leggero xenon è anche quello che si perde più facilmente nello spazio).
Ne deriva che quel poco di xenon presente è la diretta conseguenza della sua seppur minima solubilità nella perovskite.

Tutto chiarito quindi?
Non secondo Chrystele Sanloup, geologa presso la Universitè Pierre and Marie Curie a Parigi, che solleva due punti:
  • nello studio non è stato considerato lo xenon che deriva dai processi di decadimento radioattivo dell'uranio e del plutonio;
  • le conclusioni a cui sono giunti gli autori dovrebbero essere valide anche per Marte. su cui è vero che lo xenon scarseggia ma anche la perovskite è molto inferiore a quella terrestre. Quindi il discorso la spiegazione della solubilità dello xenon nel minerale non spiegherebbe il paradosso.
Quest'ultimo punto associato alla minore forza gravitazionale marziana, che avrebbe dovuto facilitare la scomparsa dello xenon, lascia aperto il caso. Il vulnus teorico aperto dal caso marziano impedisci di conseguenza di considerare soddisfacente tale spiegazione anche nel caso terrestre.

Fonte
- The origin of the terrestrial noble-gas signature
Svyatoslav S. Shcheka & Hans Keppler, Nature (2012) 490, pp 531–534


Autismo: la malattia, la genetica e trattamenti preventivi futuri

(post precedente sul tema, ---> Autismo: una patologia geneticamente eterogenea)

****

Quando si parla di autismo è proibito generalizzare. Non si tratta soltanto dell'imprescindibile dovere medico di trattare ogni paziente come un individuo e non come un caso fra tanti, ma di un fatto oggettivo. Parlare di autismo vuol dire parlare di un gruppo di malattie eziologicamente diverse e poco caratterizzate che presentano una sintomatologia simile (di cui il personaggio di Rain Man è solo un esempio). Una semplificazione conseguente alla bassa quantità di dati molecolari disponibili e che rende estremamente arduo definire percorsi para-terapeutici (dalla malattia infatti non si guarisce) specifici per favorire l'integrazione sociale dei pazienti.
Il logo di una associazione USA per bambini autistici
 Riuscire a stabilire un mutuo contatto con un individuo autistico è un compito gravoso. Per entrambi. I processi mentali che separano i due mondi, pur oggi abbastanza compresi, sono nondimeno sostanziali. Non comprendere queste differenze può indurre ad approcci sbagliati che possono risultare in un ulteriore isolamento del soggetto. A tal proposito voglio segnalare il libro scritto da un astrofisico (e autistico) inglese che descrive in modo chiaro, e a tratti volutamente divertente, le difficoltà di interazione dovute alla propria incapacità di estrarre il contenuto da un linguaggio figurato.
Un punto di vista interessante in quanto viene dal malato che spiega come ha imparato a convivere con la sua malattia e, dato il suo lavoro, a usare la diversità di pensiero PER il suo lavoro.
Di seguito il libro
Compralo su Amazon e prova il servizio Amazon Prime
e l'intervista all'autore (in inglese su The  New Scientist, qui, oppure (in italiano) l'intervista tratta dal sito di Moebiusonline.eu (audio)

Dicevamo allora che l'autismo comprende gruppi eterogenei di soggetti, ad eziologia poco nota. Definire al suo interno sottoclassi comuni è il primo passo per individuare precocemente i soggetti e sottoporli a percorsi psico-formativi (e forse in futuro a terapie) mirate. Una prospettiva che permetterebbe di integrare più efficacemente questi individui altrimenti condannati ad una vita di isolamento.

I dati che seguono, pubblicati su Science (vedi anche UCSD), vanno in questa direzione.

Un team di ricercatori della University of California a San Diego (UCSD) e della Yale School of Medicine, hanno studiato una forma di autismo associata ad epilessia (altra malattia di origine eterogenea e poco compresa). Lo studio di questa associazione, presente nel 25% dei pazienti autistici, ha permesso di sviluppare interessanti novità terapeutiche in cui il ruolo principale è svolto da un comune integratore alimentare
Facciamo un passo indietro per capire come si sia giunti a questo risultato. Tra i tanti meriti del Progetto Genoma voglio sottolineare l'avere stimolato lo sviluppo di tecniche di analisi via via più sofisticate. La Exon Sequencing è una di queste. Brevemente si tratta di una tecnica che focalizza l'analisi del DNA genomico sulla sequenza degli esoni, le zone del gene propriamente codificanti, più che sul gene nel suo complesso (i geni a loro volta coprono una percentuale ridotta di tutto il DNA, il genoma). Una semplificazione procedurale che se da una parte consapevolmente trascura molte importanti regioni regolatorie, dall'altra si focalizza sulla ricerca dele mutazioni che causano le alterazioni strutturali della proteina codificata dal gene stesso.
Il grosso vantaggio di questo approccio è la diminuzione sostanziale dei costi e dei tempi operativi. Un punto molto importante quando i pazienti da analizzare sono molti.
Con questa tecnica il gruppo di Joseph G. Gleeson ha identificato, studiando il DNA di due famiglie autistiche, una mutazione in un gene importante per il metabolismo degli aminoacidi ramificati (leucina, isoleucina e valina), aminoacidi non sintettizzabili dalle cellule umane il cui apporto dipende quindi unicamente dalla dieta. Un limite che avrebbe messo in serio pericolo la sopravvivenza stessa dell'essere umano durante i frequenti periodi di penuria di cibo, se non fosse intervenuta l'evoluzione che ha selezionato in tali occasioni un interruttore di emergenza. In caso di penuria di cibo viene spento il catabolismo (degradazione) degli aminoacidi ramificati.
La scoperta di Gleeson è che il sottogruppo di individui autistici esaminati è carente in questo sistema di controllo. "La cosa più entusiasmante", chiosa Gleeson "è che il potenziale trattamento [per compensare questo difetto metabolico - NdB] è evidente e semplice: basta dare ai pazienti affetti gli aminoacidi di cui il corpo è deficitario".
"Pensiamo che questo lavoro fornisca un marcatore importante per lo screening genico che potrebbe predire precocemente la malattia".
Un primo test, consistito nel fornire a cellule staminali neurali in coltura gli aminoacidi carenti, confermò la correttezza dell'ipotesi; le cellule acquisivano un comportamente normale. Successivamente vennero studiati topi mutati nel gene indiziato e anche in questo caso l'assunzione di integratori aminoacidi nella dieta migliorava i sintomi neurocomportamentali. Gaia Novarino la ricercatrice italiana primo nome del lavoro aggiunge, "Studiare gli animali è stato fondamentale per la nostra scoperta. Abbiamo scoperto che i topi mostravano una condizione molto simile ai nostri pazienti, e avevano anche crisi epilettiche spontanee, proprio come i nostri pazienti. Una volta dimostrato che la condizione nei topi era trattabile, la domanda pressante è se sia possibile estendere il trattamento ad i nostri pazienti." (qui il podcast dell'intervista a Science).
Un trattamento che non dovrebbe presentare controindicazioni, trattandosi di integratori alimentari di uso comune acquistabili in molti supermercati.
Il limite intrinseco dello studio è la frequenza di questa mutazione nella popolazione autistico/epilettica. Una frequenza al momento non nota visto che i pazienti analizzati appartenevano a 2 famiglie imparentate fra di loro. Uno screening a tappeto è la condizione base per capire se questo trattamento sia utilizzabile su altri pazienti.


Nota aggiunte a posteriori
Si è parlato sopra dell'importanza degli aminoacidi ramificati come potenziali aiuti nella prevenzione
Nuovi studi indicano l'acido folico come un altro degli attori coinvolti in questa eterogenea malattia. Dell'acido folico si conosce oramai l'importanza nella gravidanza (vedi il sito dell'Istituto Superiore di Sanità per altre informazioni, qui).  Quello che è emerso è che l'utilizzo dell’acido folico dimezza il rischio autismo purchè l'assunzione (insieme ad altri integratori) avvenga fra la quarta e l'ottava settimana di gravidanza. Il lavoro, risultato della collaborazione fra team americani e norvegesi e pubblicato sul Journal of the American Medical Association, riporta i risultati dell'analisi nel corso di cinque anni di  più di 85 mila bambini. Le differenze nell'incidenza della malattia sono notevoli. La frequenza dei controlli (che equivale a quella della popolazione standard) è dello 0,21% e tale frequenza crolla allo 0,01% nel gruppo le cui madri avevano assunto acido folico secondo i dosaggi consigliati.
Sull'argomento autismo in generale l'articolo successivo è QUI
Sul tema "autismo e genetica" QUI trovate l'articolo successivo


Fonti
Mutations in BCKD-kinase Lead to a Potentially Treatable Form of Autism with Epilepsy 
G. Novarino et al. ,Science 19 October 2012: Vol. 338 no. 6105 pp. 394-397

- Association Between Maternal Use of Folic Acid Supplements and Risk of Autism Spectrum Disorders in Children
Pål Surén et al, JAMA. 2013;309(6):570-577

Il dilemma del sistema immunitario. Distinguere i batteri buoni da quelli cattivi

Come facciano gli esseri umani, e tanti altri animali, a discriminare tra i microbi utili (da non attaccare) e quelli dannosi (da eliminare al più presto) è una delle domande base della moderna immunologia.
L'intestino umano è popolato da miliardi di batteri, la maggior parte dei quali è innocua se non spesso utile. 
Utile? Si, proprio così, non si tratta di un refuso. I microorganismi che ospitiamo ci rendono il favore (relazione mutualistica) in due modi:
  • Direttamente. Sebbene una persona possa vivere senza flora intestinale i microorganismi svolgono alcune reazioni utili come la fermentazione di molecole indigerite facilitandone l'assorbimento ma anche produzione di vitamine come biotina e vitamina K. Il caso "estremo" è quello dei ruminanti che, senza i batteri presenti nel rumine che digeriscono la cellulosa, non assimilerebbero gran parte dei vegetali che mangiano.
  • Indirettamente. La più importante è l'azione competitiva che permette di tenere sotto controllo i batteri dannosi. Altre funzioni sono l'addestramento del sistema immunitario che diviene via via più efficiente (esempio classico sono i bambini cresciuti iperprotetti che si ammalano più facilmente da adulti) e l'azione sugli ormoni che regolano l'immagazzinamento dei grassi (gli obesi e i normopesi hanno popolazioni di batteri diverse).
Quindi visto che i batteri forniscono dei vantaggi il sistema immunitario ha dovuto imparare a distinguere quelli innocui da quelli dannosi. In teoria una lotta impari vista la quantità di batteri (100 trillioni) nell'intestino, circa 10 volte tutte le nostre cellule. E soprattutto dannosa visto che se il sistema immunitario attaccasse ogni batterio che incontra i danni provocati dal continuo e massiccio stato infiammatorio sarebbero ingenti.
a sinistra i batteri "amici", a destra quelli dannosi.
Utile per rispondere a questo quesito è l'articolo pubblicato su Cell Host & Microbe da Emily Troemel della UCSD (vedi qui, sito università) derivante dallo studio su un nematode.
Il nematode C. elagans è uno dei modelli animali più utili per i ricercatori. Non solo possiedono cellule intestinali simili come struttura a quelle umane ma sono anche animali trasparenti e facili da crescere.
I nematodi possono contare solo sul sistema immunitario innato (che riconosce genericamente tutto ciò che non è self) mancando del sistema immunitario adattativo (anticorpi e cellule immunitarie specifiche per un dato antigene). La Troemel ha osservato che quando le cellule intestinali del nematode incorporano una tossina batterica essi sviluppano una risposta anti-microbica. Il modo con cui le cellule identificano la presenza di "nemico" batterico è attraverso il monitoraggio costante delle proprie cellule e non attraverso la rilevazione di organismi estranei. Una scelta molto utile e non dispersiva in quanto molte delle tossine batteriche più comuni (Pseudomonas, Diphteria, Ricin, Shiga, ...) interferiscono con la sintesi proteica. Monitorare le proprie cellule è più semplice e più veloce che identificare una fra le tante tossine potenzialmente presenti.
Questo dato può essere esteso anche ad organismi più evoluti. E' molto probabile che i batteri nel nostro intestino siano semplicemente tollerati fino a che le cellule a contatto con loro non presentano alterazioni tali da fare scattare l'allarme e la rimozione di ogni organismo trovato associato alle cellule alterate. 
Un modo semplice, poco costoso e quindi efficiente che l'evoluzione ha selezionato.

________________________________
Altre notizie sul microbioma? Seleziona il tag corrispondente qui a destra

Una espressione-una emozione? Contestato l'assunto di Darwin


Charles Darwin fu il primo che dimostrò, nel suo libro del 1872 "The Expression of the Emotions in Man and Animals", che persone provenienti da culture diverse mostravano la stessa mimima facciale.  L'espressività, o meglio la correlazione univoca fra emozione ed espressione, non è quindi mediata dalla cultura.
Un assunto questo, contestato dai ricercatori dell'Institute of Neuroscience and Psychology presso la University of Glasgow grazie all'impiego di un complesso sistema di computer grafica noto come Facial Action Coding System (FACS).
Grazie a questo sistema i ricercatori sono stati in grado di create in assoluto il primo modello multidimensionale  di rappresentazione mentale delle sei espressioni facciali base, riconosciute come tali in due culture diverse. I risultati del test affermano che la cultura ha una azione rilevante. 
Riassumiamo in breve le condizioni del test.
15 bianchi occidentali e 15 orientali (estremo oriente) sono stati usati come tester per visualizzare 4800 immagini tridimensionali di espressioni facciali elaborate casualmente dal computer, e associare ciascuna di esse ad una emozione base.
WC=occidentale; EA=East Asia
Mentre gli occidentali associavano ciascuna delle sei espressioni facciali alle sei emozioni base, gli orientali presentavano differenze sostanziali in queste associazioni. Inoltre mentre negli orientali un  peso maggiore è dato ai movimenti degli occhi, negli occidentali si sfruttano maggiormente altri aspetti.
Secondo Rachael Jack, una delle autrici del lavoro "l'insieme dei dati dimostra che l'espressività facciale è principalmente culturale".
Mentre le espressioni di paura e disgusto hanno avuto nei nostri antenati un ruolo evolutivo importante, comune anche ad altri primati, successivamente si è avuta una diversificazione delle espressioni facciali contestualizzata ad i diversi contesti sociali.
 In breve i dati riflettono il fatto che le sei emozioni base (felicità, sorpresa, paura, disgusto, rabbia, tristezza) sono inadeguate per rappresentare lo spazio emozionale delle popolazioni dell'estremo oriente.
Una osservazione aggiuntiva. Questi dati sono importanti non soltanto da un punto di vista scientifico ma anche pratico. Sebbene infatti la globalizzazione mediatica porti ad un appiattimento generale, in queste fasi iniziali il contatto quotidiano fra persone di provenienza e cultura diversa, può originare fraintendimenti dovuti ad una errata percezione delle emozioni altrui. Cosa ancora più importante l'utilizzo di test espressivi nelle indagini di polizia, se non calibrati sul background culturale dell'indagato, potrebbe originare indizi falsamente accusatori o assolutori.

Il testo completo del lavoro pubblicato su Proceedings of the National Academy of Sciences (PNAS) è disponibile come pdf qui

Ricreare un pallone da calcio con ... cellule vive!!


Non si dica poi che il senso dell'arte manca negli scienziati.
John O'Shea, un artista sperimentale (su questo non avevamo dubbi), ha pensato bene di creare un pallone da calcio ispirandosi al materiale con cui i primi palloni venivano assemblati: la vescica di maiale. Facendo proprio il motto antico che "del maiale non si butta via nulla" O'Shea ha pensato di rinfrescare la vecchia procedura avvalendosi della biotecnologia.
Essendo una persona con molta immaginazione, tanta volontà ma nulla preparazione specifica si è rivolto al professor John Hunt dell'Institute of Ageing and Chronic Disease di Liverpoool.Pigs' cells used to create first 'living football'
Hunt, uno scienziato sensibile ad i problemi artistici, ricorda "Quando John venne per la prima volta a parlarci, per noi non fu una sorpresa. Avevamo già sostenuto la creatività di artisti di varia provenienza in occasione delle celebrazioni a Liverpool per l'anno internazionale della cultura nel 2008. L'idea di John di utilizzare le tecniche di ingegneria tissutale allo scopo di creare, facendolo crescere, un pallone da calcio sollevò da subito il nostro interesse".
Continua Hunt, "Nei primi sei mesi John venne istruito su come gestire le colture cellulari in laboratorio; solo dopo si cominciò a mettere a punto gli esperimenti per fare crescere le cellule in modo da formare un pallone"
Un processo non banale, che richiese la creazione di speciali impalcature che le cellule avrebbero usato per originare la forma voluta. Processo in parte complicato dalla scelta di O'Shea di usare gli stessi materiali (cellule della vescica e non cellule commercialmente disponibili) di scarto usati per i vecchi palloni
Una idea nata, si dice, in seguito alla notizia del primo trapianto di successo della vescica umana."Pensai", chiosa O'Shea "che una idea simile avrebbe potuto essere quella di re-inventare, e riportare alle origini, un prodotto molto amato in Inghilterra. Il pallone da calcio"
Il lavoro è stato esposto a Manchester in concomitanza con le celebrazioni per le Olimpiadi di Londra del 2012.

Fonti per approndimenti:

LDL cattivo e HDL buono? Non è così semplice

Forse da oggi sarà necessario superare la diarchia molto manichea sintetizzata nel titolo. Servono infatti altre informazioni per evitare semplificazioni dannose.
Nell'articolo pubblicato pochi giorni fa su Nature, Jay W. Heinecke (Department of Medicine, University of Washington, Seattle) riassume alcuni aspetti importanti delle problematiche legati a HDL e LDL. 
®Univ. of Maryland
Pur non contestando i vecchi assunti che vedono LDL come il colesterolo cattivo e HDL come il colesterolo buono, Heinecke spinge a compiere un passo in avanti partendo da un aspetto troppo spesso dimenticato dal grande pubblico: il colesterolo, uno dei componenti fondamentale della membrana cellulare, è esattamente lo stesso nel HDL e nel LDL; quello che cambia sono le lipoproteine a cui si associa (e che spiegano il nome di complessi a bassa o alta densità) ed il percorso metabolico in cui questo il colesterolo si posiziona.
Semplificando molto, LDL è visto come cattivo in quanto trasporta il colesterolo, sia quello ingerito che quello prodotto fisiologicamente, in giro per il corpo, favorendo collateralmente il processo aterogenico cioè il processo di deposizione del colesterolo sulle arterie. Un processo complesso che vede nelle cellule muscolari lisce e nei macrofagi gli attori principali. Al contrario il HDL rimuove il colesterolo e lo porta al fegato dove verrà eliminato con la bile.
Il punto sollevato da Heinecke è semplice (alzare l'HDL non è sufficiente) e si fonda su un lavoro pubblicato su Lancet da Benjamin F. Voigt. In estrema sintesi l'autore sottolinea che mentre il livello di HDL è fortemente legato alla genetica, il LDL dipende maggiormente da una serie di fattori esogeni. La presenza nella popolazione di polimorfismi per HDL ha permesso di capire che il semplice aumento dei livelli di HDL NON è sufficiente a ridurre il rischio coronarico. La logica deduzione quindi è che usare il valore di HDL come unico marcatore per valutare la protezione dal rischio coronarico non è corretta soprattutto in presenza di LDL alto.  Altri elementi che inducono alla cautela sono i dati che vedono l'alto HDL nei diabetici come un fattore di rischio di nefropatie ma NON di retinopatie.
I farmaci finora testati per aumentare l'HDL non hanno dato in effetti risultati entusiasmanti: due dei farmaci in sperimentazione sono stati cancellati poiché non mostravano gli effetti di protezione attesi.
A questo va aggiunto il problema che l'HDL è un complesso di lipoproteine ad alta densità e non una struttura omogenea.
Si potrebbe dire che la semplice associazione fatta in questi anni per cui valori alti di HDL è una buona cosa in quanto si associa ad un minor rischio coronarico erano in realtà degli epifenomeni, una conseguenza di eventi a monte e non l'agente causale della protezione. In pratica il dubbio che sorge è se HDL sia un fattore di rischio indipendente per misurare il rischio coronarico o semplicemente un marcatore non importante per il valore che misura (HDL alto) ma per il sottostante ancora non chiarito.
Tra le altre cose che è necessario approfondire, vi è capire se esistano sottoclassi di HDL direttamente correlate al richio coronarico e altre non correlate che agiscono invece da fattori confondenti.
Rispondere a queste domande è cruciale in quanto è alla base della ragione d'essere di farmaci pensati per aumentare i livelli di HDL.

*** Aggiornamento ***
  1. Pochi mesi dopo avere scritto questo righe è stato pubblicato un lavoro su Lancet (una delle riviste più autorevoli in campo medico) che dimostra come individui con livelli fisiologicamente alti di HDL NON hanno alcuna protezione aggiuntiva dal rischio di patologie cardiovascolari. Lo studio, risultato dalla collaborazione fra la University of Pennsylvania e il Broad Institute di Boston, ha analizzato 170 mila persone per valutare l'esistenza di una correlazione fra un polimorfismo genetico associato ad alti livelli di HDL e patologie cardiovascolari. Benjamin F. Voigt, l'autore di punta dell'articolo, ha affermato a tal proposito: "questi dati fanno pensare che gli alti livelli di HDL generalmente associati ad una maggiore protezione sono più un effetto che la causa". In altre parole non è il HDL in se a dare protezione, è solo un indicatore. Quindi terapie farmacologiche volte unicamente ad aumentare HDL sono ragionevolmente inutili.  Fonte: Lancet. 2012; 380(9841):572-80
  2.  Lo studio pubblicato su Science a marzo 2016 chiude definitivamente la porta alla semplificazione manichea del titolo: topi modificati per avere livelli di HDL medio-alti (ma fisiologicamente "accettabili") hanno un rischio aumentato di infarto miocardico. Fonte: Science. 2016; 351(6278):1166-71.




(prossimo articolo sulle nuove linee guida per il trattamento del colesterolo, qui)

____________
Articolo precedente sul colesterolo

La formazione della Via Lattea

Per chi fosse interessato alla materia astronomica consiglio di leggersi un articolo apparso online su Nature. In esso sono riassunti in termini abbastanza comprensibili (ma dovete conoscere l'inglese) anche per i non addetti ad i lavori come me, le conoscenze attuali sulla formazione della Via Lattea (e sulle galassie in generale).
Riassumo il contenuto per argomenti trattati, per evitare eccessive semplificazioni, e rimando all'articolo (Galaxy formation: The new Milky Way by Ann Finkbeiner) per ogni altro dettaglio :
  • il concetto di alone oscuro.
  • il problema delle galassie nane sottorapresentate rispetto alla frequenza attesa.
  • Descrizione strutturale della Via Lattea
gli attori principali coinvolti (@Nature)
  • l'alone oscuro esterno originato dalla galassie nane distrutte?
  • il buco nero al centro della galassia.
  • ipotesi sulla evoluzione della galassia. La fine inevitabile.
Sotto riporto due dei video descrittivi presenti.

Prima la simulazione della formazione di una galassia a spirale, come la "Via Lattea".


quindi l'evoluzione con lo "scontro" futuro tra la galassia di Andromeda e la Via Lattea

La cura del dolore viene dal ... mamba nero

Forse è il caso di precisare che non si intende qui propagandare rimedi drastici per la cura "definitiva" ad i dolori dell'esistenza, tipo quelli usati da Cleopatra su se stessa. Una precisazione d'obbligo visto che il mamba nero (Dendroaspis polylepis) è uno dei serpenti più letali in circolazione, simpaticamente noto agli indigeni sia come "la morte che corre" (arriva fino a 20km/h) o "20 minuti" (il tempo massimo che ti resta dopo un morso).
Dopo questa introduzione da brividi entriamo nel merito del titolo. Il veleno del mamba, composto da un complesso cocktail di tossine, contiene due proteine che hanno la stessa efficacia antidolorifica della morfina e molti meno effetti collaterali. Una miniera d'oro farmaceutica quindi, almeno secondo l'articolo pubblicato su Nature da Diochot e collaboratori (link).
Le proteine, ovviamente chiamate mambalgine, sono state scoperte nell'ambito di uno studio sistematico su diversi veleni animali (50 analizzati) volto a trovare sostituti meno pericolosi degli oppiacei. I derivati dell'oppio presentano problemi noti che ne rendono l'utilizzo problematico. La tolleranza e la dipendenza sono i più evidenti. Molti pazienti infatti diventando tolleranti alla morfina richiedono dosi via via crescenti per essere efficaci e questo si associa alla dipendenza e ad effetti collaterali quali nausea e costipazione.
Il team coordinato da Eric Lingueglia ha testato le mambalgine sui topi e ha dimostrato non solo una chiara attenuazione della sensazione del dolore nelle zone trattate con calore ma anche una ridotta sensitibilità al dolore infiammatorio. Sebbene il trattamento continuato per 5 giorni con la mambalgina provochi, similmente agli oppiacei, fenomeni di tolleranza questa si presenta con modalità nettamente meno pronunciate. Cosa ancora più importante l'azione depressiva sul ritmo respiratorio, uno degli effetti collaterali più pericoli degli oppiacei, è totalmente assente.
Le mambalgine non agiscono sui recettori degli oppioidi, come la morfina, ma su canali ionici (noti come ASIC) localizzati sui neuroni coinvolti nella trasmissione del dolore.
Il punto cruciale è ora dimostrare se le mambalgine sono efficaci anche su umani.

 Le mambalgine sono l'ultimo esempio di molecole con potenziale terapeutico estratte da veleni. Fra queste abbiamo il Prialt (ziconotide) ottenuto dal veleno di un gasteropode marino. Altre sostanze di uso medico sono ricavate dai veleni di anemoni marini, ragni e scorpioni.

Insomma, riprendendo un vecchio adagio quel che non ti uccide ti cura.

articolo sull'argomento
Analgesics: Deadly snake venom for pain relief? (Nature Reviews Drug Discovery)

Vi serve un eReader? Date un occhio ai prodotti sotto sponsorizzati

Prova Amazon Prime Spedizioni pagate per un anno e consegna anche (per prodotti selezionati) entro due ore!!
Nuovo Kindle Se come me amate la semplicità, affidabilità e costo basso allora il Touch fa al caso vostro
Prova il nuovo Kindle Vojage!Se il classico Kindle e volete uno schermo da 6" ad alta risoluzione (300 ppi) con luce integrata a regolazione automatica,
Prova il nuovo Kindle Oasis!Volete solo il top? Ecco allora il top di gamma. Un po' caro ma ...