CC

Licenza Creative Commons
Questo opera di above the cloud è concesso sotto la Licenza Creative Commons Attribuzione 3.0 Italia.
Based on a work at scienceabovetheclouds.blogspot.com.

The Copyright Laws of the United States recognizes a “fair use” of copyrighted content. Section 107 of the U.S. Copyright Act states: “Notwithstanding the provisions of sections 106 and 106A, the fair use of a copyrighted work (...) for purposes such as criticism, comment, news reporting, teaching, scholarship, or research, is not an infringement of copyright.”
Any image or video posted is used according to the fair use policy
Ogni news è tratta da articoli peer reviewed ed è contestualizzata e collegata a fonti di approfondimento. Ben difficilmente troverete quindi notizie il cui contenuto sia datato.
QUALUNQUE link in questa pagina rimanda a siti sicuri!! SEMPRE.
Volete aiutare questo blog? Cliccate sugli annnunci/prodotti Amazon (se non li vedete, disattivate l'Adblocker mettendo questo sito nella whitelist. NON ci sono pop up o script strani, SOLO Amazon). Visibili in modalità desktop! Se poi decidete di comprare libri o servizi da Amazon, meglio ;-)
Dimenticavo. Questo blog NON contiene olio di palma (è così di moda specificarlo per ogni cosa...)

Stella zombie o la stella morta due volte ma ancora attiva

Il caso curioso che potrebbe modificare le nostre conoscenze del campo è quello di una stella che non solo ha originato una supernova anni dopo essere "morta" (cioè essere passata attraverso la fase distruttiva della supernova) ma che continua ancora ad emanare luce.

 ***

Che le stelle non siano eterne lo si sa da poche decine di anni, da quando l'accoppiata strumenti di rilevazione della volta celeste e la conoscenza della termodinamica delle reazioni di fusione nucleare ha permesso di capire (e predire) il ciclo "vitale" stellare.
Se per millenni esse sono apparse come immutabili fiaccole nel cielo, con il tempo si comprese che, a volte e in modo imprevedibile, qualcosa cambiava in tale omogeneità, come ad esempio un aumento improvviso della luminosità di un "punto", una variazione che poteva durare al più qualche mese. La più antica testimonianza in tal senso va ascritta ad astronomi (una "qualifica" che all'epoca indicava funzioni affatto diverse da  quelle degli astrologi) cinesi che nel 185 D.C. documentarono la comparsa di una "stella temporanea" rimasta visibile per 8 mesi.
Sappiamo oggi che si trattò della prima supernova osservata, sita oltre alfa-centauri ad una distanza di circa 9 mila anni luce.
Quello che rimane di SN 185, la prima supernova documentata
(credit: NASA/JPL-Caltech/UCLA - WISE)
Nel corso degli anni si è imparato a distinguere e, cosa ancora più interessante, a predire il destino di una stella in base alla sua massa, che in soldoni vuol dire alla quantità di "combustibile" disponibile (idrogeno nella quasi totalità). Senza dilungarci troppo su argomenti di nucleosintesi stellare, ampiamente noti e di cui sono disponibili ottimi compendi divulgativi, potremmo riassumere il tutto con alcuni punti fermi:
  1. maggiore la dimensione iniziale della stella, più rapido (e catastrofico nel finale) sarà il suo "ciclo vitale".
  2. Fintanto che ci sarà idrogeno da "bruciare" (leggasi da usare come combustibile per le reazioni di fusione nucleare) la stella manterrà un aspetto sostanzialmente costante. L'energia liberata dalla fusione sarà sufficiente a sostenere la massa soprastante; tanto maggiore la massa da sostenere, tanto maggiore l'energia che dovrà essere emessa e tanto più veloce il consumo di idrogeno. 
  3. Le stelle massicce termineranno la loro vita sempre con un "grande botto", la supernova, dalle cui ceneri originerà un buco nero, una stella a neutroni o una nube di gas e detriti, a seconda della massa iniziale e di altre variabili come la presenza di stelle "gemelle" (tipico in un sistema binario).
  4. Una aspettativa di vita molto diversa invece quella delle nane brune (articolo precedente --> Nane brune), superiore a quella dell'attuale età dell'universo. 
  5. Le stelle di classe solare si trovano nel mezzo con una vita stimata di almeno 13 miliardi di anni, suddivisa però in diverse fasi, di cui la principale per durata è quella attuale (circa 8 miliardi, pur con variazioni di luminosità) a cui seguirà la fase di gigante rossa e infine una veloce transizione a nana bianca, una sorta di spegnimento inesorabile ma molto lento (per approfondimenti--> Life of the sun; --> Life cycle of the Sun) che potrebbe originare una nana nera (completamente spenta). Le stelle più piccole (intorno a 0,1 masse solari) passeranno invece attraverso la fase di nane rosse prima di divenire nane bianche. In quest'ultimo caso si tratta di inferenze basate su calcoli dato che stelle di queste dimensioni hanno una vita media superiore a quella dell'attuale universo, quindi nessuna nana bianca può essere "vissuta" tanto a lungo (anche se fosse nata poco dopo il Big Bang) da essersi "spenta".
Punto comune per tutte è che per "accendersi" una stella deve avere massa sufficiente da innescare (e mantenere) le reazioni di fusione nucleare. I calcoli teorici indicano tale massa minima in almeno 0,07 masse solari ed è in effetti in questo ambito che troviamo J0523, la più piccola tra le stelle propriamente dette. Al di sotto abbiamo le nane brune e ancora sotto pianeti di composizione quasi stellare come Giove.
Non si deve confondere una nana bruna con la sopra menzionata (e teorica) nana nera. La prima è una stella mancata (per massa insufficiente ad accenderla), la seconda è la probabile fine ultima di una stella che si è spenta dopo avere consumato tutto il carburante ma la cui massa è insufficiente perché il collasso gravitazionale la "trasformi" in  altro.
In questo quadro ben delineato, pur con tutte le varianti del caso, ecco ora irrompere un fenomeno completamente inatteso, cioè l'osservazione di una stella che da luogo a due supernova distinte a 60 anni di distanza. Qualcosa che potremmo definire "supernova recidiva" se non fosse che tale evento è (in base alle conoscenze attuali) un controsenso dato che dopo l'esplosione di una supernova rimane un buco nero, una stella di neutroni (se la massa di partenza è insufficiente) oppure nel caso di supernova di tipo Ia (tipicamente stelle binarie, una delle quali nana bianca), nulla se non enormi "residui" di gas.  
Tutto faceva quindi prevedere che una supernova fosse un evento definitivo. La scoperta di una stella "morta ma non-morta" (capace di riesplodere) spiega quindi il neologismo di "stella zombie".

Tutto nasce nel settembre 2014 quando gli astronomi dell'Osservatorio Las Cumbres in California osservarono la supernova iPTF14hls, catalogandola come evento "classico". Durante le analisi routinarie della materia ed energia espulse, scoprirono però che c'era qualcosa di strano. In genere, una supernova rimane luminosa per 100 giorni emettendo energie equivalenti (in media) a quella di 100 milioni di soli; questa invece continuò ad alternare aumenti e cali di luminosità per i successivi 600 giorni.
La luminosità persistente di iPTF14hls vs quella di una classica supernova
(Credit: Las Cumbres Obs. via sciencealert.com)
La spiegazione più ovvia era che vi fosse una stella nelle vicinanze responsabile di questa emissione inattesa di energia; lo studio dello spettro dimostrò invece che si trattava proprio di una supernova localizzata a 500 milioni di anni luce da noi. Stabilita la fonte di energia rimaneva da capire perché dal momento della prima osservazione avesse attraversato 5 cicli di luminosità. Ma le sorprese non erano finite. Quando gli astronomi consultarono i dati in archivio scoprirono che la stessa stella era già esplosa come supernova nel lontano 1954; in assenza di altri candidati nelle immediate vicinanze (come avviene in un sistema binario) l'unica spiegazione fu che, in qualche modo, la stella era sopravvissuta alla fase di supernova, per poi esplodere di nuovo a 60 anni di distanza e, cosa ancora più stupefacente, continuare a "vivere".
Nulla lasciava presagire una nuova supernova. In base all'energia emessa la stella originaria doveva avere una massa pari a circa 50 volte quella solare; ad oggi questa è la supernova più lunga e potente osservata.
(credit: Palomar Observatory Sky Survey via researchgate.net / ®Poss/Dss/Lco/S. ​Wilkinson

I dati vanno oltre la mera curiosità in quanto mettono in dubbio la validità "universale" del modello di supernova finora accettato.
Una prima ipotesi per spiegare il fenomeno si rifà alla teoria della "pulsational pair instability supernova" per la quale il nucleo di una stella massiccia può raggiungere temperature così elevate da permette la conversione di energia in materia e antimateria (processo inverso a quello classicamente studiato). Quando ciò accade, la stella diventa instabile e può parzialmente esplodere, spazzando via le sue parti esterne, ma lasciando intatto il nucleo. La stella quindi si stabilizza per un certo periodo di tempo finché la temperatura raggiunge valori simili; il processo si ripete quindi più volte ogni decina di anni, almeno finché la massa è sufficiente a garantire il raggiungimento delle temperature critiche finché raggiungerà una fase in cui l'esplosione sarà definitiva.
Questo in teoria dato che ad oggi eventi simili non sono mai stati osservati.
Ci sono tuttavia un paio di elementi della teoria che non si accordano perfettamente con ciò che gli astronomi hanno visto su iPTF14hls. In primis, eventi del genere sono stati ipotizzati come possibili solo nell'universo primordiale quando esistevano stelle supermassicce oggi scomparse (proprio perché a vita "breve); una stella posta a "solo" 500 milioni di anni luce da noi non può ovviamente provenire da distanze temporali adeguate. Uno degli autori ha usato come termine di paragone "se trovassimo oggi un dinosauro ancora vivo, la prima domanda che uno si porrebbe è se è veramente un dinosauro".
Altri due punti critici sono che l'energia liberata dall'ultima supernova è maggiore di quella che la teoria ipotizza e il fatto che gran parte dell'idrogeno avrebbe dovuto essersi perso con l'esplosione del 1954, mentre questo risulta presente in notevoli quantità anche dopo l'esplosione del 2014.
Se i dati non sono in accordo con la teoria della "Supernova a instabilità di coppia", allora si tratta di qualcosa di completamente nuovo.
Ad oggi la supernova è ancora in fase di studio e con l'affievolirsi della luce e l'espansione del gas (quindi maggiore trasparenza) gli astronomi sperano di riuscire a catturare informazioni sulla massa e su come possa essersi sviluppata (e mantenuta) energia così a lungo.
Lo studio, pubblicato su Nature, è stato possibile grazie alla disponibilità sia di telescopi robotici nell'osservatorio che della  SED Machine, una macchina progettata come una "semplice" fotocamera che inquadra e scatta ogni volta che un nuovo oggetto appare sul cielo, fornendo informazioni spettrali in pochi minuti.
La disponibilità di questi strumenti è verosimilmente la ragione per cui solo ora è stato possibile catalogare la nuova classe di stelle zombie.

Aggiornamento Supernova o stella massiccia ipervariabile?
IPTF14hls may be a variable hyper-wind from a very massive star, study suggests 

Fonti
- Energetic eruptions leading to a peculiar hydrogen-rich explosion of a massive star
Iair Arcavi et al, Nature 551, 210–213 (09 November 2017)


Come pesare una cellula su una asticella

Ad oggi per stimare il peso di una singola cellula bisognava metterla in sospensione, sottraendo dal peso complessivo quello del liquido. Una procedura poco naturale dato che la stragrande parte delle cellule vive in adesione con altre cellule e le variazioni associate al cambio di stato inducono sia alterazioni funzionali che, cosa più importante nel caso in esame, variazioni del volume e quindi del peso. Un dettaglio non da poco quando lo scopo è misurare in dettaglio la variazione di alcuni parametri cellulari come quelli successivi ad infezioni o a disfunzioni metaboliche.

Una soluzione al problema viene dai ricercatori del University College London che hanno sviluppato una mini asta su cui poggiare le singole cellule per "pesarle". Lo studio, coordinato da Daniel J. Müller, è stato pubblicato poche settimane fa sulla prestigiosa rivista Nature.
La cellula su una mini asticella (credit: Martínez-Martín / Nature)
Il vantaggio di questa tecnica è nella sua potenzialità di rilevare cambiamenti di massa dell'ordine dei picogrammi (vale a dire "0" seguito dopo la virgola da altri 11 zeri, grammi) su cellule isolate e in tempi brevissimi (millisecondi). Il che ha anche l'indubbio doppio pregio di minimizzare lo stress cellulare e di aumentare la sensibilità della misurazione.
Semplificando al massimo il funzionamento del rilevatore, la massa della cellula modifica la risonanza della astina (cantilever in inglese) misurata usando un laser.

Come anticipato, i risultati ottenuti vanno al di là della mera quantificazione della massa cellulare. Le misurazioni effettuate sulle cellule campione hanno permesso di evidenziare l'esistenza di microfluttuazioni continue e regolari nella massa, riconducibili a eventi come l'assorbimento/espulsione di acqua, la produzione di energia (catabolismo o utilizzo di massa per generare "energia") e l'utilizzo dei singoli "mattoni" biologici (aminoacidi, zuccheri, nucleotidi, lipidi) per generare massa (anabolismo). 
Poiché la tecnica permette un monitoraggio in continuo, è stato possibile misurare le microfluttuazioni lungo il corso delle molte ore necessarie per il completamento di più cicli cellulari e persino durante la crescita dei tessuti; informazioni fondamentali per l'analisi della deregolazione di questi processi, tipica di cancro e delle patologie che si riflettono nella viarazione della massa cellulare (e a cascata, tissutale).

Particolarmente interessante il risultato ottenuto misurando le variazioni di massa successive all'infezione con il vaccinia virus.
Il vaccinia virus appartiene ai gruppo dei poxvirus ed è stata l'arma chiave nella campagna per la vaccinazione contro il vaiolo, malattia eradicata ufficialmente nel 1980. 
Le misurazioni hanno mostrato che mentre le cellule non infette continuavano a crescere e ad aumentare di massa, quelle infettate smettevano di crescere in quanto tutte le risorse metaboliche venivano dirottate dal virus per la replicazione del proprio DNA e sintesi proteica.

Lo studio è un esempio dei risultati ottenibili con la collaborazione interdisciplinare tra ricercatori provenienti da ambiti diversi come fisica, biologia e ingegneria dei materiali

Fonte
- Inertial picobalance reveals fast mass fluctuations in mammalian cells
 David Martínez-Martín et al, (2017) Nature 550, pp500–50



Il blob che impara

Il "blob" può imparare e perfino insegnare
Physarum polycephalum (image credit: Audrey Dussutour
Il Physarum polycephalum è un protista, una muffa unicellulare (leggasi mixomiceto) da alcuni detta anche melma policefala, il che converrete non è un nome accattivante. Molto meglio l'evocativo, e ben poco scientifico, nome cinematografico "blob" anche se a differenza di quest'ultimo, è un organismo completamente terrestre, bruttino certamente da vedersi con il suo colore giallo-melmoso ma almeno dotato di abitudini alimentari meno pericolose (per noi) basato su spore fungine, batteri e altri microbi.

Questi funghi mucillaginosi sono classificati tra i protisti a causa della loro somiglianza con le amebe. 
Nota. I protisti sono un gruppo polifiletico di organismi, che comprende tutti gli eucarioti non classificabili come animali, piante o funghi.
Nonostante la loro natura unicellulare, possono raggiungere dimensioni ragguardevoli (nel senso di visibili ad occhio nudo) grazie ad un "trucchetto cooperativo". Quando le riserve alimentari a loro disposizione si riducono, i mixomiceti si aggregano in un'unica massa citoplasmatica (plasmodio) eliminando le membrane cellulari divisorie. Ne consegue che la cellula risultante è di fatto una cellula "di fusione" che può arrivare a contenere più di 100 mila nuclei.
La loro dimensione e facilità di crescita in una piastra di Petri li ha resi quasi subito tra i migliori soggetti di studio da laboratorio. Con risultati sorprendenti per un organismo "senza cervello" (nel senso più generico del termine essendo "solo" cellule, quindi prive di ogni differenziazione tissutale) come evidenziato dalla loro capacità di imparare dall'esperienza.
In un recente articolo pubblicato sulla rivista "Proceedings of the Royal Society B", i biologi del Centro di Ricerca sulle Capacità Cognitive dell'università di Tolosa, hanno ampliato quanto precedentemente scoperto sulla capacità di apprendimento del "blob", con l'osservazione che questi organismi sono in grado di trasmettere ai consimili l'informazione appresa dopo la fusione cellulare. 

Il disegno sperimentale è concettualmente semplice e può essere suddiviso in due fasi. Nella prima parte i ricercatori "addestrano" i blob a superare un ostacolo che si frappone tra loro e il cibo; ostacolo costituito da un ponte ricoperto di sostanze innocue ma per loro repellenti come sale, chinino o caffè. Nel giro di alcuni giorni il protista prima in modo cauto e poi senza indugi, passa sopra l'ostacolo per dirigersi verso il cibo.
Nella seconda parte dell'esperimento, si ripete il test dividendo i protisti in tre gruppi: "addestrati" (leggasi, quelli che avevano superato il test); non addestrati; misti.
Nota. I "misti" sono il risultato dell'avere lasciato a contatto per un certo periodo di tempo un protista addestrato con uno non addestrato. Durante questa fase i due organismi si fondono e poi all'occorrenza si separano.
Il risultato del test di attraversamento dell'ostacolo con i primi due gruppi di mixomiceti non destò sorprese; il primo gruppo iniziava "speditamente" l'attraversamento del ponte divisorio mentre il secondo rimaneva esitante sul bordo. La parte interessante venne dall'osservazione del terzo gruppo (misto) che si comportò come se avesse acquisito l'informazione di "non pericolosità" dell'ostacolo dall'essere rimasto in contatto con il primo gruppo. Test successivi dimostrarono che il "passaggio di informazioni" funzionava anche su "blob" costituiti da 4 organismi, di cui solo 1 appartenente al gruppo "addestrato".
L'ingrandimento tra N e H mostra il punto in cui avviene lo scambio di informazioni tra un mixomiceto addestrato (H) e uno naive (N).  (All credits to  David Vogel / articolo su Proc. Biol. Sci)
Dimostrata la capacità di trasferire le informazioni "esperienziali", rimaneva da capire le modalità con cui questo avvenisse.
Come primo passaggio bisognava misurare il tempo minimo di contatto tra i blob perché avvenisse il passaggio dell'informazione. Esperimento semplice eseguito rimuovendo gli organismi a tempi successivi,  che permise di stimare in 3 ore il tempo minimo. L'analisi al microscopio evidenziò che in questo lasso temporale si formava un canale tra le due "cellule" entro cui, verosimilmente, scorreva l'informazione.
Di seguito il video riassuntivo dell'esperimento

Ad oggi è (a mia conoscenza) ancora ignota la natura del messaggio trasferito. L'esperienza mi fa propendere per un regolatore epigenetico del tipo micro-RNA, ben noti per la loro capacità di modificare in modo rapido e reversibile la funzionalità di uno o più geni, e a cascata il comportamento cellulare; nel caso specifico si potrebbe pensare ad un processo di de-inibizione del movimento in seguito al contatto con la sostanza X. 
Un'altra domanda che l'esperimento solleva e che sicuramente verrà affrontata dai ricercatori è cosa succederebbe mettendo in contatto due mixomiceti, "addestrati" separatamente per sostanze diverse. In teoria dovrebbe emergere un "blob" con doppia capacità discriminatoria


Altro esempio
"Slime mold form a map of the Tokyo-area railway system" (credit: Harvard Magazine)

Posizionando pezzi di avena su una mappa a nodi che ricrea il sistema di metropolitane di Tokyo, il blob cresce coprendo tutta l'area creando linee di collegamento preferenziali con i nodi sovrapponibile al percorso della metro (minor distanza per andare da un nodo all'altro)

Di sicuro da oggi guarderò alle muffe unicellulari con maggior rispetto.

Fonti
- Direct transfer of learned behaviour via cell fusion in non-neural organisms
David Vogel & Audrey Dussutour, Proc Biol Sci. 2016 Dec 28;283(1845)

- Brainless Slime Can Share 'Learned' Knowledge
CNRS, news

- A single-celled organism capable of learning
CNRS, Press release 2016

- The blob can learn - and teach !

- La memoria spaziale della muffa senza cervello
Le Scienze (2012)

Idrorepellenti come trattamento antighiaccio per i vetri

Siamo in inverno (finalmente) e immancabile si presenta il problema mattutino di rimuovere la brina ghiacciata dai vetri dell'auto o dalla sella della moto. Un problema non limitato a coloro che risiedono nelle campagne del nord ma che si palesa la mattina presto anche nelle vie di Milano con assonnati guidatori intenti a grattare via lo strato di ghiaccio quel tanto che basta per vedere attraverso il vetro.
Certo il problema era più sentito quando vivevo in Scandinavia ma lì lo si viveva con vichinga rassegnazione all'ineluttabile.

Il fenomeno non è nulla di trascendentale ed è causato dal congelamento delle gocce d'acqua. Quando queste si trovano a fluttuare nell'aria, a densità e temperature adatte, si organizzeranno in strutture regolari a simmetria diedrica (cioè dotate di 6 assi di simmetria) generando fiocchi di neve.
Snow flakes by Wilson Bentley via wikipedia
Quando invece queste goccioline si adageranno su una superficie solida, la risultante morfologia sarà diversa.
Il motivo è che la tipologia del cristallo "in crescita" è influenzato dalle caratteristiche della superficie; ad esempio una superficie idrofobica favorisce la crescita del cristallo verso l'esterno, formando strutture "ad angolo" simili ad un "trifoglio con 6 foglie". Questo particolare effetto è stato monitorato grazie all'utilizzo di una fotocamera ad alta velocità collegata ad un microscopio che "osservava" la formazione di ghiaccio su un foglio di alluminio reso idrorepellente.
La crescita di cristalli di ghiaccio su superfici idrofile (sotto) e idrofobe (sopra).
Image credit: Jie Liu et al / PNAS

Nella prima fase le gocce d'acqua spruzzate sulla superficie normale si sono appiattite prima di "evolvere" il cristallo, mentre quelle sulla superficie idrofoba hanno mantenuto una sforma sferica. Il passo successivo è stato quello di favorire la formazione di ghiaccio usando il classico trucchetto dello spruzzare sulla superficie nanoparticelle di ioduro d'argento, ben note per la loro capacità di fungere da "inneschi" per la formazione dei cristalli di ghiaccio. I cristalli cresciuti sulla superficie idrofoba formano strutture dirette verso l'esterno e verso l'alto formando, come detto prima, una specie di trifoglio simmetrico a sei foglie ancora sulla superficie in un solo punto. La differenza sostanziale rispetto ai cristalli "classici" è che questi ultimi formano una struttura "a girasole" pienamente a contatto con la superficie e sono quindi (come ben sappiamo) molto più resistenti all'azione del raschietto. I cristalli cresciuti sulla superficie idrofoba sono invece più labili, "estirpabili" anche solo dal vento.

Video dell'esperimento. Se non lo vedete, cliccate --> youtube

Quando i ricercatori hanno provato a vedere cosa succedeva usando superfici ibride, con aree idrofobe intervallate da zone idrofile, la  propagazione del ghiaccio si arrestava al confine con l'area idrofoba.

Lo studio è interessante per lo sviluppo di trattamenti in grado di conferire ai vetri capacità di ultra-resistenza al ghiaccio

Fonte
- Distinct ice patterns on solid surfaces with various wettabilities
  Liu, J. et al, PNAS (2017), 114 (43) pp11285–11290

- Water-repellent coatings could make de-icing a breeze
Nature, ottobre 2017


Un esame del sangue per predire il rischio suicidio

In alcuni paesi il tasso di suicidi è tale da uscire dal novero della freddezza statistica per entrare tra i principali argomenti di salute pubblica. 
I paesi afflitti da questo problema hanno proprie peculiarità ma il comune denominatore di essere nazioni sviluppate sia sotto il profilo economico che socio-culturale; le variabili chiamate in causa sono molte e possono andare dal lavoro, convenzioni sociali e isolamento "affettivo" (Giappone) fino alle lunghe notti invernali (Scandinavia e Russia). Qualunque sia la specifica locale non esistono ad oggi soluzioni semplici o interventi preventivi (tipo diagnosi del rischio individuale) sufficientemente affidabili.

Forse però qualcosa si sta muovendo in ambito clinico.
L'attuazione del proposito suicida non è quasi mai una scelta estemporanea; viene covata anche in modo inconscio per lungo tempo e come tale, biologicamente, ha un impatto sugli indici metabolici. Il pensiero  è il prodotto dell'attività cerebrale di reti neurali complesse la cui disfunzione è notoriamente causa di varie patologie comportamentali, dalle fobie ai disturbi ossessivo-compulsivi. Per troppo tempo queste anomalie sono state percepite come qualcosa d'altro (di superiore) rispetto alle malattie che affliggono altri distretti corporei e questo ha remato contro l'accettazione che si tratta in grandissima parte di disturbi a base metabolica e come tali (sia come terapia che come prevenzione) possono essere trattati.
Negli ultimi anni i progressi delle neuroscienze sono stati lenti ma costanti e hanno permesso di ricondurre le anomalie del pensiero o dello stato emotivo ad alterazioni della produzione (locale o sistemica) di uno o più neurotrasmettitori. 
Lo stress, uno stato utile per la nostra sopravvivenza in quanto "preparatore" ad affrontare condizioni avverse, ha qui una valenza centrale sia per l'effetto sistemico (comportamentale, intestinale, immunitario, etc) che per la "preparazione" del pensiero suicida. Capiamoci bene,  lo stress non induce al suicidio ma può essere considerato una cartina di tornasole utile per diagnosticare il rischio in soggetti predisposti.

Monitorare lo stato di stress con marcatori "univoci" (vale a dire non basati su sensazioni ma su parametri metabolici misurabili) è quindi un campo di ricerca particolarmente importante.
E' in questo solco che rientra lo studio condotto da ricercatori svedesi delle università di Lund e di Malmö imperniato sulla ricerca di parametri biologici (biomarkers) riconducibili ad uno stress cronico e facilmente misurabili (ad esempio con un semplice prelievo di sangue).
Tra i potenziali candidati quello che sembra avere sufficienza forza statistica per correlare il superamento di certi valori ad un rischio concreto è la presenza di DNA mitocondriale libero nel sangue; una presenza che è indice di stress (mitocondriale) metabolico.
Oltre al DNA nucleare, ne abbiamo un altro di pari importanza, quello mitocondriale. Le
cellule eucariote sono il risultato di una relazionesimbiontica iniziata circa 1,5 miliardi di anni
fa tra un batterio e una proto-cellula eucariote (image: NHGRI)


Se confermato da più estesi studi clinici, questo parametro diventerebbe uno strumento fondamentale nella valutazione di rischio oggettivo in psichiatria.
I ricercatori sottolineano tuttavia che, data la complessità dei comportamenti individuali, il marcatore non avrà una valenza previsionale nel senso comune (e deterministico) del termine ma di un indicatore biologico che indica uno stato di stress critico nelle persone vulnerabili, come chi soffre di ansia e depressione cronica. E' in questi soggetti che il  parametro potrebbe rivelarsi particolarmente utile anche come misuratore dell'efficacia degli interventi farmacologici e psicoterapeutici adottati; un problema particolarmente importante se si pensa che oggi l'efficacia della terapia preventiva è fortemente sbilanciata su marcatori PRO (patient-reported outcome), cioè sulla valutazione "soggettiva" del paziente; autovalutazioni errate (o fuorvianti) inquinano l'affidabilità statistica e questo spiega la discrepanza tra apparente efficacia della terapia e valori ex-post di persone suicidatesi.

Riassumendo in poche righe lo studio svedese, i ricercatori si sono concentrati sull'analisi dei parametri fisiologici di 37 pazienti ricoverati in una clinica psichiatrica dopo che avevano tentato il suicidio. I dati sono stati confrontati con un ugual numero di controlli (persone senza storia di tendenze suicide) pesate per età e sesso (70 per cento di sesso femminile ed età media intorno ai 40 anni). Rispetto ai controlli, i pazienti "suicidi" mostravano livelli sorprendentemente alti di DNA mitocondriale libero nel plasma (vale a dire quello presente nella frazione acellulare del sangue), un dato che si correlava con la presenza di elevati livelli di cortisolo (l'ormone dello stress).
Il dato era non è completamente inatteso essendo già noto che le cellule immunitarie degli individui depressi possiedono un maggior numero di copie di DNA mitocondriale. Il numero di mitocondri varia nelle cellule a seconda del fabbisogno energetico, a sua volta direttamente correlato al metabolismo e allo stress. 
La correlazione tra livello di stress, cortisolo e "titolo" di DNA mitocondriale, confermato da studi su animali di laboratorio, mancava però di conferme univoche sugli esseri umani, quindi non era un marcatore utilizzabile in clinica.

Ma se il livello del cortisolo è indicativo di stress per quale motivo non misurare direttamente il cortisolo invece di cercare il DNA mitocondriale (mtDNA)?
La ragione è che il primo ha una minore valenza indicativa e predittiva di stress grave. Il cortisolo viene rilasciato nel sangue ogni mattina prima di svegliarsi (fondamentale per prepararci al risveglio) e in genere in qualunque situazione in cui sia necessario "prepararsi a reagire" ad eventi esterni; condizioni assolutamente normali che non sono quindi rapportabili ad un aumentato rischio di suicidio. Per stress grave si intende invece uno stato persistente nel tempo, che si attiva e mantiene in assenza di inneschi esterni.
L'aumento del mtDNA nel plasma è verosimilmente un riflesso di uno stato di stress cronico che induce una maggior attività mitocondriale (che ci prepara ad affrontare un evento che ... di fatto non esiste) ed ha quindi una maggiore affidabilità rispetto alla misurazione del solo cortisolo.
La tecnologia odierna (ad esempio qPCR) ci permette di misurare il numero di copie di mtDNA diluite nel plasma in modo semplice, veloce ed automatizzabile. I risultati sono inoltre più facilmente interpretabili rispetto al semplice monitoraggio del livello di cortisolo (che dovrebbe essere fatto lungo l'arco della giornata e per più giorni).
I prossimi studi, oltre alla necessità di trovare conferme mediante un campione più ampio (e vario anche in senso patologico) di pazienti, dovranno focalizzarsi sia sul monitoraggio del titolo di mtDNA nel tempo per valutare l'utilità predittiva della efficacia terapeutica (ben diversa da quella "percepita") che della quantificazione del fattore di rischio, come richiesto ad ogni marcatore usato in clinica.

Fonte
- Increased plasma levels of circulating cell-free mitochondrial DNA in suicide attempters: associations with HPA-axis hyperactivity
D. Lindqvist et al, Translational Psychiatry (2016) 6, e97





Dalla collisione di due stelle di neutroni, lampi gamma, onde gravitazionali e ... tanto oro

A poco più di due anni dalla rilevazione delle onde gravitazionali, il 17 agosto i sensori hanno catturato qualcosa di nuovo, le onde originate dalla collisione tra due stelle di neutroni. Evento catalogato come GW170817.
Credit: NASA
Se l'osservazione del 2015 fu il coronamento "improvviso" di qualcosa a lungo cercato, nei mesi successivi si inseguì la conferma dei dati attraverso nuove rilevazioni.
Non si trattava di una strada facile quella imboccata dai ricercatori data l'elusività delle onde gravitazionali; onde la cui teorizzazione risale a circa 100 anni fa nell'ambito della relatività generale e come tali (predizione teorica) rimasero nei decenni successivi. Non solo per produrne in quantità sufficiente a sperare di poterle misurare bisognava intercettare il segnale di eventi in grado di liberare una quantità abnorme di energia (su scala stellare) ma si sarebbe dovuto disporre di una strumentazione che per limiti tecnologici e pratici rimase improponibile fino ad un un decennio fa.
Ovviamente entrambe queste condizioni dovevano essere presenti nello stesso momento.
Da un punto di vista teorico l'energia liberata da una supernova poteva produrre onde sufficienti ad essere rilevate. Le supernova sono "catastrofi" sufficientemente frequenti nella nostra galassia (1 ogni 100 anni) quindi apparentemente ideali. Tuttavia l'intensità delle onde prodotte avrebbe di fatto limitato la rilevazione ai soli eventi che fossero avvenuti nelle nostre vicinanze. Se uno pensa all'energia liberata da una supernova e a quanto sia difficile rilevare le onde prodotte, diventa evidente l'elusività di tali onde.
Non è un caso quindi che la scoperta delle onde gravitazionali abbia dovuto attendere un fenomeno energicamente impressionante come la collisione tra due buchi neri e la disponibilità di rilevatori come LIGO e VIRGO.
Vi rimando all'articolo precedentemente apparso su questo blog (--> "Le onde gravitazionali, finalmente") per il resoconto della scoperta. La riproducibilità di tali osservazioni è stata poi confermata grazie alla rilevazione di due nuovi eventi nei mesi successivi.
Dato che l'esistenza delle onde gravitazionali è stata confermata, uno si potrebbe domandare dove stia l'interesse (se  non per gli addetti ai lavori) dell'evento registrato pochi mesi fa.
La nuova osservazione ha una doppia valenza in quanto non solo indica una nuova sorgente di onde gravitazionali (la collisione di due stelle di neutroni), sufficientemente potente da essere rilevata ad una distanza di 130 milioni di anni luce ma fornisce nuovi dettagli su fenomeni elusivi, ancorché diffusi nella volta stellata, come i lampi di raggi gamma (gamma ray burst, da qui in poi GRB) e la formazione di atomi "pesanti".
Eventi di tale portata (collisione di buchi neri o di stelle di neutroni) sono chiaramente più rari di una supernova ma essendo molto più energetici possono essere rilevati anche se originati in altre galassie (quindi a distanze superiori al milione di anni luce). La stima per tali eventi è di circa 100 per milione di anni per galassia. Per avere una idea della capacità analitica (e della potenza associata), l'evento registrato la scorsa primavera è riconducibile alla collisione tra due buchi neri, avvenuta a 3 miliardi di anni luce da noi (--> New York Times, 1/6/2017)

La rilevazione delle onde gravitazionali registrate la scorsa estate è stata comunicata ufficialmente a metà ottobre, dopo settimane di controlli e verifiche, ed è stata attribuita allo scontro di due stelle di neutroni
Una stella di neutroni è il residuo degenere (tale a causa dell'alta densità) di una stella massiccia (superiore a 10 volte il Sole) andata incontro a collasso gravitazionale dopo avere esaurito il carburante nucleare. Per avere un'idea della densità di una stella di neutroni basta pensare che la massa del Sole risulterebbe essere concentrata in una sfera  di 20 km di diametro. Il destino di una stella varia a seconda della massa di partenza; stelle piccole o poco più grandi del Sole non hanno massa a sufficienza perché il collasso produca una instabilità tale da produrre una supernova. Queste stelle termineranno la loro vita dopo la fase di gigante rossa come nane rosse o al più come nane bianche. Nel caso di stelle massicce il collasso successivo alla fase super gigante rossa, genererà un corpo denso con massa superiore al limite di Chandrasekhar (circa 1,4 masse solari); sotto tale limite si forma una nana bianca, sopra tale limite la massa è sufficiente ad innescare una serie di eventi che culminano nella supernova. Quello che avviene dopo la supernova varia a seconda della massa; fino a  circa 3 masse solari, il residuo sarà una stella di neutroni, sopra tale limite (limite di Tolman-Oppenheimer-Volkoff) l'instabilità intrinseca degenererà in un buco nero.

Un sistema binario di due stelle di neutroni, verosimilmente originato dall'invecchiamento di un sistema binario di stelle massicce, non è un evento raro a livello galattico. Sul lungo periodo la loro orbita reciproca può evolvere in una spirale che nelle ultime orbite prima della collisione subisce una accelerata di proporzioni difficili da immaginare (nel caso già visto dei buchi neri si è calcolato che le ultime 5 orbite sono state percorse a velocità pari alla metà della velocità della luce).
Per quanto riguarda le stelle di neutroni (costituite da materia esotica ma più "comprensibile" rispetto a quella dei buchi neri), l'effetto mareale associato alla crescente attrazione gravitazionale, causa la distruzione e/o emissione di materia della stella che viene sparata nello spazio ad una velocità di circa un terzo di quella della luce.
Nell'arco di tempo di 100 secondi (tra superamento della distanza "critica" e impatto) l'energia irradiata ha attivato i sensori di onde gravitazionali e elettromagnetiche (corrispondenti alla luce blu) degli osservatori sulla Terra. Dopo circa 1,7 secondi dal picco registrato di onde gravitazionali è infine comparso un GRB (lampo di radiazione gamma).
I GRB furono scoperti negli anni '50 dagli americani durante le operazioni di monitoraggio alla ricerca di esperimenti nucleari condotti di nascosto dei sovietici. Lungi dal provenire dalla Terra questi improvvisi e temporanei lampi (la cui durata va da pochi millisecondi a qualche secondo) erano di origina extraterrestre, dalla nostra ed altre galassie, ad indicare una potenza originaria incredibile. La teoria infine accettata fu che per generare energie di tale potenza bisognasse cercare eventi come lo scontro di stelle di neutroni.
Dalla triangolazione del segnale ottenuta mediante telescopi ed interferometri, è stato possibile ricavare le coordinate dello "scontro", sito nella galassia NGC4993 (evento GW170817).
Immagini scattate ad intervalli di tempo assemblate in una GIF a mostrare il "brillamento", poi identificato nella collisione tra due stelle di neutroni. Evento avvenuto nella galassia NGC4993
Credit: NASA / ESA

Una ricostruzione delle ultime fasi prima dell'impatto
(credit: NASA/Dana Berry)

Riassumendo di seguito le scoperte (e le conferme) ottenute da questa osservazione:
  1. Le onde gravitazionali viaggiano alla velocità della luce. In realtà è stata osservata una differenza di 1,7" (su 100 milioni di anni luce) di anticipo delle prime sulla seconda; la spiegazione è ben spiegata nell'ottimo articolo sul sito  reccom.org.
  2. La correlazione tra onde derivanti dall'impatto e GRB è una conferma della loro origine comune. Una domanda sorge però spontanea: perché ci sono quasi due secondi di differenza tra l'arrivo delle onde gravitazionali e il GRB visto che entrambe viaggiano alla velocità della luce? Non ci sono ancora risposte certe ma tra le ipotesi formulate vi è quella che i lampi gamma originino in una fase immediatamente successiva a quella della collisione. Si ritiene che dalla collisione delle due stelle di neutroni si sia originato un buco nero ed è da questo che scaturisce la "fiammata" di raggi gamma (ricordiamo a tal proposito che i buchi neri non sono vie a senso unico ma sono in grado di emettere radiazione, la radiazione di Hawking).
  3. L'analisi spettroscopica condotta nei 10 giorni successivi ha dimostrato la comparsa di elementi pesanti. Come noto, la nucleosintesi stellare non permette la formazione di nessun elemento più pesante del ferro, in quanto energicamente sfavorevole. Solo le supernova sono in grado di liberare così tanta energia concentrata in pochi istanti, da consentire reazioni di fusione nucleare capaci di formare elementi più pesanti del ferro. Non è una sorpresa quindi scoprire che eventi ben più imponenti di una supernova, come la collisione di due stelle di neutroni, sono eventi più efficienti da un punto di vista della nucleosintesi. Per dare una idea di tale efficienza, si è calcolato che l'energia liberata sia stata sufficiente a generare una quantità di oro (esempio di elemento pesante) pari a 10 volte la massa terrestre. Potrà sembrare improbabile l'immagine mentale di due pianeti fatti solo d'oro ma se rapportate la massa terrestre alla massa teorica di ciascuna stella di neutroni le proporzioni tornano subito a proporzioni affatto rilevanti. Il dato che emerge con forza è l'importanza di questi disastri galattici per "la semina" degli atomi fondamentali non solo per l'esistenza di pianeti rocciosi del tipo terrestre ma, in ultima analisi, anche della vita stessa.
  4. Alcuni numeri in sintesi:
    • Nome evento: GW170817
    • Distanza dalla Terra: 40 megaparsecs (130 milioni di anni luce)
    • Quantità di oro generato dallo scontro (ed emesso nello spazio): circa 10 volte la massa della Terra
    • Durata del segnale onda-gravitazionale: 100 secondi (il più lungo ad oggi osservato)
    • Gruppi di ricerca che hanno collaborato per la rilevazione e analisi dei dati: più di 70, su tutti e 7 i continenti (Antartide quindi inclusa). Per un totale di 3566 autori per l'articolo pubblicato su "The Astrophysical Journal Letters".
In conclusione, onde gravitazionali, origine dei lampi gamma e la formazione di elementi pesanti sono i dati ottenuti (per il momento) grazie alla osservazione dello scontro tra due stelle di neutroni.


*** Aggiornamento maggio 2019 ***
Forse ci siamo. L'avvenimento tanto atteso, cioè le onde gravitazionali originate dalla cattura di una stella da parte di un buco nero, sembra essere stato rilevato sia da LIGO che da VIRGO (--> Nature).
Credit: A. Tonita, L. Rezzolla, F. Pannarale via Nature





Fonti
- Distance and properties of NGC 4993 as the host galaxy of a gravitational wave source, GW170817

- The Distance to NGC 4993: The Host Galaxy of the Gravitational-wave Event GW170817

- The black-hole collision that reshaped physics

- Global networks of small telescopes will chase companion signals of gravitational waves
Davide Castelvecchi, Nature, nov. 2017

- Colliding stars spark rush to solve cosmic mysteries
Davide Castelvecchi, Nature, ott. 2017

- Neutron Stars: Definition & Facts

Il libro di Steven S. Gubser, professore di fisica teorica all'università di Princeton, fornisce un buon materiale divulgativo per riassumere il campo di studi iniziato con la predizioni scaturite dalla teoria della relatività e che comprendono i buchi neri e le onde gravitazionali. A differenza del precedente libro sulla teoria delle stringhe (francamente illeggibile) questo è stato scritto nettamente meglio ed è adatto a chiunque; breve, chiaro e senza requisiti di competenze matematiche.




La tesi di dottorato di Stephen Hawking è online

Poche ore dopo l'annuncio della messa online della tesi di dottorato di Stephen Hawking, i server della università di Cambridge hanno dovuto alzare bandiera bianca. Troppe le connessioni contemporanee da parte di chi voleva scaricarla.
Un interesse imprevisto ma nemmeno troppo, data la popolarità del celebre fisico, titolare della cattedra lucasiana di matematica fino ad un decennio fa.

 Sono passati più di 50 anni da quando Stephen Hawking, già consapevole di una malattia che avrebbe dovuto (per le conoscenze dell'epoca) portarlo alla morte nel giro di un paio di anni, pubblicò la tesi di dottorato dal titolo "Singularities and the Geometry of Space-Time".

Le sue intuizioni e il lavoro teorico condotto confrontandosi (e spesso scontrandosi) con altri fisici teorici del calibro di Roger Penrose sono state fondamentali per sviluppare le teorie centrate sul Big Bang, "una singolarità in cui le leggi stesse della relatività generale cessano di essere valide per via degli effetti quantistici"(Stephen Hawking & Roger Penrose, 1970).

In contrasto con centralità del Big Bang vi è l'ipotesi del "Big Melt" proposta recentemente da Thanu Padmanabhan. Invece di una singolarità a densità e temperature infinite, si propone un passaggio graduale tra una fase pre-geometrica (in cui non esistevano né spazio né tempo) alla struttura dell'universo primigenio (--> Physics Letters B (2017) 773, 81-85 e il più divulgativo --> nautilus)

Tuttavia il campo a cui il nome Hawking rimane più strettamente associato è quello dei buchi neri. Tra i contributi principali, quelli almeno che anche un non addetto ai lavori come me conosce, vi è la soluzione matematica al teorema della essenzialità (no-hair theorem), la scoperta della emissione di energia dai buchi neri (la radiazione di Hawking) e lo studio del paradosso dell'informazione dei buchi neri.
Nota. Il termine "buco nero" ebbe per molti anni una valenza negativa ad indicare una soluzione poco condivisa ad alcuni calcoli sull'effetto che enormi concentrazioni di massa avrebbero avuto sullo spazio-tempo. Il primo a proporne l'esistenza fu Karl Schwarzschild nel 1916 con la soluzione delle equazioni di campo dalla teoria della relatività generale. Una predizione teorica, rimasta  tale per decenni fino al lavoro di Hawking, Penrose e tanti altri (come Kip Thorne, recente premio Nobel per lo studio delle onde gravitazionali, che fece con Hawking la celebre scommessa sui buchi neri).
La notorietà di Hawking al grande pubblico, molto prima che la sua figura venisse celebrata dal bel film biografico "La teoria del tutto", viene dalla sua attitudine a divulgare una materia complessa, altrimenti inaccessibile se non mediante la matematica. "Dal Big Bang ai buchi neri" (del 1988 e che lessi affascinato durante gli anni dell'università), fu solo il primo di una lunga serie che negli ultimi anni si è indirizzata anche ad un pubblico giovane, grazie al contributo della figlia Lucy.
Grande contributo alla sua notorietà "generalista" è l'avere partecipato (o prestato la sua immagine) ad episodi di Star Trek  e I Simpsons.

La decisione da parte della università di Cambridge di rendere disponibile a chiunque lo desideri, la tesi di Hawking (prima disponibile solo a pagamento) è nata per celebrare l’International Open Access Week 2017; durante la settimana dal 23 al 29 ottobre enti di ricerca e università si sono impegnati a promuovere la diffusione della conoscenza scientifica (e sappiamo quanto ne abbiamo bisogno oggi anche in Italia visto la totale allergia alla scienza di parlamentari, movimenti e fruitori di siti zeppi di fake news).

La prima pagina della tesi
Il pdf (33 MB) è scaricabile senza nessuna registrazione direttamente dal sito dell'università
---> https://www.repository.cam.ac.uk/handle/1810/251038


In volo a gravità zero
credit: http://simpsons.wikia.com/

Guest star in Star Trek NG
(credit:http://vignette3.wikia.nocookie.net)

Precedenti articoli sul blog attinenti ad Hawking
--> "Raggi gamma dal centro della Via Lattea"
--> "Hawking rivoluziona (ancora) i buchi neri"
Articolo successivo su temi correlati
--> "Lampi gamma e onde gravitazionali"


Fonti
- The Singularities of Gravitational Collapse and Cosmology,
Stephen Hawking & Roger Penrose, Proceedings of the Royal Society A, (1970) v314(1519) pp 529–548


Come non aggiungere a posteriori la prima storica immagine di un buco nero (al centro della galassia M87) a quasi un secolo dalla predizione della loro esistenza da parte di Einstein e 50 anni dopo che Hawking cominciasse ad occuparsi del tema.
L'orizzonte degli eventi che delimita il buco nero (Credit: EHT collaboration via ESO)







Infezioni durante la gravidanza e rischio di autismo

Introduzione
L'autismo è una sindrome clinica caratterizzata da complesse alterazioni del comportamento correlate ad alterazioni dello sviluppo neuroembrionale. 
Nota. Secondo la classificazione riportata nel DSM-IV, l'autismo è parte della categoria dei 'Disturbi Generalizzati dello Sviluppo'. Data la variabilità di intensità e tipologia dei sintomi, si preferisce parlare di disturbi dello spettro autistico (ASD) invece che di autismo, a sottolineare la probabile eziologia eterogenea. Nello specifico l'ASD unifica tre disturbi correlati ma distinti: disturbo autistico; sindrome di Asperger e Disturbo generalizzato (pervasivo) dello Sviluppo Non Altrimenti Specificato (PDD-NOS). Sebbene i sintomi si manifestino entro il terzo anno di età, l'origine della patologia è molto più precoce, da ricercarsi in anomalie dello sviluppo fetale del sistema nervoso (a livello corticale e nelle sinapsi glutaminergiche e GABAergiche) , derivanti da un mix di cause ambientali e di background genetico. Data l'eterogeneità clinica e genetica della ASD, mancano tratti univocamente distintivi (alias diagnostici) della malattia, anche se alcuni approcci sono promettenti (vedi EEG e movimento oculare. Leggi anche --> qui)
Coloro che negli ultimi anni hanno inseguito (e diffuso) l'allarme di una fantomatica correlazione tra vaccinazione ed autismo, omettono SEMPRE un punto chiave: come può una vaccinazione, che per sua natura viene somministrata solo quando il bambino ha qualche mese (prima sarebbe inutile dato che non ha un sistema immunitario funzionante), avere effetto retroattivo inducendo anomalie tipiche dello sviluppo fetale? Una assenza di correlazione talmente evidente da essere la pietra tombale per molte leggende metropolitane. Se la logica non vi basta, ci sono i risultati di diversi studi osservazionali (ottenuti dall'analisi retrospettiva di migliaia di bambini) che dimostrano come "non esista alcuna correlazione tra vaccinazione ed autismo" (--> QUI).
Negli ultimi anni i lenti ma costanti progressi nel campo hanno permesso di identificare marcatori diagnostici (o di rischio) dell'autismo utilizzabili già nei primi mesi di vita. Un dato questo di estrema importanza in quanto consentirebbe di iniziare terapie cognitive idonee per minimizzare (curare non è possibile al momento) le problematiche sottostanti.

Arriviamo ora al punto centrale di questo articolo, cioè la domanda se una grave infiammazione materna durante la gravidanza possa aumentare il rischio di autismo nel feto.
La migliore risposta è condensata in una frase tipicamente americana "the jury is still out" nel senso che gli indizi ci sono tutti ma manca la cosiddetta "smoking gun", vale a dire la prova incontrovertibile del nesso causale.

Credo valga quindi la pena riassumere gli studi pubblicati dal 2010 ad oggi in cui si sono andate sommando le evidenze che hanno trasformato una ipotesi di lavoro in una indagine con un imputato ben definito.

Nel 2010 uno studio retrospettivo che includeva tutti i bambini nati in Danimarca tra il 1980 e il 2005 evidenziò che le madri che avevano sofferto durante la gravidanza di infezioni sufficientemente gravi da richiedere l'ospedalizzazione, avevano un rischio 1,5 volte maggiore di dare alla luce un bambino con ASD.
Passa qualche anno e nel 2016 arriva uno studio del MIT, condotto sui topi, che ipotizza il probabile nesso causale. I ricercatori scoprirono infatti che al verificarsi di un grave stato infiammatorio si attivano alcune cellule immunitarie che producono la interleuchina 17 (IL-17) la cui azione sembra interferire con lo sviluppo del cervello fetale. Particolarmente importante il fatto che le maggiori anomalie sono site nelle aree corticali, sede dei processi cognitivi e di elaborazione sensoriale (ricordo che nei soggetti autistici si riscontra una maggiore disorganizzazione della struttura corticale)
Nota. Lo stato infiammatorio causa della ospedalizzazione era, nella gran parte dei casi, conseguenza di infezioni comuni come influenza, gastroenterite virale o infezioni del tratto urinario avvenute nel primo trimestre, se virali, o nel secondo trimestre, se batteriche.
Il nesso tra IL-17 durante la gravidanza ed autismo non è tuttavia sorprendente dati gli indizi emersi.
I dati del 2010 indicavano infatti la IL-6 come una delle proteine potenzialmente coinvolte. Dato che i linfociti Th17 (coinvolte in alcune malattie autoimmuni come la sclerosi multipla, malattie infiammatorie croniche intestinali, e l'artrite reumatoide) sono attivati dalla IL-6, la domanda che sorse spontanea era se queste cellule fossero a loro volta coinvolte.
Per testare l'ipotesi gli scienziati del MIT disattivarono le cellule Th17 nelle topine gravide prima di indurre l'infiammazione; il risultato diede loro ragione dato che nessuno dei topi della progenie (a differenza dei controlli) mostrava alcuna anomalia comportamentale di tipo autistico. Similmente se alle topine del gruppo di controllo (che possedevano le cellule Th17) venivano somministrati anticorpi in grado di bloccare il recettore della IL-17  (impedendo così la trasduzione del segnale infiammatorio dentro la cellula), il feto si sviluppava normalmente.

Arriviamo al 2017 e due nuovi studi del MIT tornano sul caso offrendo anche indicazioni su potenziali soluzioni preventive da adottare durante le gravidanze a rischio.
Nel primo studio i ricercatori scoprono che nei topi  la composizione del microbiota intestinale (in particolare della componente batterica) della madre influenza la probabilità che una infezione locale (leggasi la proliferazione fuori controllo e/o di un ceppo patogeno) induceva una serie di eventi culminanti con la comparsa nell'embrione di anomalie cerebrali e infine di comportamenti di tipo autistico.
Le anomalie strutturali sono site in una particolare area della corteccia somatosensoriale nota come S1DZ, che si ritiene essere coinvolta nella propriocezione, cioè la capacità di percepire e riconoscere la posizione del proprio corpo nello spazio. Una coincidenza non casuale dato che poco tempo prima, nel 2014, si era scoperto che il cervello dei bambini autistici presentava anomalie in queste aree, consistenti nella riduzione di alcune cellule, note come interneuroni, fondamentali nel mantenimento di uno stato di equilibrio tra segnali eccitazione e inibitori nel cervello. In concomitanza alla riduzione del numero di queste cellule si osserva una aumentata attività neuronale dell'area S1DZ.
A riprova del nesso causale i ricercatori del MIT hanno osservato che una volta ripristinato nei topi un normale livello di attività nella zona, anche le anomalie comportamentali diminuivano. Test eseguito anche all'inverso cioè l'induzione di una iperattività neuronale nella regione in topi normali si associava alla comparsa di anomalie comportamentali. La centralità della regione sembra dipendere dal fatto che la S1DZ è interconnessa ad almeno altre due aree del cervello, la PTO (parietale-temporale-occipitale) e lo striato, con conseguente loro aumento di attività
Ancora una volta la conferma di un legame funzionale venne dagli esperimenti di modulazione neuronale: l'inibizione di parte della PTO eliminava i sintomi connessi ai deficit "sociali" mentre l'inibizione dei neuroni dello striato bloccava la comparsa dei comportamenti ripetitivi.

Nel secondo studio, i ricercatori si sono concentrati sulla identificazione di quali fossero i fattori concomitanti capaci di spiegare perché solo alcune delle topine (e stesso dicasi per gli umani) che avevano sofferto una infezione grave durante la gestazione partorivano prole con ASD; un fatto che indica che ci devono essere fattori di rischio aggiuntivo in alcune di esse, ma che di per sé non rappresentano fattori patologici (se non nelle condizioni di cui sopra) e quindi passano totalmente inosservati.
Uno degli indizi da cui partire era che il sistema immunitario di solo una parte delle topine gravide mostrava una iper-reattività ai normali test di attivazione. Nello specifico in questi animali la produzione di IL-17 aumentava già nel primo giorno (dall'esposizione alla fonte di attivazione come ad esempio un batterio) mentre in media sono necessari da tre a cinque giorni  perché questo avvenga; ricordo che la IL-17 è prodotta da cellule immunitarie specializzate che si differenziano dopo l'esposizione allo stimolo, ragion per cui è necessario del tempo prima che il processo sia completato. Una tale iper-responsività poteva essere spiegata con la presenza nei soggetti a rischio di cellule immunitarie pre-attivate, quindi capaci di produrre la citochina in tempi molto rapidi. Se queste cellule sono già presenti, è perché un qualche altro agente esogeno le ha "innescate" in precedenza, in genere ben prima della gravidanza.
In effetti studi precedenti avevano mostrato la presenza (sia in topi che in esseri umani) di linfociti Th17 anche in soggetti senza alcuna evidenza di infezione in corso. Queste cellule hanno un ruolo importante in quanto sono una prima linea di difesa contro i microrganismi nocivi; la loro comparsa si ritiene essere innescata dalla presenza di alcuni batteri innocui che popolano le pareti dell'intestino  (forse per la presenza di epitopi simili a quelli di alcuni patogeni) e che mettono "in allerta" le cellule dell'ospite che così aumentano i pattugliamenti; di fatto uno stato pre-infiammatorio. In condizioni normali questo stato è assolutamente asintomatico ed è una fondamentale barriera all'ingresso di batteri pericolosi, quindi ad una vera e propria infezione; in alcuni soggetti tuttavia questo stato pre-infiammatorio va oltre con la comparsa di infiammazioni a carattere cronico che facilmente degenerano in allergie e patologie autoimmuni.
Il responsabile di questa pre-attivazione potrebbe essere un batterio, di per sé innocuo, appartenente al gruppo dei batteri filamentosi segmentati (SFB) in precedenza correlati al rischio sclerosi multipla (che ricordo è una patologia autoimmune dovuta ad una risposta fuori controllo e mal-diretta verso alcuni dei propri tessuti).

Il sospetto si rafforza con la scoperta che solo le topine che avevano questo tipo di batterio nel loro intestino generavano prole con anomalie cerebrali e comportamentali, successivamente ad una infezione (indotta da altri agenti patogeni) durante la gestazione).
C'è quindi un sospetto (il batterio) e un nesso causale (la presenza di Th17 già attivate).
Una riprova della correlazione (seppur indiretta) viene dall'esperimento in cui si dimostra che l'uccisione di questi batteri intestinali con antibiotici permetteva alle topine di generare in seguito prole normale anche qualora fossero andate incontro ad una infezione grave durante la gravidanza. Ho scritto correlazione indiretta poiché non è il batterio di per sé la causa della malattia ma la tempesta infiammatoria che il corpo attiva.

Quanto di quello che si è scoperto è applicabile al rischio ASD successivo alle infezioni in gravidanza degli esseri umani?
Come detto i SFB sono presenti anche nell'intestino degli esseri umani e loro (o altri) possono indurre una pre-attivazione delle Th17 di guardia. La domanda a cui bisognerà rispondere ora è se la presenza di questi batteri (o altri capaci di attivare i Th17) sia in qualche modo correlabile al rischio ASD in seguito ad infezioni di altra natura durante la gravidanza.

Qualora il nesso venisse confermato, l'approccio preventivo potrebbe avvenire su più fronti. In primis con la identificazione delle donne a rischio per la presenza di batteri capaci di attivare le Th17 nel microbioma intestinale e in caso positivo l'attento monitoraggio (e prevenzione) di infezioni durante la gravidanza.


E' bene sottolineare che, sebbene gli indizi siano interessanti, lo studio è ben lungi dall'essere concluso; mancano in toto dati sulla efficacia protettiva (oltre che sulla sicurezza) di tali trattamenti antinfiammatori nell'essere umano

(Articoli precedenti sul tema autismo da questo blog --> qui)

 Fonti
- Maternal infection requiring hospitalization during pregnancy and autism spectrum disorders
Atladóttir HO et al,  J. Autism Dev Disord. (2010) 40(12):1423-30

- The maternal interleukin-17a pathway in mice promotes autismlike phenotypes in offspring
Choi GB et al, Science (2016) Jan 28

- Maternal gut bacteria promote neurodevelopmental abnormalities in mouse offspring
Sangdoo Kim et al, Nature (2017) 549, 528–532

- Reversing behavioural abnormalities in mice exposed to maternal inflammation
Yeong Shin Yim et al, Nature (2017) 549, 482–487

- Patches of disorganization in the neocortex of children with autism
Stoner, R. et al, (2014) N. Engl. J. Med. 370, 1209–1219




Dopo le robo-api ecco il robot-salamandra

I ricercatori della École Polytechnique Fédérale de Lausanne (EPFL) rilanciano la sfida robotica con la rivale Harvard Robotics Laboratory (luogo di ideazione delle robo-api) grazie ad un robot disegnato sulle specifiche motorie della salamandra.
P. waltl
(credit: Pengo)
La precisione dei dettagli è sorprendente con ossa stampate in 3D, articolazioni motorizzate e circuiti elettronici a mimare il sistema nervoso.
Il prototipo, descritto nell'articolo pubblicato sul Journal of The Royal Society Interface, è stato chiamato pleurobot, nome derivante dalla crasi tra la specie di salamandra presa a modello (Pleurodeles waltl) e robot. Pleurobot non è una semplice copia ma può camminare, strisciare e persino nuotare sott'acqua.
Non è la prima volta che il team di Auke Ijspeert si cimenta con le robo-salamandre, ma questa volta la cura delle caratteristiche strutturali va oltre l'aspetto esteriore (lasciato volutamente "grezzo") con un design ricavato dall'analisi in 3D dello scheletro dell'animale durante il movimento.

Il movimento dei vertebrati, anche quelli (apparentemente) più semplici, è il risultato di una interazione altamente sofisticata tra corpo, midollo spinale e feedback ambientale (il mezzo o terreno in cui ci si muove). È il "cablaggio" spinale e non il cervello quello che consente il movimento; al più dal cervello parte l'input, ma non sempre (vedi il riflesso motorio) e non è più necessario una volta iniziato (si veda la capacità di animali come i cani di camminare, ma non di iniziare a farlo in autonomia, pur in presenza di lesioni spinali a livello delle vertebre toraciche). La morfologia dell'anfibio assomiglia molto a quella delle prime creature terrestri, il che significa che da un punto di vista evolutivo la salamandra è un nostro antenato e come tale un utile modello.
La vera novità è l'approccio scelto per progettare il robot, indirizzatosi verso un equilibrio tra la progettazione di una struttura ossea semplificata e la replica dell'andamento della salamandra visualizzato in tre dimensioni. I dati grezzi da cui iniziare la progettazione sono stati ottenuti visualizzando ai raggi X la salamandra in movimento (vista dall'alto); si sono così mappati 64 punti, distribuiti lungo lo scheletro, dal cui tracciamento durante il moto è stato possibile ricostruire al computer un modello con cui creare il progetto dello scheletro artificiale.
Nota. Il mappaggio del movimento mediante "punti-sensore" è da tempo usato nell'industria cinematografica; gli attori recitano indossano tute rivestite di sensori dal cui movimento si ricava una mappa per creare personaggi con la computer grafica (vedi la CGI usata per creare il Gollum --> Nature video). Nel caso della robo-salamandra non ci si è limitati a costruire un personaggio da schermo ma si è andati avanti fino a creare un prototipo "fisico".
I ricercatori hanno progettato Pleurobot con meno ossa e articolazioni rispetto alla creatura reale proprio per cercare di ottenere un equilibrio tra complessità e funzionalità. Ad esempio mentre l'anfibio è dotato di 40 vertebre e molteplici giunture, alcune delle quali in grado di muoversi liberamente e di spostarsi lateralmente o verticalmente le une sulle altre, il robot è costituito da 27 unità motorie e da 11 segmenti distribuiti lungo la sua spina dorsale. Un numero ricavato dalle simulazioni al computer come quello sufficiente per replicare i movimenti tipici della salamandra.
(Credit: EPFL / A. J. Ijspeert)
Immagine ingrandita --> QUI (Credit: EPFL / A. J. Ijspeert)
 
Potrebbe sembrare cosa facile al giorno d'oggi ma per ottenere dati sufficienti è stato necessario usare più tecnologie (cineradiografia e stampa 3D su tutti) integrati da potenza di calcolo sufficiente per visualizzare il movimento teorico di tutte le componenti perché il movimento risultasse non solo "naturale" ma soprattutto versatile.
Assemblare componenti è importante ma ancora di più è stato ricostruire il cablaggio, o meglio i circuiti, per muovere il robot. E non parliamo di un solo tipo di movimento ma "camminata", "corsa" e "nuoto". L'aiuto è venuto dalla equipe di neurobiologi che ha affiancato i progettisti, che ha dimostrato come i diversi tipi di movimento della salamandra fossero replicabili (o meglio richiamabili) variando la stimolazione elettrica a livello spinale. All'aumentare dell'intensità della stimolazione (ovviamente sempre nell'ambito di una stimolazione fisiologica, cioè quella che regola il movimento naturale dell'animale) è possibile indurre la salamandra a camminare, correre e infine a nuotare. Il pleurobot è stato programmato per imitare tutte queste funzioni.
credit: EPFL (se non vedete il video --> youtube)

Le prospettive che questo approccio apre vanno dallo sviluppo di strumenti mobili per il monitoraggio ambientale o in caso di calamità per raggiungere luoghi a noi inaccessibili o pericolosi, fino allo sviluppo di uno strumento in grado di imitare le proprietà biomeccaniche del corpo (particolarmente utili per gli individui divenuti paraplegici a seguito di lesioni spinali)

Raccolta di articoli tematici precedentemente apparsi in questo blog
--> roboApi
--> biorobots

Fonte
- From cineradiography to biorobots: an approach for designing robots to emulate and study animal locomotion
K. Karakasiliotis et al,  J R Soc Interface (2016), 13(119)

- Pleurobot page
 Biorobotics Laboratory BioRob


Powered By Blogger
"Un libro non merita di essere letto a 10 anni se non merita di essere letto anche a 50"
Clive S. Lewis

"Il concetto di probabilità è il più importante della scienza moderna, soprattutto perché nessuno ha la più pallida idea del suo significato"
Bertrand Russel

"La nostra conoscenza può essere solo finita, mentre la nostra ignoranza deve essere necessariamente infinita"
Karl Popper
Controllate le pagine delle offerte su questo blog




















Zerbini fantastici