CC

Licenza Creative Commons
Questo opera di above the cloud è concesso in licenza sotto la Licenza Creative Commons Attribuzione 3.0 Italia.
Based on a work at scienceabovetheclouds.blogspot.com.
Le notizie raccolte sono etichettate per contenuto e argomento e sono pensate in modo tale da essere "utili" anche a distanza di mesi. Ogni news tratta da articoli peer reviewed (non opinioni!!) è contestualizzata e collegata a fonti di approfondimento. Ben difficilmente troverete quindi notizie il cui contenuto è datato e privo di interesse.
Questo almeno è il mio obiettivo.
Gli hyperlink presenti nel testo dell'articolo (parole con diversa tonalità di colore) rimandano a pagine SICURE.

Volete aiutare il blog? Cliccate sugli annunci sponsorizzati da Amazon (se non li vedete, modificate l'Adblocker per vedere solo Amazon). Se poi decidete di provare Prime o comprate qualcosa Amazon sarà ancora più felice. Tutto qui :-)

Quando anche i dinosauri fuggirono dall'Europa

Si parla molto in questo periodo della fuga della "meglio gioventù" (intesa sia come preparazione universitaria che per capacità progettuale) italiana verso l'estero ma già nelle fasi iniziali del Cretaceo si assistette ad una migrazione di massa degli intellettualmente meno dotati (forse) dinosauri europei (o meglio eurasiatici) verso altri lidi, non rimpiazzati tuttavia da specie esogene.
Credit: University of Bath
Di certo il periodo che va dalla fine del Triassico all'Eocene fu particolarmente movimentato da un punto tettonico con la frammentazione della Laurasia in Eurasia  e Nord America nell'emisfero boreale e del Gondwana nei restanti continenti nell'emisfero australe.
La distribuzione geotemporale dei fossili nei cinque continenti ha reso possibile ricostruire in quali periodi la fauna/flora era sostanzialmente omogenea e quando la separazione geografica delle diverse specie ne innescò la progressiva differenziazione (e spesso estinzione locale).
La deriva dei continenti (Credit: Encyclopedia Britannica)
Dettaglio di terre emerse, zone poco profonde e altre invalicabili una volta chiusasi la "via di fuga" dall'Europa
(Credit: Encyclopedia Britannica)

I dati sull'esodo dei dinosauri europei (avvenuto circa 100-125 milioni di anni fa) sono una "quasi" novità riportata in auge da alcuni paleontologi inglesi dopo l'incrocio dei molteplici dati fossili con quelli geologici e la elaborazione all'interno della cosiddetta teoria delle reti (in verità più un modus di elaborazione che una teoria nell'accezione pura del termine)
Secondo questa modalità di visualizzazione dei dati la maggior parte degli eventi (ritrovamenti, dati, ipotesi formulate, ...) possono, e devono, essere considerati all'interno di un contesto globale grazie al quale diventa possibile visualizzare/ipotizzare correlazioni, altrimenti invisibili, tra diversi campi di studio.
Non è un refuso l'aver scritto "quasi novità" dato che i ritrovamenti fossili che facevano pensare ad una migrazione di massa erano certamente noti da tempo ma i paleontologi non sapevano bene come pesarli. Se da una parte tali indizi supportavano l'idea di un vero e proprio fenomeno migratorio, dall'altra non si poteva escludere che l'estrapolazione fosse in realtà un artefatto causato dalla limitatezza dei ritrovamenti, "viziata" da eventi geologici in grado di occultare i fossili "mancanti" (ad esempio sul fondo di un oceano e quindi irraggiungibili).

La ricerca pubblicata sul Journal of Biogeography interviene nella diatriba confermando la validità degli studi precedenti, disegnando così un quadro migratorio dei dinosauri iniziato ai tempi della Pangea e proseguito con il variare della geografia continentale.

Non si tratta beninteso di fenomeni improvvisi ma di una serie di eventi di intensità variabile che hanno portato, tra l'altro, alla variazione del livello del mare e alla formazione/scomparsa di "ponti di terra" poi assorbiti dagli oceani. Tali imponenti strutture - ad esempio quello da Indo-Madagascar all'Australia - sono difficili oggi da immaginare ma completamente ragionevoli sui tempi geologici (decine di milioni di anni).

Semplificando al massimo i risultati (per i quali vi rimando all'articolo originale) la migrazione ha avuto un picco nella prima parte del Cretaceo per poi ridimensionarsi progressivamente mano a mano che la deriva continentale creava distanze sempre maggiori (e/o tratti di mare profondi) tra aree prima unite.
Uno degli ultimi esempi di tali migrazioni di massa (in questo caso bidirezionali) è avvenuto con la "fusione" del Nordamerica al Sudamerica, circa 3,5 milioni di anni fa; migrazioni nella maggior parte dei casi caratterizzate dalla scomparsa della specie migrata o di quella stanziale (a seconda delle condizioni locali).
L'interesse per il lavoro dei ricercatori inglesi è soprattutto nella dimostrazione della potenza conoscitiva che l'incrocio tra diverse discipline, coadiuvato da banche dati multisettoriali, permette.

Per chi volesse approfondire l'argomento "geologia storica" vi rinvio a due brevi articoli in italiano sul sito del dipartimento di geoscienze dell'università di Trieste (clicca per aprire il PDF --> "parte 1" e --> "parte 2")

Fonte
- Dinosaur biogeographical structure and Mesozoic continental fragmentation: a network-based approach
Alexander M. Dunhill et al, (2016) Journal of Biogeography
- An analysis of dinosaurian biogeography: evidence for the existence of vicariance and dispersal patterns caused by geological events
P. Upchurch et al, (2002) Proc Biol Sci ;269(1491):613-21


Un saggio breve ma completo per introdurre chiunque alla biologia evoluzionista e allo stretto legame tra ambiente (e quindi migrazioni in ambienti diversi) e selezione. Scritto da Lisa Signorile, docente all'Imperial College e autrice di articoli apparsi su National Geographic e sul famoso blog "L'orologiaio miope". 

Nuova vita per un farmaco contro l'artrite: utile anche per la terapia dell'eczema

In un articolo scritto mesi fa, riportai in questo blog i promettenti risultati ottenuti da un team della Yale University sul trattamento di forme intrattabili di alopecia e vitiligine grazie all'utilizzo di un farmaco già in uso (--> QUI).
Nelle scorse settimane gli stessi autori hanno pubblicato sul Journal of American Academy of Dermatology dati che mostrano nuove potenzialità terapeutiche per il trattamento di forme di eczema poco responsive ai trattamenti. I sei pazienti trattati nello studio pilota, affetti da eczema moderato/grave resistente alle terapie classiche, hanno  mostrato una significativa riduzione del prurito,  un sonno soddisfacente e la diminuzione delle alterazioni visibili sulla pelle.
L'eczema (dermatite atopica) è una condizione cronica che causa forte prurito e si evidenzia con pelle arrossata e ispessita. Il fastidio provocato può influenzare negativamente il sonno ripercuotendosi in una diminuita qualità della vita. Trattamenti standard, come creme steroidi e farmaci per via orale, sono scarsamente risolutivi e poco efficaci nell'alleviare i sintomi nei soggetti affetti da eczema moderato o grave.
Prima e dopo il trattamento (Photos by Dr. Brett King / Yale University)

Il farmaco testato nello studio, noto come tofacitinib citrato e in uso per l'artrite reumatoide, esplicherebbe la sua azione terapeutica bloccando la risposta immunitaria che provoca l'eczema.

E' bene precisare che i risultati ottenuti sono preliminari e che per avere l'autorizzazione al cambiamento d'uso del tofacitinib saranno necessari studi con un numero di pazienti molto più elevato.

***
Rimaniamo nell'ambito di "prurito cronico" e refrattario ai trattamenti per citare i risultati positivi ottenuti in fase clinica II con il Nemolizumab per la dermatite atopica in pazienti sottoposti ad emodialisi. Il farmaco è un anticorpo monoclonale umanizzato diretto contro il recettore della interleuchina-31, una proteina immunitaria  che gioca un ruolo importante (anche se indiretto --> qui) nell'insorgenza del prurito. Dato che la interleuchina e/o il suo recettore sono sovraespressi anche in altre patologie che hanno come epifenomeno la comparsa di prurito, il farmaco potrebbe avere indicazioni d'uso più generali.

Per altri articoli sul tema "nuovo utilizzo per vecchi farmaci" clicca --> "NewOldDrugs".
Articolo successivo sul tema --> "diagnosi precoce dell'artrite reumatoide"

Fonte
- Treatment of recalcitrant atopic dermatitis with the oral Janus kinase inhibitor tofacitinib citrate
Laurel Levy et al, (2015) J Am Acad Dermatol. 73 (3) 295


Una banana transgenica salverà i bambini dalla cecità?

Una banana transgenica salverà i più bisognosi

OGM, una parola diventata quasi un insulto negli ultimi anni ma che racchiude  sia il nostro passato che il nostro futuro obbligato.
Stephen Buah e James Dale del QUT
©Erika Fish, QUT / Nat. Biotech
Il passato perché non esiste alcun prodotto vegetale o animale presente anche nel più  "biologico" degli orti o  degli allevamenti "casalinghi" che sia uguale ad un corrispettivo selvatico. Dai pomodori al grano alla gallina, si tratta sempre di organismi selezionati con incroci selettivi volti a migliorare sapore, resistenza e facilità di coltivazione. Difficile pensare alla gallina o alla frisona come animali in grado di sopravvivere per un solo giorno in un ambiente naturale alla mercé di predatori e malattie.
Il futuro perché il concetto stesso di sostenibilità è inconciliabile con coltivazioni e allevamenti nature. Solo massimizzando la resa dei prodotti di interesse si può cercare di preservare l'equilibrio naturale evitando il continuo ricorso a nuove zone di coltura, alla deforestazione senza controllo e alla distruzione della vita marina (vedi l'importanza della acquacoltura).

La differenza vera tra il passato e il futuro è che prima per ottenere specie più consone ai nostri bisogni servivano decine di generazioni di incroci o innesti, ora può essere fatto in modo totalmente controllato in laboratorio. Nella stragrande maggioranza dei casi infatti si tratta dell'inserimento di un gene che conferisce una data proprietà presente nella specie X in una specie Y.
Le varianti possibili sono molteplici ma quella di cui parlo oggi ha come finalità fare produrre vitamine "preziose" da un frutto comune e facilmente trasportabile o coltivabile in loco, la banana. In questo modo popolazioni che non possono accedere a certe vitamine in quanto associate ad alimenti a loro preclusi potranno beneficiarne mangiando frutta presente sul loro territorio. Niente integratori ma sana frutta. 

Il prodotto in questione noto come Super-Banana è il risultato del lavoro di un gruppo australiano della Queensland University of Technology svolto fianco a fianco con laboratori ugandesi. La ricerca nasce con l'idea di creare un prodotto che sia estremamente ricco di beta-carotene, una idea premiata dalla Bill e Melinda Gates Foundation con 10 milioni di dollari.
Perché la banana? L'Uganda è il secondo produttore mondiale di banane, non solo per export dato che è anche il paese con il maggior consumo quotidiano pro-capite di banane (poco superiore a 1 kg).
Che cosa è la Super Banana? In poche parole si tratta del prodotto di una pianta modificata geneticamente in grado di produrre un frutto contenente quantità elevate di beta-carotene, il precursore della vitamina A. La carenza di vitamina A è notoriamente uno dei (tanti) problemi che affliggono i bambini ugandesi e che è responsabile, se trascurata, della cecità. La banana quindi è il prodotto ideale in quanto è al contempo un frutto nutriente e molto diffuso nella regione.
Un progetto buono su cui però gravano  le ombre scoraggianti delle sperimentazioni passate. O meglio delle reazioni ai passati progetti. Tra questi il caso più eclatante è quello della varietà di riso nota come Golden Rice (anche questo arricchito di vitamina); sviluppato quasi 20 anni fa per il mercato delle Filippine incontrò da subito una accanita opposizione e pesanti ostacoli normativi che hanno ritardato il suo sviluppo per 15 anni.
Risultato? Sperimentazione iniziata in ritardo, conclusa con successo ma ancora non entrata sul mercato (leggi in proposito un articolo riassuntivo pubblicato su Wired --> "Perché ancora ostacolano il Golden Rice").
ATTENZIONE, ritardo NON giustificato né allora né oggi da alcun dato scientifico o epidemiologico che abbia sollevato dubbi di sicurezza sia ambientale che di salute (intolleranza, allergie, etc). Ripeto. Nonostante le continue analisi e i riflettori puntati da parte della lobby anti-OGM, NON SONO MAI emersi dati negativi o dubbi su alcun prodotto OGM! Non cesserà mai di stupirmi invece l'assenza di clamore per le ben meno stringenti procedure per l'approvazione di nuovi antiparassitari chimici (dal solfato di rame ai celeberrimi neo-nicotinoidi causa della moria delle api). Trovo curiosa la naturale accettazione di chi al supermercato legge sull'etichetta delle arance "buccia non commestibile in quanto trattata con xxxx" (frase letta ieri, non una mia invenzione!) mentre inorridisce alla sola idea che possa essere OGM. Ricordo inoltre che anche se uno dice che non mangerebbe mai OGM di fatto lo fa in quanto la quasi totalità dei mangimi importati è OGM da anni.
La Super-Banana andrà incontro ad un destino simile a quello del Golden Rice? Difficile dirlo. Al momento l'opposizione degli attivisti anti-biotech è stata minima e non ci sono avvisaglie di questa attitudine nelle popolazioni africane, ben più concentrate sulla sopravvivenza quotidiana che sui dogmatismi di chi ha la pancia piena, usa integratori da palestra e ammorba il mondo con gas di scarico. 
Una sensazione condivisa da  Claude Fauquet direttore del Global Cassava Partnership for the 21st Century (GCP21) presso l'International Center for Tropical Agriculture. " Non ci sono evidenze che stia montando una campagna negativa contro questo prodotto da parte degli attivisti o della popolazione locale. Nessuna delle coltivazioni sul campo benché fosse nota, è stata distrutta o anche solo visitata da gruppi anti-OGM". Altro punto importante "i contadini si fidano del parere delle organizzazioni locali e hanno sempre visto con favore le innovazioni in grado di migliorare la resa e la qualità del prodotto".

Ma come sono state create le super-banane? 
A destra la fe'i, sbucciata e con buccia (©wikipedia).
Se siete curiosi e volete vedere anche le differenze
esistenti tra mais e pomodori "veri" e quelli selezionati
dall'uomo --> "ragionare sugli OGM (...)"
Si è inserito un gene che codifica per la proteina fitoene sintasi (PSY2a) prelevata da un altra specie di banane, la micronesiana Fe'i i cui livelli di beta-carotene sono fisiologicamente alti.
Per aumentare la resa il gene è stato messo sotto il controllo del promotore del gene amminociclopropanocarbossilato ossidasi, anche questo un gene naturale della banana; il risultato sono livelli di beta-carotene pari a circa 20 microgrammi per grammo di prodotto secco.
Secondo James Dale, direttore del Centro per le colture tropicali presso il QUT e responsabile del progetto, il costrutto genico sarà utilizzato in due coltivazioni di banane particolarmente adatte alla dieta: il banano East African Highland e il Kabana 6H, una variante molto usata in loco, derivante da incroci selettivi e molto resistente a alle malattie.

I primi test sul prodotto verranno condotti negli USA su una variante transgenica create a partire da una nota varietà di banane, la Cavendish. Scopo del test è verificare che l'aumentato livello di beta-carotene si traduca in un effettivo maggior assorbimento e nella produzione di vitamina A. In parallelo verranno monitorati eventuali intolleranze o disturbi digestivi.
Si tratta di test fondamentali per decidere se il progetto ha le potenzialità per fare la differenza in aree dove le carenze nutrizionali sono importanti. E' chiaro infatti che il prodotto non ha senso sul mercato occidentale decisamente non bisognoso di supplementi vitaminici.

Uno dei punti di forza della Super Banana è che si tratta di "un prodotto pensato da ugandesi per altri ugandesi", spiega Dale. Inoltre a differenza del Golden Rice le banane sono sterili, quindi non esiste possibilità che si diffonda al di fuori delle zone di coltivazione; certo la sterilità è un arma a doppio taglio dato che solleva le critiche di chi non vuole dipendere dall'acquisto dei semi (ma non si possono avere entrambe le cose). In questo caso il dubbio non sussiste dato che il banano a differenza di riso o mais ha una vita molto lunga e una volta piantato non ha bisogno di essere rinnovato annualmente.

Sullo stesso argomento vi consiglio vivamente di leggere gli articoli pubblicati in precedenza interessarvi articoli precedenti come:


Fonte
- Vitamin A Super Banana in human trials
  Nature  Biotech (2014) 32,9 


Due libri molto utile per chi vuole capire cosa significa veramente OGM al di la degli stereotipi da salotto radical-chic. Un utile panoramica per ricordarci che gli OGM sono in giro da prima che sorgessero le prime civiltà (un esempio su tutti, il grano tenero). Taglio divulgativo ma rigore scientifico.
 --> edizione 2009
--> edizione 2015




 

La musica facilita l'apprendimento motorio dei bambini già nel primo anno di età

Il potere taumaturgico della musica è noto da tempo sebbene molta sia l'aneddotica e minore l'analisi quantitativa di tale effetto. 
La disciplina che si occupa di studiare l'effetto della musica sulle capacità cognitive e sull'efficienza senso-motoria (o più spesso per aiutare persone con problemi in questi ambiti) è nota come musicoterapia (in inglese --> neurologic music therapy).

A fornire nuovi elementi arriva ora uno studio della università dello stato di Washington e pubblicato sulla rivista PNAS. La ricerca condotta dallo Institute for Learning & Brain Sciences (I-Labs) su bambini di 9 mesi, ha dimostrato che dopo una serie di sessioni di gioco in presenza di musica la loro capacità cognitiva era aumentata rispetto ai controlli che avevano giocato in assenza di musica.
 Lo studio, il primo del genere condotto su bambini così piccoli, suggerisce che la ritmicità della musica abbia un influenza positiva sulla "ritmicità" del linguaggio, e a cascata sulle capacità cognitive.
Del resto tutti noi abbiamo esperienza della capacità dei bambini di assorbire i complessi segnali del mondo esterno (sonori, visivi e tattili) e di elaborarli, imparando ad associarli non solo a stimoli positivi o negativi ma a prevederne l'effetto. Più che "spugne di informazioni" (come si diceva un tempo) il cervello in formazione è un serbatoio di dati in continua elaborazione a denotarne il ruolo non solo passivo.

Scrivevo sopra del parallelismo tra ritmicità musicale e del linguaggio. Niente di strano dato che il linguaggio, come la musica, è fondato su modelli ritmici essenziali perché un flusso di parole ancorché coerente risulti comprensibile a chi ascolta. Ogni sillaba ha una certa durata fonetica e il corretto peso dato a ciascuna differenzia un suono vocale da un altro. La musica, nello specifico, sembra aiutare il bambino a formare più velocemente la sua capacità di identificare le differenze di suoni proprie del linguaggio; il che aiuta non solo a capire il senso delle parole di chi è nei dintorni ma li aiuta anche ad imparare a parlare.

Vediamo ora brevemente come è stato condotto lo studio.
L'esperimento ha coinvolto 39 bambini che hanno partecipato nel corso di 1 mese a 12 sessioni di gioco di 15 minuti in laboratorio alla presenza dei loro genitori. I gruppi di gioco erano costituiti di  2 o 3 bambini, con i genitori impegnati a indirizzarli nelle attività. L'unica differenza tra i gruppi era la presenza o meno (scelta in modo randomizzato) di musica e attività guidate da un operatore consistenti nel seguire il ritmo della musica (ad esempio battere con le mani). Il ritmo musicale usato dagli sperimentatori è il ternario (tipico del walzer) scelto in quanto chiaramente ritmico ma non banalissimo da imparare.
I 19 bambini del gruppo di controllo hanno invece partecipato sessioni di gioco prive della componente musicale, consistenti in macchinine, posizionamento blocchi o altri oggetti che richiedevano movimenti coordinati ma "non ritmici".
La differenza principale quindi era se l'attività dei bambini era focalizzata o meno sull'apprendimento di un ritmo musicale.
Video descrittivo delle attività svolte nel gruppo "musicale" (credit: I-Labs)

Dopo una settimana dal termine delle sessioni ludiche, le famiglie sono tornate in laboratorio per sottoporre i bambini ad una magnetoencefalografia, analisi assolutamente non invasiva e innocua, allo scopo di monitorare l'attività cerebrale mentre ascoltavano musica e suoni vocali dotati di un certo ritmo che ogni tanto veniva interrotto. Dato che il cervello, già nei bambini, nota questa improvvisa interruzione del ritmo, i ricercatori hanno focalizzato il loro studio su due aree in particolare, la corteccia uditiva e la corteccia prefrontale, quest'ultima alla base di molte capacità cognitive come il controllo dell'attenzione e il riconoscimento di modelli (nel senso generale del termine).
I bambini nel gruppo "musicale" hanno mostrato una maggiore forza del segnale associato all'interruzione del ritmo ascoltato (musicale o vocale) in entrambe le aree, rispetto ai bambini del gruppo di controllo.
Il dato suggerisce che la partecipazione alle sessioni di gioco con la musica abbia in effetti migliorato la capacità dei bambini di rilevare modelli sonori.

Lo studio potrebbe, ottimisticamente, indurre a ripensare il costante taglio avvenuto in questi anni alle materie musicali, focalizzando magari la sua introduzione nei nidi e negli asili.

Fonte
- Musical intervention enhances infants’ neural processing of temporal structure in music and speech
T. Christina Zhao & Patricia K. Kuh, (2016) PNAS, 113(19) 5212–5217


Un gadget in grado di sterilizzare l'acqua prima di berla

Un dispositivo delle dimensioni di un francobollo potrebbe risolvere il problema della depurazione dell'acqua dai batteri.
(Jin Xie/Stanford University)
Qualcosa più di un gadget (utilissimo) da inserire nelle nostre borracce e nei kit da viaggio per prevenire i problemi della "maledizione di Montezuma", dato che potrebbe risolvere un problema sanitario importante laddove manchino i sistemi minimi di controllo sulla potabilità dell'acqua.
Ad oggi i sistemi "fai da te" si basano sulla bollitura (che richiede carburante) o sui raggi UV solari (che necessitano fino a 48 ore per mostrare un minimo di efficacia). 

Il nuovo dispositivo sviluppato dalla università di Stanford appare come un rettangolo di vetro nero contenente fini scaglie di disolfuro di molibdeno ricoperte da un sottile strato di rame. Questa combinazione di elementi permette di amplificare l'effetto degli UV ambientali (il 4% dell'energia solare che supera l'atmosfera) portandoli al 50% dell’energia incidente. 
E' sufficiente immergere la barretta in acqua ed esporlo al sole e "in automatico" la luce innescherà la formazione di sostanze come il perossido di idrogeno capaci di uccidere i batteri in pochi minuti.

Nei test condotti il dispositivo si è dimostrato capace di uccidere il 99,99 % dei batteri in 20 minuti "potabilizzando" di fatto l'acqua. Importante precisare che si tratta di test condotti in laboratorio e che la sterilizzazione non ha efficacia contro alcune tossine che permangono nell'ambiente anche dopo che il batterio è morto (ad esempio la tossina del botulino) o contro inquinanti di altro tipo (industriali, minerari, etc).
Il dispositivo è costituito da nanostrutture permettendo così di massimizzare la superficie "reattiva" e la velocità di sterilizzazione. Sottili scaglie di disolfuro di molibdeno sono posizionati sulla superficie di vetro e quindi ricoperti da un sottile strato di rame. La luce solare quando colpisce le pareti innesca la formazione di perossido di idrogeno (alias acqua ossigenata) e altri radicali liberi dell'ossigeno con potenze azione biocida. (image credit: C. Liu et al., Nature Nanotechnology via stanford.edu)
-  SLAC, Stanford Gadget Grabs More Solar Energy to Disinfect Water Faster
Stanford University, news

- Rapid water disinfection using vertically aligned MoS2 nanofilms and visible light
Chong Liu et al, (2016) Nature Nanotechnology


13 millisecondi è il tempo minimo perché il cervello "catturi" l'immagine

Immaginiamo di partecipare ad un test percettivo dove venga analizzata la correlazione tra tempo di esposizione ad una serie di immagini mostrate in rapida successione e per frazioni di secondo e la "percezione" di quanto visto.
Riusciremmo alla fine del test a riconoscere come già viste le immagini che l'esaminatore metterà sul tavolo? Ovviamente dipenderà, oltre che dalla nostra memoria, dal tempo a cui siamo stati esposti all'immagine.
L'importante è però sottolineare che non è necessario ricordarsi di avere visto qualcosa (ricordo "conscio") perché questo ricordo sia presente e "recuperabile" quando necessario. Un conto infatti è vedere e un altro è percepire; molto di quello che vediamo non è "visto" a livello corticale (ad esempio l'albero che aggiriamo in modo automatico mentre camminiamo nel parco) eppure è stato percepito. La domanda è quindi quale è il tempo minimo "di esposizione" perché il nostro cervello acquisisca informazioni sufficienti per catturare l'immagine?
Di una cosa possiamo essere sicuri a priori: l'immagine (da intendersi come i fotoni riflessi dall'oggetto che arrivano a noi) "colpisce" la retina anche se il tempo di esposizione fosse molto basso, vale dire inferiore a quello generalmente considerato come tempo minimo per poter dire "lo abbiamo visto" .
Dal momento in cui i fotoni colpiscono la retina si attiva una serie di eventi a cascata che culminano nella ricostruzione cerebrale di ciò che si è "visto".
Dall'oggetto reale alla rappresentazione cerebrale dell'oggetto: fotoni: epitelio retinico: nervo ottico e infine nella corteccia visiva primaria.

INTRODUZIONE
In estrema sintesi, questi sono i passaggi alla base del processo visivo:
  • i fotoni, dopo essere passati attraverso la lente e l'umor vitreo, raggiungono la camera posteriore dell'occhio in cui si trova l'epitelio retinico. Qui attraversano una serie di strati cellulari trasparenti fino a colpire i fotorecettori presenti in cellule specializzate, i coni e i bastoncelli. Il risultato è la depolarizzazione della membrana cellulare, la "scintilla" che fa partire il segnale elettrico.
  • Il segnale elettrico si trasforma in potenziale d'azione quando arriva nelle adiacenti cellule gangliari i cui assoni formano il nervo ottico. In pratica il segnale fa un percorso inverso a quello della luce, nella figura raffigurato (ma è solo uno schema) dal basso verso l'alto. Volendo essere precisi è errato dire che la luce attiva il segnale nervoso dato che in realtà "disattiva il segnale inibitore presente di default"; il risultato è una attivazione ma come effetto dell'inibizione di un inibitore.
    Epitelio retinico (QUI una immagine al microscopio elettronico)
  • Il segnale nervoso attraversa tutto il cervello passando da "stazioni" di smistamento come il chiasma ottico, il nucleo genicolato laterale (parte del talamo) per arrivare infine alla corteccia visiva primaria (V1). 
    Schema di una sezione trasversale del cervello vista "dal basso"
  • Dall'area V1 si dipartono due vie essenziali per la decodifica dell'immagine, la "via dorsale-parietale" (in rosso nella figura) che contestualizza ciò che vediamo e la "via ventrale-temporale" (in verde nella figura) che dice "cosa" vediamo. In quest'ultima area avviene la scomposizione del contenuto dell'informazione nei suoi elementi costituenti come forma, colore e orientamento (vedi anche articolo precedente QUI).
  • Schema del percorso del segnale visivo
  • Il processo si conclude nei centri superiori con l'elaborazione dell'informazione "complessiva" e il confronto con le informazioni preesistenti che ci permette di identificare ciò che vediamo prima ancora di esserne consapevoli.  Quando il segnale giunge nella corteccia prefrontale (nella figura indicate come VLPFC e DLPFC) sede dei processi decisionali e della "consapevolezza", il senso dell'immagine è già stato catturato a livello inconscio.
Una elaborazione certamente complessa ma molto veloce, come è evidente dalla nostra capacità di evitare ostacoli improvvisi o semplicemente non percepiti consciamente


LO STUDIO
Torniamo ora al test descritto inizialmente e chiediamoci quale sia il tempo minimo di visualizzazione di una immagine per avere informazioni sufficienti affinché il processo percettivo sia possibile.
Per rispondere a questa domanda bisogna innanzitutto sottolineare che l'occhio, a differenza di una videocamera, funziona "in continuo"; la qualità visiva NON è quindi definita da parametri come fotogrammi per secondo (fps).
L'occhio non funziona nello stesso modo dell'otturatore! L'elemento centrale nella visione è il connubio tra processo percettivo e l'elaborazione di quanto visto.

L'articolo pubblicato sulla rivista "Attention, Perception and Psychophysics" da un gruppo di ricerca del MIT di Boston ci dà la risposta: al cervello umano basta vedere una immagine per soli 13 millesimi di secondo per poterla elaborare. Un tempo nettamente inferiore rispetto al limite finora ipotizzato di 100 millisecondi.
Notate la differenza tra il tempo sufficiente per catturare una immagine (13 msec) e quello necessario per prendere una decisione (100-140 msec). Una differenza spiegata dal diverso percorso neurale. A questo proposito è utile ricordare che il passaggio del segnale tra un neurone e il successivo (passaggio che avviene nelle sinapsi) avviene in meno di un millesecondo.
Nel test i ricercatori hanno mostrato ad un certo numero di volontari una serie di immagini classiche, tipo "picnic" o "coppia sorridente", per tempi variabili tra 13 e 80 millisecondi.
In questo intervallo di tempo le aree del cervello preposte all'analisi identificano gli elementi caratterizzanti l'immagine basandosi sulla esperienza. L'associazione tra quanto già visto e quanto ora visualizzato permette di richiamare concetti (tipo "mi ricorda un cane") che velocizza il processo di identificazione di un oggetto
Nota. Un cercatore di funghi è molto più bravo di qualcuno senza esperienza in quanto riesce a isolare la forma fungo dal flusso di informazioni che colpiscono ininterrottamente l'occhio. Un processo che dipende dal rafforzamento delle connessioni neuronali, legato all'apprendimento, tra talamo e V1.
E' proprio grazie alla capacità del cervello di richiamare concetti noti come "picnic" o "sorriso" che si basa la velocità percettiva testata.
Mary Potter, l'autrice senior del lavoro, ci aiuta a comprendere il concetto: "il lavoro degli occhi non è solo raccogliere le informazioni, ma anche permettere al cervello di avere dati sufficienti per identificare l'oggetto e poi passare a qualcosa d'altro. In un certo senso i nostri occhi si muovono in continuazione per carpire più dettagli possibili affinché [il cervello] possa "indovinare" senza dovere processare ogni singolo input visivo". In altre parole "questo oggetto assomiglia all'idea di albero e quindi so che è un albero". Se si dovesse verificare una distonia tra informazione prevista e informazione reale (sento una voce che proviene da "idea" di albero "il che è assurdo dato che l'albero non parla") l'attenzione verrà spostata sull'oggetto per catturare più informazioni multisensoriali (e conscie) e processarle corticalmente. Questo ci permette ad esempio di scoprire che seduto ai piedi di un albero c'è una persona che parla al cellulare. In questo brevissimo lasso di tempo si è passati quindi da una visione passiva ad una attiva.
Anche nella visione passiva l'occhio cerca di catturare quante più informazioni possibili cambiando posizione circa tre volte al secondo, in modo da mettere a fuoco nella macula (o meglio sulla fovea, l'area a maggior densità di fotorecettori) più elementi possibili. Il fenomeno è noto come saccade.
E' bene precisare che sotto i 50 millisecondi vi è un calo delle prestazioni complessive della capacità di identificare un oggetto mostrato, pur rimanendo ancora significativamente rilevanti fino alla soglia minima di circa 13 millisecondi. Un limite non definitivo dato che il computer usato non permetteva una proiezione di immagini a velocità maggiore.

credit: Mcgill University
I test dovranno ora essere ripetuti in modo da escludere eventuali effetti cumulativi legati alla pratica o al ridotto numero dei temi mostrati. Una cautela ovvia ma minimizzata da Simon Thorpe, direttore del Centre de Recherche Cerveau & Cognition dell'università di Tolosa; i risultati infatti sono uguali anche quando l'immagine è inserita all'interno di una sequenza di 6-12 immagini non correlate tra loro mostrate in 13 millisecondi. Una sequenza pari a 75 fps, superiore anche a quella dei film proiettati al cinema (48 fps).
Lo studio offre la prova che "l'elaborazione feed-forward" - il flusso di informazioni in una sola direzione, dalla retina attraverso i centri di elaborazione visiva del cervello - è sufficiente per l'identificazione degli elementi tematici chiave senza che sia necessario riprocessare l'informazione.
Suggerisce anche che la percezione dell'immagine rimane più a lungo dei 13 millisecondi di esposizione: se le immagini venissero "cestinate" subito dopo essere state viste, di esse non rimarrebbe traccia nella memoria; il fatto che i volontari, dietro specifica domanda, siano stati in grado di reperire l'informazione, indica che è avvenuta la transizione tra la cosiddetta memoria sensoriale (pochi millisecondi) a quella di breve termine (durata inferiore ai 30", utile per fare il numero di telefono che ci hanno appena detto) e a quella a lungo termine.

La capacità di identificare le immagini viste per così poco tempo è importante in quanto aiuta il cervello a focalizzare lo sguardo, se necessario, quando viene percepita una "forma" pericolosa.
Ad esempio salto indietro da un serpente prima ancora di capire che quello che sta attraversando la mia strada e' veramente un serpente.
Un lavoro svolto in automatico senza il coinvolgimento, e quindi senza il carico di lavoro e la perdita di efficienza per altre mansioni, della corteccia.
Nota. I dati ottenuti nel lavoro americano sono in accordo con uno studio precedente (a cui aveva partecipato anche un gruppo dell'università di Parma) condotto su animali, in cui si dimostrò che i neuroni dei macachi erano in grado di rispondere a immagini mostrate per soli 14 millisecondi in rapida sequenza.
Due le domande a cui bisognerà ora dare una risposta:
  • per quanto  tempo le informazioni visive catturate durante un tempo così poco tempo possono essere conservate.
  • quali le regioni coinvolte nel processo di identificazione.

Fonte
- Detecting meaning in RSVP at 13 ms per picture , 
Mary C. Potter et al, (2014) Attention, Perception, & Psychophysics

- In the blink of an eye
 MIT, news

***
Ad integrazione di quanto scritto, vi mostro una visualizzazione empirica delle attività che il nostro cervello compie per "ricostruire" ciò che stiamo vedendo. Le immagini vengono dal EXPLORATORIUM, il bellissimo museo interattivo interamente dedicato alla scienza, sito a San Francisco.
Lo sperimentatore di fronte alla telecamera che scompone l'immagine "vista consciamente" nella somma delle componenti elaborate singolarmente dal cervello

Una parte della corteccia visiva si occupa di elaborare le informazioni cromatiche che derivano dall'attivazione differenziale dei tre tipi di coni (cellule con fotorecettori sensibili a diverse lunghezze d'onda della luce). La bassa risoluzione NON è un artefatto della telecamera ma è proprio la caratteristica del nostro occhio che NON è una fotocamera ad alta risoluzione. Il fatto che noi percepiamo una visione in HD è il risultato del post-processamento cerebrale. Il cervello è ben più efficiente della Lucas Ltd.

Un'altra parte della corteccia si occupa della "cattura" delle linee e del loro orientamento. Senza questa funzione non saremmo capaci di distinguere un oggetto dall'altro anche vedendolo perfettamente (ne sono prova alcuni pazienti con lesioni corticali, post-traumatiche o patologiche, ben definite) Vedi anche su questo blog -->"identificata la regione cerebrale che rileva i bordi"

Questa attività è più difficile da mostrare con immagini statiche. Fate conto che questa parte del cervello risponde solo ai movimenti. A sinistra lo sperimentatore nel momento in cui inizia a muovere il corpo e a destra quando è in piena "oscillazione". Anche in questo caso esistono delle corrispondenze nelle lesioni cerebrali come quello dei pazienti che soffrono di achinetopsia vale a dire cecità più o meno totale al movimento (mentre non hanno alcun problema a vedere ad esempio panorami o altre persone mentre sono ferme); uno di questi casi è stato citato da Oliver Sacks in "Un antropologo su Marte".

Esiste un'area della corteccia la cui funzione è quella di "scoprire" i volti che verranno poi confrontati (ma questo è un passaggio ulteriore indipendente dalla visione) con il "database" di volti già incontrati in modo da effettuare il riconoscimento (anche solo parziale).

***
Libri per chi vuole approfondire le neuroscienze 



Una flotta stellare (in miniatura) da inviare su alfa centauri

Dopo la scoperta di un pianeta potenzialmente interessante nei nostri paraggi (vedi --> "Un esopianeta vicino?") si è riacceso il dibattito accademico sulle reali possibilità di inviare sonde in loco e magari in un lontano futuro addirittura organizzare viaggi di sola andata (multigenerazionali) con coloni umani.
Nota. La creazione di colonie umane è al momento una mera ipotesi accademica dato che non si è a conoscenza di alcun pianeta "abitabile" anche usando una accezione ampia del termine (come potrebbe esserlo Marte previa creazione di basi opportunamente "condizionate"). Anche il termine "paraggi" è alquanto aleatorio come significato; spannometricamente sono tali le (poche) stelle distanti meno di 8 anni luce.
Come si suol dire l'importante è crederci ed è per questo che un certo numero di imprenditori privati ha stanziato un budget iniziale di 100 milioni di dollari per attivare studi di fattibilità volti alla ricerca della soluzione tecnologicamente più idonea allo scopo.
Inviare dalla Terra fasci laser concentrati come propellente per le sonde del futuro.

Il progetto si chiama Breakthrough Starshot ed è centrato sulla "vecchia" idea di una fonte energetica indipendente dai propellenti classici che permetta alle sonde, al pari di barche a vela, di essere "spinte" verso la loro destinazione dalla "brezza" di un fascio di luce laser generato sulla Terra; in altre parole la sorgente energetica rimarrebbe sulla terra e grazie ai moderni puntatori associati ai telescopi verrebbe indirizzata per tutta la durata del viaggio sulla sonda.
Secondo i calcoli dei tecnici una raffica di laser concentrati, sparata da terra, potrebbe rapidamente accelerare una sonda delle dimensioni di uno smartphone (più che sufficiente per ospitare sensori base, microelettronica e una "vela") fino a raggiungere il 20 % della velocità della luce. Facile fare il calcolo di quanto "poco" ci vorrebbe per coprire la distanza di 4,37 anni luce che ci separa da α Centauri.
Nota. La sonda Solar Probe Plus che verrà lanciata il prossimo anno raggiungerà velocità di 200 km/sec. Se venisse inviata su α Centauri  ci metterebbe poco meno di 6400 anni..,
Una scelta tecnologica questa ben più efficiente di quella ottenibile sfruttando il "vento solare" poco utile ovviamente già ben prima di aver raggiunto le parti esterne del nostro sistema (sebbene l'importante è raggiungere velocemente una certa velocità, poi nel vuoto tale velocità rimarrebbe sostanzialmente costante senza necessità di ulteriori spinte). Per avere un metro di paragone con le precedenti missioni, se la sonda New Horizons (--> QUI) ci ha messo 9 anni per raggiungere Plutone, la sonda ora teorizzata (chiamata NanoCraft) ci avrebbe messo 3 giorni (!!). 

Video riassuntivo (fonte: Breakthrough Mission)

Ovviamente dato che la Terra ruota intorno al suo asse e intorno al Sole un solo emettitore (o gruppo di emettitori locali) laser non sarebbe in grado di assicurare una spinta costante. Questo non sembra un problema per i tecnici che negano anche la necessità di creare degli emettitori duplicati in diversi punti del globo; sarebbe infatti sufficiente dare una "spinta" ogni 1-2 giorni.
Rimossa la necessità di ospitare batterie ad alta capacità (e quindi minimizzare il carico e restare in standby quando non necessario per non consumare energia), la nanonavicella diventerebbe un multisensore compatto in grado di catturare informazioni durante tutto il percorso e di ritrasmetterle sulla Terra in tempo reale (al netto dei tempi perché il messaggio arrivi a destinazione) grazie a minuscoli fasci laser.

Il progetto ha ricevuto il consenso di finanziatori di alto livello come Mark Zuckerberg e di astrofisici importanti come Stephen Hawking.

Il progetto Starshot sarà guidato da Pete Worden, direttore della NASA fino allo scorso anno, e riceverà supporto oltre che dalla NASA anche dall'ESA.

Fonte
- Billionaire backs plan to send pint-sized starships beyond the Solar System 
Nature     doi:10.1038/nature.2016.19750


Comportamento animale. La cooperazione tra cernia e murena è il risultato di una selezione e non di "volontà" cooperativa

Tempo fa mi sono imbattuto in un vecchio articolo che descriveva un comportamento cooperativo stupefacente (per la modalità) tra due specie di pesci molto diverse tra loro. Pesci che dovrebbero essere competitori se non addirittura potenziali nemici, si coalizzano per cacciare altre prede che da soli non avrebbero potuto catturare.
Cernia (a sinistra) e murena (destra). Due partner inaspettati (image credit: Jon Hanson e Nick Hobgood)

Il curioso fenomeno, mostrato nel video allegato, vede come protagonisti la cernia e la murena. Quest'ultima in particolare con una lunghezza fino a tre metri e due file di denti (di cui una fila quasi in gola che può estroflettere come il temibile Alien) dovrebbe incutere un sacro terrore anche a pesci di maggiori dimensioni. "Dovrebbe" appunto, ma la cernia non sembra curarsene tanto da avere stretto con lei una partnership evolutiva centrata sulla caccia.

I denti faringei della murena
Il fenomeno venne colto anni fa da Redouan Bshary della università di Neuchatel mentre stava osservando una cernia sul fondale marino; durante la ripresa video si accorse che in uno degli anfratti vicino al quale stava passando la cernia c'era una murena nascosta. Bshary si  aspettava che il transito avrebbe scatenato una risposta della murena motivata da "invasione del territorio di caccia"; nulla di tutto questo avvenne. Dopo il passaggio la murena uscì dal suo "appostamento" per seguire la cernia fino a giungere in una serie di anfratti corallini in cui, scoprì il ricercatore, si stava nascondendo un altro pesce non raggiungibile dalla cernia.
Dopo alcuni cenni del capo per indicare al compare la posizione, Bshary osservò che la murena iniziava a scandagliare l'area insinuandosi, grazie al suo corpo flessuoso, nei vari pertugi, mentre la cernia continuava il pattugliamento dall'alto. Si tratta di una chiara strategia di tipo cooperativo volta a circondare la preda tra due "fauci": se fugge nello spazio aperto "alto" la cernia ha gioco facile nel catturarla; se rimane nascosta verrà scovata dalla murena.

La cernia cerca alleati su un fondale marino e poi li
 guida sul bersaglio (credit: edyong209 e QUI (youtube)


Il comportamento è stato riprodotto sperimentalmente (e studiato) all'interno di un acquario dove alla cernia sono stati presentati delle finte murene (di plastica manovrate con un filo) nascoste in una tana. Lo sperimentatore manovrava la finta murena in modo più o meno coerente con le aspettative della collaborative della cernia; nel caso in cui non dava evidenza di rispondere correttamente la cernia se ne andava altrove a cercare un altro partner, riprovandoci finché ne trovava che si dirigeva verso l'anfratto indicato facendo scattare un congegno che liberava un pesce su cui la cernia si avventava prontamente.

Dal minuto 1:50 il comportamento della carpa con finte murene in un acquario (credit: Nature Video)

In realtà non si tratta di una vera partnership in quanto il pasto non viene condiviso (se non per le porzioni che sfuggono alle fauci) ma di una massimizzazione dell'efficacia di caccia: rispetto a non riuscire a catturare/vedere una preda qui le probabilità che uno dei due abbia successo è del 50%, sicuramente meglio che niente.La determinazione con la quale la cernia persegue la sua strategia si vede dal fatto che non solo va a cercare le murene ma le scuote vigorosamente con il suo corpo finché una decide di rispondere alla "chiamata alle armi".
Più che un comportamento "intelligente" si tratta di una ritualizzazione evolutivamente selezionata in quanto utile, il che ci rammenta che un comportamento complesso non implica necessariamente menti complesse.

Fonte
- Animal behaviour: Inside the cunning, caring and greedy minds of fish
Nature, news (2015)
- Strangers in paradise
The Donahue Lab at Hawaii

Terapia ad onde sonore per alcune complicanze della gravidanza gemellare

Le gravidanze gemellari negli umani espongono madre e feti a rischi aggiuntivi, sia per ragioni di "normale fisiologia" (spazio uterino limitato e stress da parto ad esempio) che per alcune complicanze specificamente associate a questo tipo di gestazioni. I dati epidemiologici raccolti finora indicano che indurre precocemente il parto, tra la 37ma e la 39ma settimana, è un buon modo per minimizzare almeno alcuni dei rischi associati (--> Twin pregnancy: Labor and delivery e --> Fiona Cheong-See et al).
credit: mperial.ac.uk
Individuare per tempo la comparsa di segnali critici è di fondamentale importanza per gestire il rischio, specie quando i feti sono ancora troppo immaturi perché l'approcio precedente sia fattibile.  Il problema ovviamente è capire quali sono i marcatori del rischio più affidabili e le contromisure opportune.
Una delle complicanze più comuni associate alle gravidanze gemellari monozigotiche (riscontrabile in 1 ogni 7) è la sindrome da trasfusione feto-fetale che, a causa di una anomala vascolarizzazione (e quindi distribuzione di nutrienti e ossigeno) porta ad una diversa crescita dei due feti (altrimenti identici). Il problema riguarda quasi esclusivamente le gravidanze monoplacentari, dato che in questi casi il "sistema di rifornimento" è unico e quindi ogni anomalia distributiva ha un impatto diretto; la gravità delle complicanze è variabile e va da un parto prematuro spontaneo a problemi permanenti dello sviluppo di uno dei due bambini fino alla morte di in utero di uno dei due feti.
Nota. Non tutte le gravidanze gemellari danno luogo ad individui "identici". Quando si parla di gemelli dizigotici si parla a tutti gli effetti di fratelli/sorelle "classici" e come tali soggetti a tutta la variabilità del caso; ciascun individuo è il frutto di una fecondazione indipendente causata di una ovulazione multipla e ciascun feto avrà una propria placenta e sacco amniotico.
I gemelli identici sono monozigotici, il che vuol dire che sono il risultato di un unico evento fecondativo (una sola cellula uovo e un solo spermatozoo coinvolti). A seconda del tempo trascorso (e quindi del numero di divisioni cellulari avvenute) tra la formazione dello zigote e la "fissione" del complesso pluricellulare in due entità la struttura placentare sarà diversa. Nel 30 % dei casi la separazione avviene tra il primo ed il terzo giorno dopo la fecondazione, ragione per cui l'impianto in utero avviene separatamente, generando così una gravidanza bicoriale (2 placente) e biamniotica (2 sacchi amniotici). Nel 60 % dei casi la scissione avviene tra il quarto e l’ottavo giorno con il risultato di una gravidanza monocoriale (una placenta) e biamniotica. Nei casi restanti, separazione tra il 9no e il 12mo giorno, la gravidanza sarà monocoriale e monoamniotica. Se la separazione avviene ancora più tardi i gemelli rimarranno uniti fisicamente (i cosiddetti gemelli siamesi). In tutte le gravidanze gemellari monocoriali sono presenti connessioni vascolari (anastomosi) tra i due feti a livello della placenta.  Un’alterazione nel flusso sanguigno attraverso le anastomosi vascolari placentari da un feto (donatore) all’altro (ricevente) è responsabile dell’insorgenza della sindrome da trasfusione feto-fetale (TTTS).
Ad oggi la procedura di elezione per contrastare la sindrome feto-fetale in caso siano rilevate anomalie circolatorie gravi, è quella di distruggere i vasi sanguigni anomali mediante il laser. Il problema è che si tratta di un intervento invasivo, necessario praticare un piccolo foro nel grembo materno, con rischi potenziali come infezione e aborto spontaneo. Inoltre il pur efficace laser non può raggiungere i vasi più "profondi" nella placenta e quindi può non essere risolutivo.

Uno studio inglese apre ora nuove prospettive interventistiche grazie all'utilizzo degli ultrasuoni, un approccio che non necessita di alcuna incisione e quindi nettamente più sicuro. Si tratta, è bene chiarirlo, di un approccio ancora sperimentale, testato sulle pecore.  L'idea nasce dall'esperienza acquisita con la tecnica nota come High Intensity Focused Ultrasound (HIFU) nel trattamento di alcuni tipi di cancro, quando si decide di eliminare le vie di rifornimento ematiche al tumore.
Nello studio, pubblicato sulla rivista Science Translational Medicine, il team ha dimostrato che la HIFU, grazie ad fascio di onde sonore ad alta energia, può essere usata per colpire e distruggere selettivamente i vasi sanguigni della placenta, di fatto dividendo la placenta in due entità facilitando così una irrorazione più equilibrata.
Il test è stato condotto su 11 pecore gravide anestetizzate, metà delle quali trattate con onde ad intensità troppo debole per indurre alcuna azione (i controlli). Il motivo per cui sono stati come animali le pecore (che non generano gemelli) è che i vasi sanguigni della placenta di pecora hanno una struttura molto simile a quelli della placenta umana; inoltre i feti ovini  e degli esseri umani hanno dimensioni simili, per cui anche i test di sicurezza fetali sono appropriati.
I ricercatori hanno utilizzato la sonda HIFU contro la parete dell'utero, attraverso un'incisione nell'addome - ed hanno ripetuto gli esperimenti (confermando i risultati) posizionando lo strumento sulla superficie della pelle. Il risultato è stato positivo e non sono stati riscontrati problemi né nel feto che nelle madri.
Poiché la tecnica non è invasiva potrebbe potenzialmente essere utilizzata anche in fasi precoci della gravidanza, minimizzando così le complicanze della sindrome; se con il trattamento laser è necessario attendere almeno il quinto mese, la HIFU potrebbe essere usata già a partire dal terzo mese.

Articolo successivo sul tema --> "I gemelli vivono più a lungo?"

Fonte
- Noninvasive high-intensity focused ultrasound treatment of twin-twin transfusion syndrome: A preliminary in vivo study
C. Shaw et al. is published in Science Translational Medicine.

- Sound waves may hold potential to treat twin pregnancy complications
Imperial College London / news
http://www3.imperial.ac.uk/newsandeventspggrp/imperialcollege/newssummary/news_13-7-2016-8-35-41

Vi serve un eReader? Date un occhio ai prodotti sotto sponsorizzati

Prova Amazon Prime Spedizioni pagate per un anno e consegna anche (per prodotti selezionati) entro due ore!!
Nuovo Kindle Se come me amate la semplicità, affidabilità e costo basso allora il Touch fa al caso vostro
Prova il nuovo Kindle Vojage!Se il classico Kindle e volete uno schermo da 6" ad alta risoluzione (300 ppi) con luce integrata a regolazione automatica,
Prova il nuovo Kindle Oasis!Volete solo il top? Ecco allora il top di gamma. Un po' caro ma ...