CC

Licenza Creative Commons
Questo opera di above the cloud è concesso sotto la Licenza Creative Commons Attribuzione 3.0 Italia.
Based on a work at scienceabovetheclouds.blogspot.com.

The Copyright Laws of the United States recognizes a “fair use” of copyrighted content. Section 107 of the U.S. Copyright Act states: “Notwithstanding the provisions of sections 106 and 106A, the fair use of a copyrighted work (...) for purposes such as criticism, comment, news reporting, teaching, scholarship, or research, is not an infringement of copyright.”
Any image or video posted is used according to the fair use policy
Ogni news è tratta da articoli peer reviewed ed è contestualizzata e collegata a fonti di approfondimento. Ben difficilmente troverete quindi notizie il cui contenuto sia datato.
QUALUNQUE link in questa pagina rimanda a siti sicuri!! SEMPRE.
Volete aiutare questo blog? Cliccate sugli annnunci/prodotti Amazon (se non li vedete, disattivate l'Adblocker mettendo questo sito nella whitelist. NON ci sono pop up o script strani, SOLO Amazon). Visibili in modalità desktop! Se poi decidete di comprare libri o servizi da Amazon, meglio ;-)
Dimenticavo. Questo blog NON contiene olio di palma (è così di moda specificarlo per ogni cosa...)

Pillole e chip. La nuova frontiera del monitoraggio terapeutico

In un precedente articolo su questo blog (--> "La pastiglia digitale") avevo scritto dello sviluppo dei "farmaci digitali", prodotti nati con lo scopo di coniugare il controllo della corretta assunzione dei medicinali (la cosiddetta compliance) con la identificazione degli effetti collaterali, preferibilmente prima che diventino sintomatici.
(Image credit: dailymail.co.uk)
L'idea portante era quella di una pillola da assumere insieme al farmaco che una volta raggiunto lo stomaco avrebbe rilasciato il chip in essa contenuta, trasmettendo così un segnale a corto raggio catturato da uno speciale cerotto posizionato sulla cute. Le informazioni ottenute (ad esempio se e quando è stato assunto il medicinale) sarebbero così immagazzinate o trasmesse in rete allo stesso modo di un fitwatch.

Nel 2012 la FDA e la EMA  approvarono l'utilizzo della combinazione cerotto e pillola inerte, una pillola cioè senza alcun effetto farmacologico (in genere fatta di gelatina) ma contenente un chip, da assumere in contemporanea con il farmaco vero e proprio.
Sebbene questa tecnologia sia stata in seguito utilizzata solo su poche centinaia di soggetti, i dati raccolti sono stati positivi e hanno spinto le aziende a proporre dei miglioramenti tali da rendere ancora più semplice l'assunzione.
Proteus Digital Health e Otsuka hanno presentato qualche mese fa agli enti regolatori la domanda di approvazione per una unica pillola contenente sia il chip che il farmaco. Il tipo di farmaco per questo tipo di combinazione è l'aripiprazolo, un antipsicotico in uso per il trattamento di schizofrenia, sindromi bipolari e depressione, tutte patologie dove l'assunzione regolare e il corretto dosaggio sono elementi essenziali perché la terapia abbia qualche possibilità di successo.
Variare la corretta posologia di un farmaco, per una dimenticanza o perché si pensa di non averne più bisogno, è tra le cause più frequenti della ricomparsa dei sintomi che possono degenerare in fretta, come ben sanno i familiari delle persone affette da patologie psichiatriche. 
Oltre alla centralità della compliance per questo tipo di farmaci, un'altra ragione per cui si è scelto l'aripiprazolo è che i farmaci antipsicotici possono dare effetti collaterali importanti, per minimizzare i quali il medico deve fare una attenta valutazione dell'efficacia del farmaco nel tempo al fine di trovare la dose ottimale, quella cioè con il profilo rischio/beneficio migliore possibile in quel dato paziente; un approccio che implica il preciso monitoraggio dell'assunzione, dell'intervallo tra due dosi e di come variano nel contempo i parametri fisiologici (battito cardiaco, etc), cosa solitamente possibile ospedalizzando il soggetto.
Un chip in grado di registrare l'esatto momento dell'assunzione del farmaco, associato al feedback (diretto e indiretto) del suo effetto è il modo migliore perché il medico abbia sempre sotto mano il quadro completo. 
Un altro vantaggio associato al sistema chip-cerotto è la possibilità di associare la mancata assunzione del farmaco (o l'anomalia di alcuni parametri, ad esempio disturbi del sonno), all'invio di un messaggio (SMS, ...) al soggetto stesso, ai suoi familiari o al medico con funzione di promemoria ("oggi ti sei dimenticato di prendere il farmaco") o come indice di effetti indesiderati. Pensiamo a quanto un memo di questo tipo potrebbe essere utile a chi ha, per ragioni legate all'età o alla patologia, problemi nel ricordare se ha preso la pastiglia, un "lapsus" che spesso porta ad una assunzione nulla o doppia (se non multipla) del farmaco.

Il percorso solitamente tortuoso della approvazione non dovrebbe riservare sorprese dato che entrambi i prodotti (la pillola con il chip e l'aripiprazolo) sono già in uso e funzionano in modo assolutamente indipendente l'uno dall'altro (non si tratta di due farmaci che potrebbero interagire in modo imprevisto). Si tratterà, verosimilmente, di valutare che la nuova pillola onnicomprensiva sia bioequivalente e che non presenti differenze di solubilità e assorbimento rispetto alle singole pastiglie.

Il problema della corretta assunzione dei farmaci è uno degli aspetti più importanti sia da un punto di vista terapeutico che per il costo aggiuntivo a carico del sistema sanitario (in termini di ospedalizzazione, peggioramento della patologia o di semplice spreco di risorse). Migliorare la compliance avrà di sicuro sul breve termine l'effetto di aumentare i costi (numero di pillole effettivamente vendute) ma sul medio-lungo periodo i risparmi sarebbero notevoli; i dati americani parlano di 100-300 miliardi di dollari di risparmio derivanti dall'abbattimento dei costi legati alle conseguenze di terapie incomplete o errate del farmaco.  Alcuni dati del 2014 (--> JAMA, 312, 1237-1247; 2014) indicano che l'assunzione della pillola-chip aumenta l'aderenza al trattamento fino al 34%.
Un esempio è quello di farmaci salvavita ma estremamente costosi come i trattamenti contro l'epatite C (costo sostenuto dal SSN pari a circa 100 mila dollari per persona) che se non seguiti correttamente provocano un aggravio di costi per lo stato (o le assicurazioni) a causa di ospedalizzazioni, necessità trapianto o decesso.
L'interesse per tale approccio è tale che altre aziende stanno lavorando per associare il chip a farmaci per patologie croniche come gli antiipertensivi, gli ipoglicemizzanti e quelli per il colesterolo.

Il vero punto centrale sulla fattibilità di questi trattamenti (che saranno sempre a discrezione del paziente) è il non incidere sul costo del trattamento che spingerebbe il paziente verso un equivalente privo di chip. La Proteus sembra andare in questa direzione dichiarando che il prezzo di vendita resterà identico; non si sa esattamente come possa incorporare i costi aggiuntivi se non ipotizzando un aumento delle vendite.

Altro aspetto essenziale sarà controllare che i dati raccolti siano protetti e consultabili solo dal personale autorizzato.


I piccioni sanno far di conto?

Credit: birdsource.org
Frank Sinatra cantava di New York "If I can make it there, I’ll make it anywhere”, con chiaro riferimento alla difficoltà di affermarsi in ambienti ultra competitivi.  Ma ci sono animali che pur prosperando in condizioni urbane molto varie (NYC, Londra, Venezia, ... ) sono ritenuti poco interessanti se non fastidiosi. Stiamo parlando dei piccioni.

A parziale riscatto della loro scarsa considerazione c'è uno studio pubblicato sulla prestigiosissima rivista Science da Damian Scarf (University of Otago, Nuova Zelanda) che mostra come i piccioni siano in grado di compiere operazioni mentali considerate appannaggio dei primati, come il classificare oggetti in ordine numerico. Scarf ha ripetuto un esperimento fatto nel '98 su scimmie Rhesus, usando piccioni ammaestrati. Nello specifico li ha "istruiti" a "classificare" le immagini a loro mostrate che contenevano da 1 a 3 oggetti colorati. Il loro compito era quello di indicare con il becco le immagini di modo che la serie contenesse un numero crescente di oggetti. Se indovinavano ricevevano come premio dei dolcetti (il sempre efficace metodo di stimolare il circuito cerebrale della ricompensa). I dati hanno mostrato che non era importante, ai fini della loro capacità esecutiva, né il colore (giallo, blu,...) né la forma (rotonda, quadrata) dell'oggetto da contare. Cosa ancora più stupefacente è stato l'osservare che bastava insegnare loro che 2  è maggiore di 1 perché imparassero che, ad esempio, 8 è maggiore di 5. Una chiara capacità di estrapolazione numerica.
Un piccione alla prese con un test matematico. Quando l'uccello tocca con il becco una "forma", compare un box intorno ad essa ad indicare l'avvenuta selezione una forma, un dialogo che intorno ad esso
(Credit: William van der Vliet via NYTimes).

Scarf conclude l'articolo affermando: "I nostri risultati suggeriscono che, almeno per quanto riguarda le competenze numeriche, i piccioni sono alla pari con i primati e sono tali da informarci circa i processi di selezione e le strutture neurali necessari per lo sviluppo delle capacità di astrazione numerica".  Un risultato certamente interessante per analizzare le basi funzionali di questa capacità neuronale.

Fonte
- Pigeons on Par with Primates in Numerical Competence
Damian Scarf et al, Science (2011), 334(6063) pp.1664

Pelagornitidi. Misteriosi uccelli giganti che volteggiavano sui mari prima che l'Homo scendesse dagli alberi

 Gli uccelli marini sono animali belli a vedersi e biologicamente interessanti. Non si tratta ovviamente di un gruppo tassonomicamente omogeneo (pensate alle differenze tra pinguini e gabbiani) ma di animali adattatisi perfettamente ad una più o meno ampia nicchia ecologica. Tanto più ristretta la nicchia e tanto maggiore la probabilità che le variazioni locali (non necessariamente legate alla antropizzazione ambientale o all'inquinamento) abbiano un effetto devastante sulle probabilità di sopravvivenza di tali specie.
credit: visitgraysharbor.com
Oltre alle specie "classiche" sopra menzionate e a quelli che ho avuto modo di osservare nei week end alla Gray Harbour c'è ne sono molti altri che sono conosciuti solo dai locali (e dagli ornitologi) e quelli noti solo ai paleontologi. E tra questi ultimi non molti saprebbero ripercorrere le tracce fossili (che portano fino al giurassico) associando i resti ad una data famiglia (e nemmeno ordine) tassonomica. Un punto questo sottolineato in un articolo pubblicato sulla rivista Scientific American, centrato sui pelagornitidi un gruppo di uccelli estintosi 2,5 milioni di anni fa; fin dal momento della loro scoperta questi uccelli hanno rappresentato un enigma evolutivo per i paleontologi.
I motivi sono legati alla loro anatomia e più precisamente nelle caratteristiche del becco (vedi a lato). Cosa notate di curioso nel becco? Facile. La presenza di qualcosa di simile (ma ontologicamente diverso) ai denti; invece di essere posizionati all'interno di alveoli e dotati di radice, corona, smalto e dentina, i "denti" dei  pelagornitidi sono di fatto delle escrescenze ossee cave della mandibola.
L'ipotesi funzionale più accreditata è che gli uccelli usassero queste protuberanze per trattenere la preda pescata dall'acqua più che per sminuzzarla.
Come doveva apparire un pelagornitide
   (credit: Peter Trusler)
Un altro elemento problematico nello studio dei pelagornitidi è che non si sa bene dove posizionarli all'interno dell'ombrello tassonomico degli Aves, la classe che comprende tutti gli uccelli noti. Nessun paleontologo saprebbe dire con certezza con chi siano i parenti più stretti di questi uccelli: pellicani; albatros; anatre; ... ?! La soluzione provvisoria è stata quella di inserirli all'interno di un ordine creato appositamente, quello degli Odontopterygiformes. Ma forse la classificazione dovrà essere di portata maggiore se, come sostengono alcuni ricercatori in base alla filogenetica, i pelagornitidi dovrebbero essere lasciati fuori dal superordine dei Neoaves (che include tutti gli uccelli tranne i Paleognati (incapaci di volare) e i Galloanserae (a cui appartengono tra gli altri, anatre e polli).

Terzo e ultimo motivo che rende speciali i pelagornitidi è la loro dimensione, sicuramente fuori dal comune. Il più grande uccello vivente è l'albatros errante (Exulans diomedea) dotato di una apertura alare che può arrivare ai 3,5 metri. Grande ma molto inferiore ai 4,5 metri visti in uno degli scheletri di pelagornitidi meglio conservati; soprattutto se si considera che oltre all'impalcatura ossea bisogna aggiungere le le grandi penne primarie, il che porterebbe la dimensione reale a poco meno di 6 metri.
Una dimensione che permette di definirli come i più grandi esseri viventi che abbiano solcato i cieli dal tempo degli pterosauri (estinti 66 milioni di anni fa). 

Se questi curiosi animali fossero ancora in vita, credo dovremmo preoccuparci delle nostre mani e non tanto delle patatine di cui gabbiani e albatros sono ghiotti quando adocchiano qualcuno che pasteggia mentre cammina pensando ai fatti suoi sulla battigia.
Confronto tra albatross, pelagornitidi e noi 





Fonte
- Giants of the Sky
Daniel T. Ksepka & Michael Habib, Scientific American (2016), 314, pp.64 - 71


Artrite reumatoide. Il futuro della diagnosi precoce

Da una semplice analisi del sangue si potrà predire la probabilità di ammalarsi di artrite reumatoide (AR) nei successivi sedici anni.
Questa la convinzione dei ricercatori della università di Oxford supportata dai dati da loro pubblicati sulla rivista Annals of the Rheumatic Diseases.
Il metodo è semplice e si basa, previo un classico prelievo di sangue, sul dosaggio degli anticorpi che riconoscono la proteina C-tenascin.
Durante il processo infiammatorio alla base delle malattie autoimmuni (tra cui AR, lupus, artrite psoriasica, ...) vi sono eventi (alterazioni molecolari, infezioni, ...) che fungono da innesco della risposta immunitaria "fuori bersaglio", diretta cioè contro il proprio organismo. In presenza di un background genetico predisponente, la risposta immunitaria anomala non viene spenta per tempo (processo noto come tolleranza immunitaria) con la conseguente distruzione di cellule e tessuti non riconosciuti come propri (ad esempio le cellule beta nel caso del diabete di tipo 1, la mielina nel caso della sclerosi multipla, etc).
In alcune malattie autoimmuni l'elemento scatenante sembra essere un processo noto come citrullinazione, vale a dire la conversione dell'arginina (uno dei mattoni che costituiscono le proteine) in citrullina. Le proteine così alterate diventano "estranee" per il sistema immunitario che scatena contro esse un attacco anticorpale, l'incipit della malattia autoimmune. A differenza delle reazioni di rigetto di un organo che diviene visibile nel giro di pochi minuti, l'effetto di questo rigetto interno (basato sugli anticorpi e non sul sistema del complemento) diviene visibile mesi se non anni dopo che è iniziato, quando gran parte delle cellule bersaglio sono state distrutte.
Citrullination.svg
Citrullinazione (wikimedia commons by Fvasconcellos)

Il possibile coinvolgimento del processo di citrullinizzazione ha indotto i ricercatori a cercare nei soggetti a rischio (per ragioni di familiarità della malattia) la presenza di anticorpi anti-citrullina prima e se tali modificazioni fossero presenti nella proteina tenascin-C (abbondante nelle articolazioni delle persone con AR). Identificare il segno della malattia prima che compaiano i sintomi permetterebbe di sviluppare terapie PRIMA che i danni siano così estesi da pregiudicare la plasticità e il recupero funzionale del tessuto.
Quantificare questi anticorpi non rappresenta in verità nulla di nuovo essendo una idea "ovvia". Il vero elemento innovatore su cui i ricercatori inglesi hanno lavorato è stato sviluppare un test di dosaggio più sensibile, denominato CCP (rimando all'articolo per chi volesse approfondire l'aspetto metodologico).
Dall'analisi di circa 2 mila pazienti si è potuto capire che entrambe le ipotesi di partenza erano vere: citrullinizzazione e tenascina-C sono coinvolti.
Il test sviluppato si è dimostrato capace di predire con una efficienza del 50 % chi nel corso della decade successiva avrebbe mostrato i sintomi della malattia. Ancora più interessante il basso di livello di falsi positivi associato al test; in altre parole il 98%  di chi era risultato positivo al test si è effettivamente ammalato successivamente.

La diagnosi precoce è fondamentale perché il trattamento precoce è l'unico modo (o almeno quello in grado di fornire migliori risultati) per assicurare al soggetto terapie adeguate.

Articoli precedenti su temi correlati --> qui

Fonte
- Identification of an immunodominant peptide from citrullinated tenascin-C as a major target for autoantibodies in rheumatoid arthritis


Viagra rosa. Quando politically correct e lobbies battono il rigore scientifico

Lo scorso autunno la FDA, l'ente americano preposto all'approvazione dei farmaci, ha fatto un autogol a favore del marketing e del politicamente corretto, creando nel contempo un pericoloso precedente.

Vediamo in breve cosa è successo e perché una decisione apparentemente tecnica ha travalicato i confini del settore per arrivare sui media generalisti.
Non è un mistero che il mercato che ruota intorno al sesso sia una miniera d'oro, anche, in ambito farmaceutico; l'esempio più noto è quello del Viagra che è da anni uno dei prodotti di punta della Pfizer. Su questo niente da dire dato che si tratta di un farmaco che risponde ad esigenze specifiche del mercato e che ha superato i molti ostacoli (validazione di sicurezza e di efficacia) che si frappongono all'approvazione di un farmaco sperimentale (--> "fasi dell'approvazione di un farmaco").
Nota. La storia del Viagra è oramai un caso da manuale studiato nei corsi di laurea ad indirizzo biofarmacologico che dimostra come reinventare, in modo molto intelligente e scientificamente valido, un farmaco sperimentale che aveva "fallito" il suo scopo originale; un riposizionamento passato attraverso la trasformazione di quello che era un effetto assolutamente indesiderato per un farmaco cardiologico nel punto di forza per il trattamento delle disfunzioni erettili.
Il successo commerciale del Viagra ha fatto scattare la corsa verso il miraggio di un "Viagra rosa" in grado di soddisfare le esigenze dell'altra metà del cielo. Una ricerca rivelatasi finora infruttuosa complice la diversa "biochimica del desiderio sessuale" nei due sessi; se nel caso del maschio il farmaco andava a ripristinare una funzionalità "idraulica" deficitaria per cause di varia natura (spesso di tipo circolatorio), nel caso delle donne le ragioni del calo del desiderio sono molteplici e solo in pochi casi di natura "meccanica". Tanto che in molti tra gli addetti ai lavori dubitano da sempre della fattibilità di tale ricerca, o almeno della possibilità che l'eventuale "pillola magica" possa funzionare su un numero meno che esiziale della utenza potenziale.

Tra i pochi farmaci (perché di questo si tratta e bisogna sempre tenerlo a mente quando si decide di usarli) sperimentali dimostratisi in grado di superare le forche caudine degli studi preliminari di sicurezza ed efficacia, e quindi "osare" chiedere l'approvazione finale alla FDA, vi è il flibanserin. Nato per risolvere lo stato di assente o minimo desiderio sessuale nelle donne premenopausali, il farmaco ha una storia complicata alle spalle essendo nato come antidepressivo con effetti collaterali "interessanti" sulle donne trattate (una storia simile al Viagra, o quasi dato che quest'ultimo funziona veramente); da un punto di vista biochimico è un antagonista del recettore 2A  e un agonista del recettore 1A della serotonina.
Dopo tre studi clinici condotti su un campione di circa 2400 donne, i risultati evidenziarono una efficacia statisticamente significativa ma quantitativamente di dubbia utilità, oltre che alcuni effetti collaterali:
  • Efficacia. Aumento del numero medio di rapporti mensili di poco inferiore a 1 e aumento del desiderio sessuale di 0,3 (su una scala di 3) rispetto al placebo;
  • Problemi. Calo di pressione e rischio perdita di conoscenza, principalmente in donne che assumevano alcol.
Non sorprendentemente, la domanda di registrazione presentata nel 2010 venne rigettata quasi all'unanimità dal gruppo di esperti del FDA; una bocciatura che spinse l'azienda farmaceutica a chiudere il progetto. Il brevetto venne in seguito acquistato da un'altra azienda che iniziò una nuova serie di studi grazie ai quali nel 2013 ripresentò la domanda per l'approvazione del farmaco. Anche in questo caso, il prodotto venne bocciato.
L'azienda cercò di porre rimedio ai punti critici stigmatizzati dagli esperti. Da una parte si cercò di migliorare il profilo di sicurezza del farmaco e dall'altra si modificarono i target per l'analisi dell'efficacia, agendo prevalentemente sugli endpoints (gli obbiettivi prefissati all'inizio di una sperimentazione sui quali si valutano i dati ottenuti) che furono integrati con misurazioni tipo patient-reported outcome (abbastanza comune quando l'azione di un farmaco non è misurabile con biomarcatori). Un approccio coronato da successo con l'approvazione del farmaco da parte della FDA (18 votanti a favore e 6 contrari).

La domanda che in tanti si sono posti nel frattempo è cosa sia cambiato veramente nel profilo di efficacia (assolutamente minimale) del farmaco tale da fare spostare l'ago della bilancia verso l'OK della commissione. Ricordiamoci che a differenza del Viagra (anche lui con importanti controindicazioni ma controbilanciate da un chiaro effetto) il profilo di rischio/beneficio è qui meno oggettivamente dimostrabile e i numeri sopra riportati non sembrano tali da giustificare il rischio aggiuntivo.
I motivi sono diversi e di diversa natura.
Prima di tutto la variazione degli endpoints e i criteri di misurabilità hanno spostato nettamente l'onere della valutazione da parametri oggettivi alla percezione dei soggetti testati. E questo non è un di per sé un difetto dato che molti farmaci sviluppati per patologie dove la componente "percettiva" è alta (emicrania, dolore, colon irritabile, ...) hanno usato il PRO come guida di efficacia.
Il vero elemento distintivo qui, si è avuto con l'attuazione di una strategia di marketing declinata, intelligentemente, verso il finanziamento di gruppi di pressione (advocacy groups) che non solo hanno cominciato a fare pressioni perché il farmaco venisse approvato, ma hanno cominciato a fare circolare sui media l'ipotesi che la precedente bocciatura del farmaco fosse stata condizionata da una visione discriminatoria contro la sessualità femminile.
Nota. Gli advocacy groups sono gruppi di persone il cui obbiettivo è influenzare l'opinione pubblica e/o i legislatori su temi a loro cari (qualunque cosa dai diritti civili alla tutela di un animale in via di estinzione). Un fenomeno di molto antecedente l'era internet e che ha svolto una azione civica meritoria in molti campi, portando all'attenzione generale problematiche poco note. Una azione di lobbying legittima, molto più comune nei paesi anglosassoni rispetto che da noi, e che può essere finanziata in modo assolutamente trasparente da aziende interessate a quel particolare tema purché lo dichiarino. Nel caso della flibanserin, a giocare un ruolo importante è stato il gruppo "Even the Score" con una campagna capillare mirante a spiegare "perché il farmaco doveva essere approvato". A chi pensa che queste commistioni pericolose siano cose "americane", ricordo i problemi sorti da noi quando i sostenitori di Stamina o prima della cura Di Bella, cercarono (anche con successo) di condizionare l'opinione pubblica e i politici.
Un argomento delicatissimo, specie oltreoceano dove alta è l'attenzione a non finire nel tritacarne mediatico per il semplice sospetto di discriminazione (indipendentemente dalla fondatezza delle accuse), diretta in questo caso contro le donne di cui - questa l'accusa - si voleva bloccare la libertà sessuale.
Quello che è nuovo (e preoccupante) è che anche un ente come la FDA, sgamato nella conoscenza dei trucchetti usati dalle Pharma per fare approvare farmaci dubbi, capace quindi di resistere a innumerevoli azioni di lobbying, sembra in questo caso aver preso atto dell'atmosfera imperante e abbia deciso di chinare la testa.

Questo il commento di tre degli esperti indipendenti coinvolti dalla FDA nella valutazione finale del farmaco (frase riportata da un articolo apparso sulla rivista JAMA): 
"These features of flibanserin—the Even the Score advocacy campaign, the shifting efficacy end points and use of a patient-reported outcome measure, the tenuous risk-benefit balance among the studied population and potential for widespread off-label use, and an unmet medical need—are not totally unfamiliar territory for the FDA, but represent a challenge when they occur simultaneously. What makes the approval process for flibanserin even more unique is the politically charged atmosphere in which the FDA will decide how all these trade-offs should best be navigated".
(Evaluation of Flibanserin. Science and Advocacy at the FDA, Walid F. Gellad et al, JAMA. 2015;314(9):869-870)

Un esempio di quello che succede quando l'ideologia del politically correct (cioè l'accusa di discriminazione usata come arma di ricatto) si unisce a ragioni di business ed entra nel campo dei farmaci di uso "comune".


Fonte
- FDA approves female sexual dysfunction drug
Nature Review Drug Discovery (10/2015)01444410041114

- FDA Approval of Flibanserin — Treating Hypoactive Sexual Desire Disorder
Hylton V. Joffe et al, N Engl J Med 2016; 374:101-104


Tornare a vedere (qualcosa) con un chip retinico

Rhian Lewis, una paziente in cura presso il John Radcliffe Hospital di Oxford (UK), è stata tra le prime persone al mondo ad avere provato la gioia di un recupero della vista dopo 5 anni di buio, grazie all'impianto di un occhio quasi-bionico.

Rhian Lewis, la donna che ha testato il nuovo chip retinico.
Image credit: BBC
Sebbene il recupero sia stato parziale, la paziente ha potuto leggere alcune righe da un libro; non molto penseranno alcuni, ma è invero un traguardo notevole se pensiamo alla completa cecità iniziale e alla complessità del nostro mai troppo apprezzato "sensore".
L'operazione è stata possibile sia grazie ai progressi tecnologici nel campo della sensoristica che alla particolare malattia di cui soffriva la donna. La retinite pigmentosa, una patologia degenerativa della retina, coinvolge infatti solamente la retina lasciando inalterato l'hardware (cioè le connessioni nervose e le aree corticali preposte alla elaborazione del segnale) sottostante. Altro elemento essenziale è che essendo una malattia degenerativa, si parte da una capacità visiva normale nell'infanzia (il periodo critico durante il quale il cervello "impara a capire" il senso dei segnali trasportati dal nervo ottico)  e solo successivamente (a seconda dei casi in un periodo compreso tra l'adolescenza e la tarda maturità) la vista viene persa.
Una malattia "ideale" quindi per testare sensori da innestare in prossimità dell'epitelio degenerato, con lo scopo di sostituirlo funzionalmente. Il test è stato effettuato inserendo un piccolo chip (3x3 mm) nell'occhio destro della paziente, collegandolo poi al nervo ottico sotto la supervisione di un minicomputer installato sottocute vicino all'orecchio. L'energia necessaria al funzionamento del computer viene fornita da una bobina magnetica che appare dall'esterno come uno dei tanti apparecchi acustici.

(image credit: thesun.co.uk)
Una precisazione importante. Non si tratta di un intervento alla fine del quale il soggetto si sveglia con una ritrovata capacità visiva. Il cervello deve abituarsi ad interpretare i nuovi input sensoriali traducendoli in segnali "significativi". Non è molto diverso da quanto accade a chi è costretto ad una immobilità prolungata causa ingessatura e deve poi "reimparare" a camminare (evento descritto magistralmente nel libro di Oliver Sacks "Su Una Gamba Sola"). 
Nota. I primi esperimenti con l'occhio bionico sono cominciati ad Oxford nel 2012. Durante questi 5 anni gli impianti sono stati testati su diversi pazienti che ne hanno verificato la "tenuta" sul medio periodo (sempre inferiore ad un anno) suggerendo modifiche intese a migliorarne, oltre che l'efficienza, anche la "vestibilità" e la robustezza. L'ultimo modello testato è stato pensato per un utilizzo continuativo fino a 6 anni.
Le prime sensazioni descritte dalla paziente una volta acceso il dispositivo, sono state di lampi di luce "senza senso". Nel corso di poche settimane il cervello comincia a "dare un senso" a questi segnali, convertendoli in forme e oggetti significativi con cui costruire un'immagine. L'immagine percepita non è molto diversa da quella che fornivano i primi televisori: bianco e nero e granuloso. Non eccelsa forse ma sufficiente per riacquistare l'indipendenza che la malattia aveva fatto perdere (o fortemente limitato).

Di seguito il video (necessario disattivare l'eventuale flashblock) della BBC che immortala il momento dell'accensione del dispositivo (credit bbc.co.uk).
(questo il link se non riuscite a vedere il video --> http://www.bbc.co.uk/...

Seppure limitato in quanto a risoluzione (solo 1600 pixel), il chip è programmato per continui refresh dell'immagine ogni volta che l'occhio si sposta, evitando così il problema di un ritardo tra "realtà e percezione". Un sensore di 1600 pixel non è nemmeno l'1 % di un megapixel, quindi sembrerebbe risibile anche rispetto alla peggiore fotocamera presente su uno smarphone low cost. Vero. Tuttavia anche la migliore fotocamera in circolazione non ha a disposizione un apparato di elaborazione potente come il cervello umano, in grado di processare segnali ben più deboli di quelli catturati da questo sensore.
Possiamo solo immaginare i risultati che potremo ottenere nel prossimo futuro quando la miniaturizzazione dei chip ci permetterà di installare nell'occhio malato, dei sensori adeguati a quello strumento incredibile che è l'occhio.

Per articoli su questo argomento nel blog clicca --> "visione" o il tag corrispondente nel pannello a destra.


Aggiornamento 2020.
Per tracciare i progressi nel campo segnalo l'articolo


Fonte
- Blind woman’s joy as she is able to read the time thanks to 'bionic eye'
Oxford University, news (gennaio 2016)

Biologia sintetica. Costruire pori di membrana usando il DNA

DNA per costruire pori di membrana?
Un'idea fattibile secondo i ricercatori inglesi del UCL che ne ipotizzano un pronto utilizzo nel campo della biologia sintetica e, potenzialmente, in ambito terapeutico.

Facciamo però un passo indietro e mettiamo in ordine alcuni concetti base.
Le membrane che delimitano le cellule (o che ne delimitano i compartimenti interni) non sono delle strutture omogenee e impenetrabili ma un "oceano lipidico" su cui "galleggiano" (o sono immerse) molteplici proteine variamente modificate e con diverse funzioni.
La membrana cellulare. Lipidi, proteine, zuccheri, ...
(credit: cnx.org)
Oltre alle proteine con funzioni strutturali ve ne sono altre organizzate in modo da generare dei veri e propri canali, la cui apertura è regolata a seconda delle necessità, consentendo un flusso anche solo unidirezionale, necessario per le funzioni di import/export della cellula. La cellula non è infatti un sistema chiuso e per mantenere l'omeostasi deve scambiare con l'esterno prodotti (rifiuti, messaggi o anche solo ioni e quindi acqua) in modo controllato.
Alcuni di questi canali mettono in comunicazione due cellule adiacenti mentre altri collegano il "dentro" con il "fuori" nelle sue diverse accezioni (ambiente, spazio intercellulare, lume degli organi, etc).
I canali possono essere di varia complessità (singola catena polipeptidica, multimeri di una stessa subunità, complessi eteromerici, ...) e dimensione. In alcuni casi permettono il passaggio di un solo tipo di ione (il sodio ma non il potassio ad esempio) mentre in altri casi (vedi i pori nucleari) il poro centrale è grande a sufficienza da fare transitare RNA e proteine ribosomali.
Schema semplificato di canali che permette la diffusione facilitata di ioni (credit: wikimedia). Consiglio la visione del video "Active transport" su youtube per una bella simulazione della membrana e di un particolare meccanismo di trasporto, il trasporto attivo.
Tratto comune a tutti i canali di membrana è l'essere basati unicamente sulle proteine. 
Questo però non vuol dire che le proteine siano le uniche depositarie di una struttura che permette il passaggio di molecole polari attraverso la barriera "invalicabile" del doppio strato lipidico; significa solo che l'evoluzione ha usato il materiale che aveva a disposizione ottimizzandolo. Una volta che nella notte dei tempi la protocellula si dimostrò adatta a definire un "dentro" ed un "fuori" e a sfruttare la presenza di corpi "estranei" (le proteine) dentro la membrana, questo divenne il materiale di partenza imprescindibile sul quale, negli eoni seguenti, vennero apportati i miglioramenti funzionali del caso. Reinventare una nuova modalità per definire un canale, alternativo alle proteine, non è un processo probabilisticamente possibile.
Nota. In biologia la parola "miglioramento" è sdrucciolevole in quanto si presta ad essere fraintesa come "superiore" nell'albero evolutivo. In realtà è sempre e solo questione di adattamento all'ambiente. Chi non è adatto scompare anche se evoluto, chi è semplice ma adatto rimane immutato milioni di anni (confrontate il "primitivo" squalo con "l'evoluto" mammut).

Sviluppare in laboratorio strutture alternative a quelle presenti in natura non è un eresia "contronatura" dato che non siamo vincolati ad un processo di adattamento a quello che già esiste ma possiamo ipotizzare strutture alternative per svolgere la stessa funzione. Il caso del DNA, sede dell'informazione genetica, usato, anche, come mattone per costruire dei pori di membrana, è un esempio di questa "libertà" sintetica.
Lo studio, pubblicato sulla rivista Nature Nanotechnology, dimostra come il DNA sia di fatto un buon "mattone" per costruire dei pori stabili e funzionalmente prevedibili, tali cioè da definire forma, dimensioni e carica (oltre che tempistica) delle molecole che si vuole fare transitare. Di sicuro le proteine sanno fare questo molto bene ma la loro complessità intrinseca rende difficile progettarle da zero; quando necessario si usano proteine modello già esistenti e si apportano su di esse le modifiche per la funzione cercata il che pone dei limiti oggettivi alle potenzialità sperimentali.
Il DNA offre invece un approccio molto più semplice (come design) per creare pori sintetici altamente specifici, di dimensioni volute (con diametro interno di 2 nanometri), apribili e chiudibili su richiesta, in grado dunque di veicolare i prodotti stoccati all'interno delle vescicole membranose in modo altamente specifico. 
Una  situazione ideale per molti approcci terapeutici in campo oncologico (pensate a tossine consegnate solo a cellule tumorali) e neurologico (ad esempio fattori trofici in grado di prevenire la neurodegenerazione di aree a rischio).
Schematizzazione di un poro sintetico di membrana basato sul DNA
Image: Michael Northrop, Arizona State University

In conclusione l'approccio presentato nell'articolo è un grande passo in avanti nella costruzione e utilizzo di strutture biologiche sintetiche, e promette una nuova era nel design dei pori e a cascata nel campo della biologia sintetica. Un progresso che fa seguito a quello ottenuto nel 2014 da ricercatori del Lawrence Livermore National Laboratory, che avevano creato dei canali ionici di membrana basati su nanotubi di carbonio (--> llnl.gov).
Immagine artistica di un nanotubo di carbonio attraverso cui transita un acido nucleico.
Credit: DOE/Lawrence Livermore National Laboratory

Articoli simili su questo blog: DNA origami; Bio-robot e chip per la memoria umana e i tag "robotica", "tech" o "biotech".


Fonte
- DNA ‘building blocks’ pave the way for improved drug delivery
 UCL/News (2016)

- A biomimetic DNA-based channel for the ligand-controlled transport of charged molecular cargo across a biological membrane
Jonathan R. Burns et al, Nature Nanotechnology (2016) 11, pp. 152–156



Esiste una correlazione tra Quoziente Autistico e lavorare in ambito scientifico?

Non scrivo niente di rivoluzionario se affermo che nell'immaginario collettivo le persone che si occupano di scienza o arte sembrano dotate di personalità o comportamenti "particolari", quando non chiaramente patologiche.
Se del rapporto tra arte e follia ne ho trattato in precedenza (--> "il difficile equilibrio tra creatività e follia"), nel campo delle scienze l'aggettivo "pazzo" è tra gli attributi più inflazionati quando il protagonista di un romanzo o di un film è uno scienziato (purtroppo questo è tanto più vero nella lingua italiana dove "scienziato" ha una connotazione più "speciale" rispetto all'equivalente inglese, "scientist", che indica chiunque si occupi di scienza).
Al di là degli stereotipi usati (anzi abusati) da scrittori a corto di idee, è indubbio che esistano (e siano esistite) personalità tanto geniali quanto ugualmente problematiche come quella del matematico John Nash. Sebbene si tratti di figure rare (in tutti i sensi) sarebbe poco onesto omettere che, in effetti, di personalità peculiari ne ho incontrate parecchie tra i colleghi nel corso degli anni. Se siano più o meno frequenti rispetto ad altri campi non saprei dire (non avendo frequentato ad esempio il mondo degli avvocati, architetti, etc).
A fare luce su questo quesito viene ora uno studio pubblicato sulla rivista PLoS ONE in cui si afferma che esiste una associazione tra la presenza di tratti autistici in una persona e il lavorare in aree raccolte sotto la sigla STEM (acronimo delle parole inglesi per scienza, tecnologia, ingegneria e matematica).

A questo punto la precisazione è doverosa: possedere tratti autistici è ben diverso dall'essere clinicamente autistici. La maggior parte di noi possiede alcuni tratti autistici come la difficoltà che hanno alcuni nel capire il punto di vista altrui, una maggiore resilienza al passare velocemente tra un compito e l'altro (ivi comprese la flessibilità operativa e il multitasking), l'attenzione al dettaglio, la memorizzazione di particolari che sfuggono in toto agli altri, e molti altri.
Nei soggetti autistici queste caratteristiche si sommano e si amplificano al punto tale da creare una barriera di incomunicabilità tra la persona e il mondo esterno.
Per misurare la presenza e consistenza di questi tratti 15 anni fa un team di ricercatori della università di Cambridge mise a punto un questionario, utilizzato ancora oggi, in grado di valutare il quoziente dello spettro autistico (AQ). Il test consiste in 50 domande, ognuna delle quali indaga una delle tante manifestazioni con cui si manifesta l'autismo.
Nota. La terminologia corretta per definire l'autismo è Autism Spectrum Disorder (disturbi dello spettro autistico o ASD) ad indicare l'estrema eterogeneità della malattia. Un disturbo di tipo comportamentale eterogeneo (ma con alcuni elementi caratterizzanti che permettono di utilizzare un "ombrello" diagnostico) conseguenza di una eziologia diversa, seppur poco compresa. Quando sintomi simili sono prodotti da alterazioni meccanicisticamente diverse, il risultato ovvio è la difficoltà di eseguire diagnosi univoche e, a cascata, sviluppare terapie utili in più che in una frazione dei soggetti. In parole semplici parlare di autismo non ha la stessa valenza conoscitiva di quando si parla di epilessia o di polmonite di cui si conoscono le cause e il distretto colpito. Uno dei pochi elementi certi è che l'ASD è il risultato di problemi dello sviluppo neurologico nella fase embrionale.
Il calcolo dell'AQ è oramai uno strumento consolidato, che è stato usato in centinaia di studi clinici ciascuno dei quali ha coinvolto centinaia di volontari non autistici. I risultati hanno indicato che il quoziente era maggiore negli uomini (21,6 contro 19 delle donne) e tra coloro che lavoravano in campi assimilabili al STEM (punteggio medio di 21,9).
Se il maggior punteggio degli uomini rispetto alle donne potrebbe essere correlato al fatto che l'autismo è una malattia che coinvolge quasi esclusivamente (ma non solo) i maschi, la correlazione con il lavoro svolto (che in questi ambiti è quasi sempre il lavoro scelto) potrebbe indicare che la presenza di tali tratti garantisce un "sistema di pensiero" idoneo a migliorare le performance in quella mansione. O rovesciando il concetto, il lavoro in un particolare campo scientifico meglio si adatta ai sotterranei tratti autistici.
La ricerca ora pubblicata si spinge più in là nella validazione statistica di tale correlazione grazie al gran numero di persone (450 mila) testate. Entrambi i punti (associazione con genere e lavori STEM) sono stati confermati. Al contrario nessuna associazione statisticamente significativa è stata osservata né per l'età né per l'area geografica di provenienza

Forse con l'andare del tempo potremo capire quali sono le basi neuronali che predispongono le preferenze lavorative di ogni individuo in modo da sfruttarle a vantaggio della persona il prima possibile; ad esempio creando un percorso educativo ad hoc per massimizzarne le doti della persona, e con esse la soddisfazione personale.
Chi si volesse cimentare nel test può farlo alle seguenti pagine (in inglese) --> Autism Spectrum Quotient (di seguito invece la pagina per valutare il risultato del test --> QUI)
Il 21 marzo è stato pubblicato sulla rivista Nature Genetics un articolo che aggiunge informazioni ai dati prima presentati, centrato sulla distribuzione degli alleli "autistici" nella popolazione generale (vedi referenze bibliografiche per Elise B Robinson et al).

Potrebbe interessarvi sull'argomento l'articolo --> "Intelligenza e disturbi mentali".


Fonte
- Sex and STEM Occupation Predict Autism-Spectrum Quotient (AQ) Scores in Half a Million People
Emily Ruzich et al, PLoS One. 2015 Oct 21;10(10)

- Genetic risk for autism spectrum disorders and neuropsychiatric variation in the general population
Elise B Robinson et al, Nature Genetics (2016)


***

Se vi interessano libri su personaggi geniali ma ... con personalità particolari (ma non autistici) questi vi soddisferanno. Entrambi i libri sono disponibili scontati su Amazon cliccando sul link corrispondente.
Il Genio dei Numeri

L'enigma di un genio

Metano, effetto serra e ... ruminanti. Il caso del canguro

Tra le tante domande di "scienza quotidiana" a cui non ho mai pensato di dare una risposta ce ne sono diverse che pur "suonando" come poco serie sottintendono a problemi importanti. Ad esempio, perché un canguro libera nell'aria (attraverso innominabili espulsioni di gas) meno metano rispetto ad una mucca?
(Image credit NASA via BBC news)
Fortunatamente c'è sempre qualcuno che si occupa di questioni siffatte (i cui risultati saranno verosimilmente premiati con i prossimi Ig Nobel), e che permettono a noi curiosi di scienza di meditare sul problema.
Nello specifico la risposta alla precedente domanda viene da ricercatori dell'università di Zurigo che in collaborazione con colleghi australiani hanno studiato la fisiologia del fenomeno. Per quanto tale problema possa sembrare di poca rilevanza, non lo è se si considera il numero di bovini sul pianeta e l'impatto negativo che questo gas ha sul clima.
Credit: A. Munn, Univ. of Wollongong
Nota. Si stima che il 74 % dei gas responsabili dell'effetto serra sia legato all'allevamento dei bovini, direttamente come prodotto della loro attività metabolica o indirettamente dalla gestione dei pascoli (--> Carnegie Institution). Il 20 % della emissione di metano è legata ai ruminanti, ivi compresi gli ovini. Un'altra fonte di inquinamento importante è rappresentata dai prodotti di scarto dell'allevamento dei suini, che tuttavia ha più una valenza locale a causa di ragioni culturali che ne condizionano il consumo. Al problema delle emissione di gas legato alla fisiologia animale se ne aggiunge uno molto più importante, conseguenza dell'aumento delle temperature su scala globale; lo scongelamento del permafrost siberiano ed artico provoca il rilascio di altro metano, che alimenta l'aumento delle temperature a causa del suo elevato effetto serra. L'impatto che il rilascio esponenziale di metano ha sul clima non è il frutto di previsioni catastrofiste ma dello studio della storia del nostro pianeta; l'estinzione di massa che delimita la transizione tra Permiano e Triassico è unanimemente attribuito dagli studiosi ad una serie di eventi conseguenti proprio al rilascio di questo gas (--> clathrate gun hypothesis).
Sia i ruminanti che i canguri hanno una porzione dello stomaco, sita nella parte anteriore, in cui sono ospitati i microorganismi deputati alla deputata alla digestione dei prodotti vegetali più resistenti come la cellulosa. Senza questi batteri (o la porzione dello stomaco che li ospita) il povero ruminante rischierebbe con ogni probabilità di morire di fame per quanto fieno mangiasse, essendo incapace di scindere i polimeri delle fibre vegetali nelle componenti elementari assimilabili dall'intestino.

Nonostante l'apparente somiglianza strutturale dello stomaco, i canguri producono meno metano come prodotto di scarto del metabolismo batterico. L'ipotesi più ovvia finora era la differenza fosse da ricercare nella diversa composizione della flora intestinale e, forse, in una diversa efficienza nel processare gli elementi base.
Per comprendere meglio il fenomeno, i ricercatori svizzeri hanno comparato il volume di metano emesso per unità di prodotto ingerito, previa normalizzazione delle dimensioni corporee.
Dal confronto è emerso che a parità di dimensioni corporee i canguri producono all'incirca lo stesso volume di metano dei cavalli ma molto meno di quello dei bovini. Se la produzione di gas è correlata con la quantità di cibo ingerito e se l'anatomia dello stomaco (e a discesa la fisiologia digestiva) è simile, allora una delle variabili chiave è il tempo necessario per la digestione del cibo (e sappiamo bene quanto sia lungo il tempo per i ruminanti che passano la giornata al pascolo a rimasticare il bolo ingerito).
I ricercatori hanno anche osservato che la quantità di metano prodotto non ha una correlazione del tutto lineare con la quantità di cibo ingerito. Se l'animale mangia meno, questo rimane nel rumine più a lungo e i batteri hanno più tempo per digerirlo e questo provoca un maggior rilascio di metano.

La iper-produzione di metano da parte dei bovini è probabilmente centrata non tanto su differenze qualitative dei batteri "ospitati" nel rumine ma alle specifiche condizioni locali a cui i batteri si trovano esposti. In condizioni standard i canguri hanno una alimentazione e comportamenti che determinano una minore permanenza del cibo nella parte anteriore dello stomaco. Quindi emettono meno metano.

Una ipotesi di lavoro plausibile è quella di modificare le condizioni di allevamento (oltre al tipo di alimentazione) in modo da minimizzare, almeno negli allevamenti intensivi, il tempo di permanenza del cibo nel rumine, a parità di apporto nutritivo.

Fonte
- Faster digestion in kangaroos reduces methane emissions
University of Zurich / news

- Decreasing methane yield with increasing food intake keeps daily methane emissions constant in two foregut fermenting marsupials, the western grey and red kangaroos.
Vendl C et al  (2015)  Journal of Experimental Biology (in press). November 4, 2015 


Powered By Blogger
"Un libro non merita di essere letto a 10 anni se non merita di essere letto anche a 50"
Clive S. Lewis

"Il concetto di probabilità è il più importante della scienza moderna, soprattutto perché nessuno ha la più pallida idea del suo significato"
Bertrand Russel

"La nostra conoscenza può essere solo finita, mentre la nostra ignoranza deve essere necessariamente infinita"
Karl Popper
Controllate le pagine delle offerte su questo blog




















Zerbini fantastici