Sentieri della Medicina - LOGO

AFORISMA DEL GIORNO

30 maggio, 2012

La sfida del supercomputer "Watson": trovare diagnosi immediate e certe, come i personaggi della tv...

0 commenti
Lo scrittore inglese Arthur Conan Doyle creò Sherlock Holmes, icona della letteratura gialla, ispirandosi al medico Joseph Bell di cui fu allievo all'ospedale di Edimburgo quando pensava di intraprendere la carriera medica. Il professor Bell dimostrava una fredda lucidità scientifica, ma anche brillanti abilità deduttive basate sull'osservazione, le stesse qualità con cui l’investigatore Holmes risolveva casi apparentemente insolubili. Nella finzione narrativa le avventure di Holmes erano raccontate dal suo amico John Watson. Lo Sherlock Holmes dei nostri giorni è un medico, il dottor Gregory House, protagonista di una fortunata serie televisiva ambientata in un ospedale del New Jersey. House è, per stessa ammissione dei suoi autori, grandi cultori dei libri di Doyle, la trasposizione medica dei metodi investigativi di Sherlock Holmes: in ogni episodio viene presentato un caso clinico impossibile che House risolve grazie alle sue straordinarie abilità deduttive.
 

Adesso House ha trovato nella realtà un rivale degno di lui e, per un curioso scherzo del destino, si chiama proprio come Watson, il bistrattato aiutante di Sherlock Holmes (anche se in realtà il suo nome deriva dal fondatore di IBM, Thomas J. Watson). Watson è un super computer IBM capace di confrontare contemporaneamente i dati di tutta la letteratura medica disponibile: analizza 200 milioni di pagine per ogni caso clinico e fornisce la risposta in 3 secondi (guarda). Molti medici non hanno le conoscenze enciclopediche di cui sembra disporre il dottor House televisivo e spesso nella realtà la diagnosi di un paziente con una sintomatologia insolita può richiedere la consultazione di molti testi, l’invio di mail a colleghi, telefonate chilometriche, numerose discussioni e ore di verifiche su internet. Bisogna cercare in una gran massa di dati, ordinarli e selezionarli per costruire pian piano un’ipotesi diagnostica verosimile. Oggi le informazioni mediche raddoppiano ogni 5 anni e a volte le ultime scoperte impiegano da 6 mesi a 1 anno per essere pubblicate e possono passare anche 15 anni perché siano poi tradotte in pratica clinica di routine. Watson invece taglia tutti questi passaggi in pochi secondi e non lo fa per finta come il Dr. House della TV.
 

Le sue virtù sono state presentate alla conferenza della Healthcare Information and Management Systems Society (HIMSS) di Las Vegas: il primo Watson è entrato da poco in funzione al Memorial Sloan-Kettering Cancer Center di New York e il suo data base contiene tutte le conoscenze sui tumori oggi disponibili al mondo. I suoi consigli aiutano a giungere più rapidamente a una diagnosi e a individuare i trattamenti più accurati e personalizzati a seconda del paziente. Diversamente dai medici non dimentica mai nulla e presto sarà in grado di apprendere dalle esperienze che gli provengono da ogni nuovo caso e di rispondere anche ai comandi verbali dei medici che potranno fare a meno della tastiera. Nei progetti IBM c’è anche quello di realizzare un modello “bed-side”, cioè un Watson da affiancare al letto del malato capace di monitorarlo attimo per attimo, molto meglio di qualsiasi infermiere o medico di guardia. Il supercomputer Watson è affascinante, ancor più di Gregory House, soprattutto perché si tratta di realtà e non di un film televisivo. Gli mancano però le sette doti che secondo uno studio della Mayo Clinic un buon medico deve possedere per curare bene i suoi pazienti: dare sicurezza, essere comprensivo, umano, empatico, schietto, rispettoso e accurato. Doti che neppure il dottor House possiede tutte. E forse proprio per questo, ricorda tanto il supercomputer Watson.

AUTORE: Cesare Peccarisi
FONTE: Corriere.it
Leggi tutto...

Nuovi passi per la ricerca anti-belenofobia: abbattere la paura degli aghi tramite nuove tecnologie...

0 commenti
Già negli anni Sessanta, i creatori della serie tv Star Trek avevano ipotizzato l'utilizzo di siringhe senza ago. Nel 2012 il sogno potrebbe diventare realtà: i ricercatori del MIT hanno infatti messo a punto una tecnologia che eliminerà l'ago ipodermico. Si tratta di un dispositivo che utilizza la meccanica dell'alta pressione per introdurre i farmaci nel corpo umano.

Negli ultimi decenni, i laboratori scientifici hanno sempre cercato nuove soluzioni alternative alla siringa con ago tradizionale, basti pensare ai cerotti alla nicotina. Ma questi ritrovati rilasciano solo quelle molecole adatte al trasferimento attraverso l'epidermide, rendendo così limitata la disponibilità dei farmaci da poter introdurre a causa della diversa densità molecolare di ognuno.

Una notizia davvero positiva per tutti coloro che soffrono di belenofobia (ossia la paura degli aghi). "Abbiamo approntato questa soluzione proprio per venire incontro ai pazienti con questa paura - spiega la ricercatrice Catherine Hogan - specialmente quelli che sono costretti a praticarsi le iniezioni da soli, per i quali la belenofobia costituisce un enorme ostacolo all'efficacia di questi rimedi".

Per la verità, non si tratta di una tecnologia completamente nuova: il principio su cui essa si basa è quello tradizionale dello stantuffo che spinge il farmaco liquido come nelle siringhe normali. La particolarità sta nel fatto che il liquido viene letteralmente "sparato" nel corpo a una velocità pari a quella del suono (circa 340 metri al secondo).

Il team di sviluppo del MIT, guidato da Ian Hunter e George N. Hatsopoulos - docenti di Ingegneria Meccanica - ha realizzato allo scopo un piccolo ma potente magnete circondato da una bobina in rame, che avvolge completamente un pistone collegato all'interno della fiala dove si introduce il farmaco. Quando viene attivato il meccanismo, il campo generato dal magnete spinge il pistone in avanti, iniettando il farmaco attraverso l'ugello della fiala che è ampio quanto il pungiglione di una zanzara.

Il meccanismo può rilasciare il farmaco a diversi gradi di velocità e intensità - dipende dal tipo e dalla quantità di farmaco che si deve iniettare - e la sensazione che proveranno i pazienti, assicurano gli scienziati del MIT, "sarà né più né meno quella di una puntura di zanzara. Anzi, il più delle volte non se ne accorgeranno neanche".

Fra i vantaggi di questa tecnologia, secondo il professor Hunter, ci sarebbe quello di ridurre il rischio di pungersi accidentalmente. Incidente assai frequente nelle strutture sanitarie: l'ultima stima dei Centers for Disease Control and Prevention parla di oltre 380mila casi di punture accidentali all'anno.

Autore: Cristiano Vaccarella
Fonte: Punto Informatico
Leggi tutto...

Oltre diecimila professionisti in 10 anni emigrati all'estero, forte immigrazione di professionisti di qualifica medio-bassa...

0 commenti
Medici, avvocati e architetti in fuga all'estero per trovare lavoro. Sono oltre 10 mila i professionisti che tra il 1997 e il 2010 si sono trasferiti stabilmente in altri paesi europei. Circa 4mila persone vivono in gran Bretagna, 1500 scelgono la Svizzera e  poco più di 1000 persone optano per la Germania. Lo conferma l'indagine del centro studi del Forum nazionale dei Giovani in collaborazione con il Cnel.

I lavoratori altamente qualificati che lasciano l'Italia sono medici (2640), insegnanti delle scuole superiori (1327), avvocati (596) e architetti (214). Tuttavia il Belpaese è un polo di attrazione per chi arriva dall'estero. Il saldo tra gli arrivi e le partenze è positivo per circa mille unità. Tra il 2007 al 2010 sono arrivati in Italia professionisti rumeni (5125), spagnoli (1306) e tedeschi (1030). In genere, la loro qualifica è medio-bassa: la maggior parte sono infermieri (6531).

Per i lavoratori altamente qualificati lasciare il proprio paese non è una passeggiata. Secondo il Cnel, i principali ostacoli sono la libera circolazione in Europa, il riconoscimento dei titoli, l'omogeneità dei percorsi formativi. I professionisti più agevolati nella mobilità Ue sono i medici e gli architetti. Le maggiori difficoltà le incontrano psicologi e giornalisti; seguono notai, commercialisti, consulenti del lavoro e avvocati. Secondo l'Organizzazione per la cooperazione e lo sviluppo economico (Ocse) l'Italia risulta avere una regolamentazione tra le più complicate in Europa. Peggio solo la Slovenia, la Turchia e il Lussemburgo.

Tra gli oltre 2 milioni di iscritti agli ordini professionali, appena il 9,4% ha meno di 30 anni. Nell'indagine, un notaio su due ha più di 50 anni e quasi tre medici su quattro sono over 45. Ci sono più giovani nella categoria dei giornalisti e degli avvocati: oltre il 60% ha meno di 45 anni.

FONTE: Repubblica.it
Leggi tutto...

25 maggio, 2012

Finalmente legge il provvedimento che vieta l'uso di protesi al seno a scopi estetici per donne minorenni, multe fino a 20 mila euro

0 commenti
Via libera all'unanimità da parte della commissione Affari sociali della Camera al ddl che istituisce i registri regionali e nazionale delle protesi mammarie e che vieta gli interventi al seno a fini estetici sulle minorenni. Il ddl, esaminato in terza lettura dalla commissione in sede legislativa, è legge ed entrerà in vigore con la pubblicazione in Gazzetta ufficiale.

Con l'entrata in vigore del provvedimento i chirurghi che non rispetteranno il divieto di intervento «under 18» (pazienti sulle quali si potrà impiantare una protesi solo in caso di indicazione medica di«gravi malformazioni congenite») rischieranno una multa fino a 20mila euro e tre mesi di sospensione dall'attività. Il provvedimento, fortemente voluto dall'allora sottosegretario alla Salute Francesca Martini, era stato presentato dall'ex ministro della Salute Ferruccio Fazio e aveva ricevuto il primo via libera alla Camera il 22 dicembre 2010. Alla fine del 2011, sulla scia dello scandalo delle protesi francesi difettose Pip, il Senato aveva ripreso l'esame, approvando il testo con l'inasprimento delle pene da 5mila agli attuali 20mila euro. Ora il ministero della Salute avrà sei mesi di tempo per emanare il decreto che stabilirà tempi e modi per la raccolta dei dati nel registro nazionale, che sarà tenuto dalla direzione generale farmaci e dispositivi medici del ministero.
 

Sempre al ministero spetterà ogni anno il compito di fare una relazione al Parlamento sui dati raccolti dai registri, che dovranno contenere anche le indicazioni sui tipi di protesi e di riempimenti, oltre alla durata degli impianti. Nei registri, di cui ogni Regione dovrà dotarsi, andranno indicati «tipologia e durata degli impianti, con informazioni dettagliate circa il materiale di riempimento utilizzato ed etichettatura del prodotto, gli effetti collaterali ad essi connessi nonchè l'incidenza dei tumori mammari e delle malattie autoimmuni». 

FONTE: Corriere.it
Leggi tutto...

Eternit, il disprezzo estero per la legge italiana: nonostante la sentenza nessuna volontà di risarcire

0 commenti
I protagonisti belgi del processo Eternit non intendono versare alle parti civili gli indennizzi stabiliti dal tribunale di Torino. Lo si e' appreso oggi in ambienti vicini a Palazzo di Giustizia. A pagare (si tratta di ''provvisionali'') dovrebbero essere il barone Louis De Cartier, manager belga condannato a 16 anni di carcere, e la societa' Etex, riconducibile alla galassia della multinazionale Eternit. In totale si tratta di circa cento milioni di euro, la maggior parte dei quali (oltre il 70%) ricade su De Cartier.

Il 13 febbraio i giudici hanno condannato la società Eternit al pagamento dei danni provocati dalla lavorazione dell'amianto a ex dipendenti, familiari e abitanti di Casale Monferrato, luogo in cui aveva sede la fabbrica. Una condanna dovuta soprattutto al fatto che dalle indagini si è scoperto che i vertici delle aziende erano ben consapevoli dei danni che poteva provocare la fibra lavorata. Una sentenza storica, festeggiata e applaudita dalla stampa italiana ed estera. Ma la felicità è durata poco. Ora i protagonisti del processo, la società belga imputata e i manager, non intendono versare volontariamente alle parti civili gli indennizzi stabiliti dal tribunale di Torino, si apprende da alcune voci vicine agli ambienti del Palazzo di Giustizia. A pagare dovrebbero essere il barone Louis De Cartier, manager belga condannato a 16 anni di carcere, e la società Etex, riconducibile alla galassia della multinazionale Eternit. Un totale si tratta di circa cento milioni di euro, la maggior parte dei quali ricadrebbe su De Cartier. La prassi, per quel che riguarda questo caso, vorrebbe che le provvisionali venissero versate subito dopo il deposito delle motivazioni della sentenza di primo grado, termine scaduto la scorsa settimana. Ma è arrivato il rifiuto. «Non è normale questo disprezzo assoluto sia per la vicenda in sé che per le decisioni dei tribunali italiani». Così commenta la vicenda l'avvocato Sergio Bonetto, uno dei legali di parte civile del processo Eternit, in merito alla decisione della società belga di non corrispondere le provvisionali stabilite dai giudici di Torino. «Durante il processo non hanno dato notizie. Adesso cercano di sottrarsi all'esecuzione della sentenza», conclude l'avvocato.

Fonte: Quotidiano piemontese
Leggi tutto...

22 maggio, 2012

Legge 40, la Consulta mantiene il divieto di fecondazione eterologa

0 commenti
La Corte Costituzionale non boccia la parte della Legge 40 del 2004 che vieta la fecondazione eterologa- quella con ovociti o gameti non appartenenti alla coppia - nel nostro Paese. La Consulta ha rimandato gli atti ai tribunali di Firenze, Catania e Milano - cui si erano rivolte delle coppie sterili e che avevano sollevato la questione di costituzionalità - invitandoli a considerare la nuova sentenza Corte Europea dei Diritti dell'Uomo di Strasburgo, che il 3 novembre scorso aveva, di fatto, stabilito che vietare la fecondazione eterologa nei paesi comunitari è legittimo.

La sentenza di Strasburgo si riferiva al ricorso di due coppie austriache sterili contro il divieto, stabilito dalla legge austriaca, di ricorrere a tecniche di fecondazione eterologa. Un divieto che, secondo la Corte, non viola «l'articolo 8 (diritto al rispetto della vita privata e familiare) della Convenzione dei diritti dell'uomo». In una prima sentenza, il primo aprile 2010, la Corte aveva dato ragione alle due coppie, per le quali l'unico modo per avere un figlio è il ricorso alla fecondazione eterologa in vitro, ma il governo austriaco, sostenuto da quello italiano e quello tedesco, aveva chiesto una revisione del caso davanti alla Grande camera. A novembre la Corte ha ribaltato il proprio giudizio, sottolineando che, viste le questioni etiche sollevate ma anche la rapidità dei progressi medici, ogni paese ha un ampio margine di manovra nel normare questa materia, e quindi la legge austriaca non lede di per sè i diritti delle due coppie.

A commentare la sentenza della Consulta sono i legali delle coppie sterili che si sono rivolte ai tre tribunali. «È una sentenza positiva, anche se interlocutoria. La Consulta poteva dichiarare che il divieto di fecondazione eterologa è costituzionale, invece ha rinviato gli atti» commenta l'avvocato Filomena Gallo. «Si tratta solo di un arrivederci - aggiunge il legale Gianni Baldini -. La sentenza di Strasburgo dice che la legittimità del divieto di fecondazione eterologa deve essere valutato dai singoli Stati, in base alle loro specificità storiche, politiche e culturali. I tribunali di Milano, Firenze e Catania nel loro ricorso hanno ritenuto che quel divieto possa essere in contrasto con la Costituzione italiana. Quindi, a meno che non vogliano contraddirsi, i tre tribunali non potranno che ribadire la necessità di un intervento della Corte Costituzionale».
 

La Consulta era chiamata a valutare la costituzionalità della legge 40 sulla procreazione medicalmente assistita in merito al divieto di fecondazione eterologa, cioè con ovociti o gameti non appartenenti alla coppia. Ad attendere la sentenza erano innanzitutto i centri di procreazione medicalmente assistita: far cadere il divieto, rilevano, significherebbe anche fermare il turismo procreativo che ha, oltre all'impatto emotivo sulla coppia, anche un alto costo sociale. Già diverse pronunce della Consulta hanno di fatto «riscritto» la legge 40. Quattro volte la legge è finita sui banchi della Corte Costituzionale (nel 2005, due volte nel 2009 e una nel 2010). Se si considerano anche i ricorsi per altre parti della legge - come quelli per ottenere la possibilità di congelamento degli embrioni, la diagnosi preimpianto e il limite di utilizzo di tre embrioni per ciclo di fecondazione - sono complessivamente 16 le volte che i giudici hanno ordinato l'esecuzione delle tecniche di fecondazione secondo i principi costituzionali, affermando i diritti delle coppie e non secondo la legge 40. 

FONTE: Corriere.it
Leggi tutto...

Fine della scoperta di nuovi farmaci? Fra crisi economica e necessità di cambiamenti culturali...

0 commenti
Circa mezzo secolo fa, nel periodo d'oro dell'industria farmaceutica, i bassi costi di ricerca e produzione nonchè la spinta di un nuovo modello industriale basato sulla serrata concorrenza hanno permesso un continuo progredire della ricerca farmacologica, la quale a sua volta ha concesso un numero infinito di pillole a scopo terapeutico, dal controllo della pressione arteriosa al controllo della glicemia fino alla risoluzione delle infezioni batteriche. Attualmente però, proprio a causa della crisi economica dovuta a impoverimento di risorse delle nazioni, tale modello economico e culturale è in difficoltà: il costo per portare un nuovo farmaco sul mercato si aggira sul miliardo di dollari, con un processo che può durare oltre 15 anni. Quasi del tutto abbandonate le strade della ricerca farmacologica "pubblica", le industrie più conosciute del settore stanno affrontando a sua volta un periodo di crisi economica e il taglio continuo dei budget sta distruggendo il solido telaio su cui si basavano le operazioni più comuni. La conferma arriva dalla preoccupazione espressa da molti rappresentanti mondiali del mondo accademico nonchè molti gruppi di pazienti, i quali temono non più un allungamento ma una vera e propria cancellazione di quei progetti la cui possibile realizzazione potrebbe portare benefici terapeutici a molte malattie attualmente insolute.

Ad essere colpite maggiormente sono le malattie con bassa frequenza di soggetti colpiti. Se da un lato gli sforzi economici residui della ricerca si stanno concentrando su quelle malattie a larga diffusione mondiale, dall'altro si sta concretizzando un abbandono totale di quei percorsi che potrebbero portare a soluzioni per malattie coinvolgenti una frequenza bassa di pazienti, con il risultato di una disastrosa "selezione naturale".

Inoltre, proprio in quest'ultimo decennio si sta concretizzando il timore espresso da tanti ricercatori in merito allo sviluppo di una farmaco-resistenza generalizzata: molti ceppi batterici stanno "emergendo" in quanto resistenti ai più comuni farmaci antibiotici.

Lo scorso anno il direttore generale dell'OMS (Organizzazione Mondiale della Sanità) Margaret Chan ha avvertito che il mondo stava andando verso una "era post-antibiotica" ed espresse il timore che molte infezioni comuni potrebbero non avere più una cura valida e quindi potrebbero ancora una volta "uccidere senza sosta". Una regressione al passato davvero non auspicabile.

Infine, ulteriore problema segnalato dall'OMS e da considerare: l'aumento generalizzato dell'età media sta causando un incremento dell'incidenza delle patologie neurologiche quali ad esempio Alzheimer e Parkinson, dove tuttora vi è una carenza di farmaci a efficacia sicura, da cui un ulteriore "peso" per la ricerca.

Il vecchio modello della ricerca farmacologica non funziona più bene. Il modello è inefficiente. Nove volte su dieci, molecole che mostrano la promessa in fase precoce sono destinati al fallimento nei processi successivi. Il cosiddetto "Blockbuster method" - che impegna ingenti somme di denaro per trovare un farmaco che promette di trattare una parte enorme della popolazione, e generando cosi un ritorno di denaro per coprire altre perdite sperimentali - non può più sostenere il settore, perchè il denaro non va più a coprire le perdite sperimentali ma le perdite di settore.

Ma è tutta colpa della crisi economica? Con una opinione controversa, Chas Bountra, professore di medicina traslazionale all'Università di Oxford, accusa i rallentamenti del ritmo di ricerca alla scarsa possibilità di approfondire la conoscenza molecolare umana: "Non capiamo abbastanza di malattie umane o abbastanza sulla modalità d'azione dei farmaci esistenti. Prendete per esempio il paracetamolo. Tutti noi lo prendiamo, tutti noi sappiamo dei suoi effetti collaterali ad alte dosi, ma non sappiamo ancora esattamente con precisione quale sia il suo sito molecolare d'azione. E se non siamo in grado di appurarlo, come possiamo progettare molecole migliori e quindi meno inclini a controindicazioni? Trovare nuove proteine o geni del corpo che possano essere indicate come obiettivi di un farmaco senza possibili ripercussioni ha, attualmente, le probabilità di una vincita ad una lotteria. Ci sono più di 20.000 proteine ​​nel corpo umano, e nessuna di queste proteine ​​potrebbe essere un obiettivo per la scoperta di un nuovissimo farmaco. La nostra capacità, anche nel 2012, per essere in grado di dire una proteina sta andando a lavorare in questo gruppo di pazienti o un sottoinsieme di pazienti, è spaventosamente bassa".

Un'altra minaccia al mondo della ricerca farmacologica è la duplicazione. "Noi ricercatori non pubblichiamo i nostri fallimenti, o se le facciamo pubblicare, si pubblicano troppo tardi. Di conseguenza altri accademici, le altre aziende, continuare a lavorare sullo stesso obiettivo, continuare a sprecare risorse e le carriere e esporre i pazienti a molecole che hanno una probabilità di fallimento elevata" dichaira il prof Bountra.
 

Il Prof. Patrick Vallance, presidente di ricerca e sviluppo di prodotti farmaceutici della famosa industria GlaxoSmithKline, pensa che il settore stia diventando sempre più aperto: "Una delle cose che abbiamo fatto è di dichiarare pubblicamente ogni passo della nostra attività di ricerca e sviluppo. E mentre pubblichiamo i nostri risultati, rendiamo i nostri protocolli disponibili ai revisori. Questo modo di agire è di aiuto per dare una migliore visibilità di ciò che è in cantiere". Per esempio, la GlaxoSmithKline ha messo 13.500 "strutture molecolari" che hanno il potenziale di uccidere la malaria a conoscenza di pubblico dominio. Prof Vallance dice che l'azienda ha agito così perché la dispersione di risorse per fenomeni di duplicazione è un "problema difficile da decifrare". E aggiunge: "Perché non permettere a chiunque di dare un'occhiata a questi composti e vedere se si può pensare a qualcosa di più intelligente di quanto stiamo facendo, e vedere se riescono a raggruppare in un certo modo o individuare un modello che abbiamo perso?", ma, sostiene, dobbiamo essere realistici su questo punto: "Ci sarà sempre un certo grado di sovrapposizione, perché a crearla è la stessa concorrenza fra industrie". Per la cronaca, anche il gruppo del prof Bountra di Oxford ha preso la decisione di pubblicare tutti i loro successi e fallimenti.

Il professor Paul Workman dell'Istituto di ricerca sul cancro punta ad un altro tema scottante: "Con i problemi della crisi finanziaria si è sviluppata una sorta di vuoto che molti di noi descrivono come "la valle della morte". Questa è la valle tra ricerca di base e l'innovazione da un lato, e il beneficio per il paziente e il successo commerciale dall'altro, con questo abisso in mezzo in cui vi è una mancanza di fondi e i numerosi casi di fallimento".

Lo studioso inglese è comunque ottimista sul fatto che la scienza possa ancora progredire e portare nuove opportunità di successo, ma il problema di fondo è che "la scienza ci sta portando nella direzione opposta ai farmaci generici di successo, cioè ci sta spingendo verso la medicina "personalizzata". Questo significa che in un futuro non lontano si potrà identificare il paziente a cui il principio attivo usato per la terapia può dare benefici semplicemente attraverso un test genetico del suo DNA. Tuttavia, solo un piccolo numero di pazienti potrebbe beneficiare di una determinata terapia, ma ne trarrà beneficio in modo ottimale.

E' necessario quindi un cambiamento culturale. Ciò che il mondo accademico sta sostenendo da qualche anno è la necessità di un nuovo modello che veda nella stretta collaborazione fra differenti gruppi di ricerca al fine di concentrare le poche risorse economiche e umane rimaste in tale campo e ridurre al minimo gli sprechi di tempo e denaro. Tale collaborazione dovrebbe attuarsi solo nelle fasi iniziali, in quanto nelle fasi avanzate di sviluppo una concorrenza "commerciale" e "industriale" è inevitabile, come affermato dallo stesso prof Workman: "Ci sarà una forte concorrenza per ottenere il miglior primo farmaco, per essere sicuri di fare il processo giusto e mostrare di possedere e poter vendere la migliore medicina".
Leggi tutto...

[OFF TOPIC] - Pianura padana, una new entry delle zone a rischio sismico...

2 commenti
Strano destino quello della pianura padana: fino alla fine dello scorso decennio era considerata una zona a basso potenziale di rischio sismico, cioè "abbastanza sicura", al contrario dal 2003 in poi si è osservata un aumento di attività tellurica che ha determinato il cambiamento del suo colore da "verde" a "gialla", cioè zona a rischio medio. Un colore che rischia di cambiare ancora, constatati gli ultimi eventi che andranno a influire sui dati raccolti e sulle previsioni future. Infatti nella giornata di oggi si sono susseguite le scosse di assestamento, alcune di intensità quasi simile a quella che nella tarda notte di ieri ha sconvolto l'entroterra della provincia ferrarese causando morte, paura e crolli. Ma cosa sta succedendo, dal punto di vista sismico, alla pianura piadana? Ce lo spiega l'articolo di Giovanni Caprara del "Corriere della Sera" con la collaborazione del sismologo Massimo Cocco dell'Istituto nazionale di geofisica e vulcanologia.

Come mai un terremoto nel mezzo della Val Padana di intensità medio-alta (5.9 della scala Richter) seguito da una fitta sequenza di altri sismi, alcuni altrettanto potenti?

È il frutto dello scontro tra le placche della crosta terrestre, l'africana contro quella europea. Questo in generale. In particolare è la conseguenza della compressione tra nord e sud che si crea fra le due zolle del pianeta. La spinta degli Appennini, al di sopra della microplacca Adriatica, ieri ha prodotto una faglia lunga una quarantina di chilometri tagliando la Val Padana tra est e ovest, fra Ferrara e Modena, scuotendola vigorosamente. Nell'arco della giornata si è registrato oltre un centinaio di sismi di varia magnitudo ma alcuni con livelli tra 4 e 5 della scala Richter, quindi rilevanti e in grado provocare seri danni, disastri e purtroppo vittime.

Queste zone della Val Padana sembravano in passato un'area relativamente tranquilla ma negli ultimi tempi tutto pare cambiato. Come mai?

Fino al 2003, quando si è compilata l'ultima carta del pericolo sismico, non era nemmeno considerata. Non essendo stati fino ad allora raccolti dati strumentali non era classificata e quindi giudicata a bassa sismicità. Altrettanto successe a San Giuliano di Puglia. Ma gli eventi accaduti hanno costretto a una revisione ponendola all'improvviso nella classifica del pericolo nella terza categoria; vale a dire medio-bassa. L'Aquila, per fare un confronto, è in prima categoria. Negli anni precedenti si erano verificati episodi consistenti. Ad esempio il terremoto di Cento (5.4 della scala Richter) nel 1987 e di Rovigo (4.7) del 2011. Nei mesi più recenti i fenomeni si sono intensificati scuotendo l'intera regione. Dal gennaio 2012 la zona appenninica di Reggio Emilia e Parma venne colpita da terremoti di magnitudo 4.9 e 5.4, a distanza di pochissimi giorni. I due sismi di gennaio, pur avvenuti a profondità molto diverse (30 e 60 km) rispetto ai 6-8 km di quelli di ieri, sono anch'essi legati ai movimenti della stessa «microplacca adriatica», che negli ultimi tempi ha avuto un'attività piuttosto intensa.

Questi avvenimenti erano considerati segnali premonitori di scosse più forti o venivano giudicati normali?


Nessuna sorpresa, sottolineano i geofisici. Tutto rientrava nel quadro conosciuto del territorio e anche un sisma lievemente superiore al passato, intorno a 6 gradi della scala Richter, era ritenuto nella norma, prevedibile. Ed è quello che è accaduto. Storicamente il caso più violento di cui si abbia traccia risale al 1570 riguardante un terremoto a Ferrara con una magnitudo di 5.5 della scala Richter. Un altro evento studiato di recente è quello avvenuto nel 1639 con epicentro nei pressi di Finale Emilia dove produsse danni analoghi a quelli di ieri. Gli effetti, poi, dipendono anche dalla profondità dell'ipocentro del sisma e più sono superficiali più si fanno sentire. Quelli di ieri erano tutti inferiori ai dieci chilometri di profondità e infatti le onde si sono trasmesse rapidamente in modo ampio facendo scattare i sismometri nell'intera Italia settentrionale, dal Friuli, al Trentino, alla Liguria, e verso Sud, fino all'Italia centrale. C'è da aggiungere che la Pianura Padana è ricoperta da uno spesso strato di sedimenti e questo tipo di suolo genera degli effetti di amplificazione che si distribuiscono nel territorio.


Come mai una sequenza di scosse così prolungata nel tempo e di consistente intensità?


La compressione fra le due placche che ha generato la faglia deve liberare l'energia accumulata. E questo può avvenire in tre maniere. La prima in un breve arco di ore, come sembra stia avvenendo in questo caso, con movimenti tellurici di media intensità superiori al quinto grado della scala Richter; la seconda con piccoli sismi che si distribuiscono in qualche giorno; il terzo modo è invece un rilascio di energia lento e lieve al punto da non fare nemmeno sussultare i pennini dei sismografi e quindi nessuno se ne accorge. I geofisici non possono sapere che cosa sia realmente accaduto nel sottosuolo e come le rocce, nella loro diversa natura, reagiranno alle pressioni.
 

È possibile sapere che cosa accadrà nei prossimi giorni, settimane o anche mesi, cioè se la Terra proseguirà nei suoi tremori?

La Pianura Padana è prevedibile che continuerà a sussultare come ha fatto negli ultimi tempi. E quindi terremoti intorno al quinto grado della scala Richter è verosimile che possano ancora verificarsi. Troppo spesso dimentichiamo che viviamo in un Paese altamente sismico. Ora i sismologi dell'Istituto nazionale di geofisica e vulcanologia compiranno una campagna di indagini nell'area coinvolta e installeranno nuove apparecchiature per analizzare più in dettaglio i movimenti che il suolo manifesterà al fine di approfondirne la conoscenza e di decifrare meglio eventuali comportamenti.



FONTE: Corriere della Sera
AUTORE: Giovanni Caprara
Leggi tutto...

21 maggio, 2012

Il governo spara a zero sulla Sanità: dal prossimo anno in arrivo nuovo ticket su farmaci, visite, ricoveri, day hospital: fino al 3 per 1000 del proprio Irpef...

1 commenti

Le nuove franchigie sanitarie che manderanno in soffitta ticket ed esenzioni si pagheranno anche sui ricoveri ospedalieri e in aggiunta arriva un miniticket per ogni prescrizione farmaceutica compiuta.

È una delle novità dell’ultima ora inserite dai tecnici del ministero della Salute alla proposta che Renato Balduzzi vuole calare al più presto sul tavolo del confronto con le Regioni.

Pubblicamente il ministro si schernisce e parla di ipotesi di lavoro ma ai suoi ha ordinato di premere sull’acceleratore perché i tempi necessari a rendere operativo il sistema di pagamento «a franchigia» non sono brevi.

Infatti, prima che il meccanismo diventi operativo, sarà necessario prima creare e distribuire le nuove tessere sanitarie dotate di microchip, le uniche capaci di memorizzare la quota di spesa a nostro carico che viene via via consumata. Così i superesperti di Balduzzi hanno iniziato a limare il meccanismo per metterlo a punto.

Prima di tutto la franchigia, che è la quota di spesa entro la quale si dovrà pagare (e che una volta superata farà scattare le prestazioni gratis). Sarà pari al 3 per mille del reddito Irpef, corretto con il «quoziente familiare», che di fatto farà diminuire il reddito per le famiglie più numerose o con disabili a carico.

In un primo momento si era pensato di calcolare l’aliquota sul reddito Isee, parametro già utilizzato per diverse prestazioni del nostro welfare e che tiene conto anche dei patrimoni mobiliari e immobiliari. Ma per gli esperti della Salute, le Asl non sarebbero però in grado di controllare l’Isee e verificarne i valori. Meglio quindi attenersi all’Irpef. Anche se questo significherà far pagare di più i soliti noti: ossia pensionati e lavoratori dipendenti.

Comunque con l’aliquota del 3 per mille il gettito dei ticket passerebbe dagli attuali 4 ai futuri 6 miliardi. Esattamente i due in più previsti a partire dal 2014 dall’ultima manovra Berlusconi, confermata da Mario Monti.

In pratica, per fare qualche esempio, chi ha 20mila euro di reddito pagherà fino a 60 euro e poi basta. Con 40 mila euro si pagherà fino a 120 euro, con 60mila fino a 160, con 100mila si aprirà il portafogli fino a che non si sarà superata la soglia dei 300 euro e così via. Le franchigie le pagheranno tutti, anche quel 47% di italiani oggi esente dai ticket che consumano però quasi il 70% della spesa sanitaria.

Il budget a carico dell’assistito non sarà solo su visite specialistiche, analisi, accertamenti diagnostici e farmaci com’è ora per i ticket ma si pagherà anche per ricoveri ospedalieri e day hospital. Come dire che resterà gratuito solo il medico di famiglia e che basterà sostare anche solo un giorno in corsia o in day hospital per spendere di tasca propria l’intera franchigia.

Per disincentivare il «consumismo sanitario» si pensa anche a un mini-ticket di 50 centesimi da applicare su ogni prescrizione, comprese quelle gratuite una volta esaurita la franchigia.

La quota a nostro carico verrà scalata dalla nuova tessera sanitaria e la franchigia non sarà calcolata sull’anno solare bensì a partire dalla prima prescrizione. Ad esempio se andrò con la ricetta in farmacia a giugno esaurirò l’importo a mio carico a maggio dell’anno successivo e poi, a questo punto, si ricomincerà scalando le prime spese dalla franchigia iniziale.

La formula «pagare meno ma pagare tutti» ha fino ad ora fatto storcere il naso alle Regioni ma il Governo sembra intenzionato ad andare comunque avanti per questa strada. Anche perché, spiegano al ministero della Salute, per legge i due miliardi di maggiori ticket nel 2014 devono entrare.

E con il sistema attuale, dove la stragrande maggioranza della compartecipazione alla spesa è su specialistica e diagnostica, per incamerare quella somma bisognerebbe far gravare sui non esenti un super-ticket pari all’80% del costo di visite specialistiche, analisi, Tac, risonanze ed altri accertamenti diagnostici. Un salasso che scatenerebbe la corsa verso il privato, portando a rischio default Asl e ospedali di tutta Italia.

FONTE: La Stampa.it
Autore: Paolo Russo
Leggi tutto...

Scoperto nei cani il gene dell'epilessia

0 commenti

L'epilessia, un insieme di disturbi neurologici cronici caratterizzati da convulsioni, colpisce circa 1-5% della popolazione umana in un momento della vita. Gli esperti spiegano che l'epilessia dipende da varie sindromi, cause, prognosi e dall'età dei malati. Sulla base dei meccanismi basilari che le caratterizzano, le sindromi epilettiche si dividono in epilessie genetiche, epilessie strutturali/metaboliche (sintomatiche) ed epilessie di causa sconosciuta (idiopatiche). Coordinati dall'Università di Helsinki e dall'Istituto di genetica Folkhälsan in Finlandia, ricercatori provenienti da Danimarca, Finlandia, Stati Uniti e Svezia hanno confrontato il genoma dei cani con l'epilessia e quello di cani di controllo sani e hanno identificato una regione del gene nel cromosoma 37, che è legata alla forma più comune di epilessia canina. Presentati sulla rivista PLoS ONE, i risultati ci fanno capire meglio il background genetico delle forme più comuni di epilessia canina e forniscono informazioni sulle forme comuni di epilessia umana. Lo studio è stato in parte finanziato dal progetto LUPA ("Unravelling the molecular basis of common complex human disorders using the dog as a model system"), che è sostenuto nell'ambito del tema "Salute" del Settimo programma quadro (7° PQ) dell'UE con 12 milioni di euro.

Fino al 40% dei malati di epilessia possono far risalire la propria diagnosi a fattori genetici. Se la specifica regione del gene è omozigotica, il rischio di soffrire di epilessia è sette volte maggiore. I ricercatori suggeriscono anche che altri fattori di rischio genetici, ancora sconosciuti, potrebbero essere presenti nella razza.

Il tipo di epilessia che colpisce il pastore belga è molto comune anche in altre razze. Questa scoperta quindi potrebbe migliorare le nostre conoscenze sulle epilessie in diverse razze di cani.

"Ci sono solo pochi geni nella regione identificata e credo che le analisi in corso ci aiuteranno a scoprire il gene specifico dell'epilessia," dice la professoressa Hannes Lohi dell'Università di Helsinki, autrice anziana dello studio. "Questo ci farebbe capire meglio i meccanismi della malattia e ci fornirebbe un nuovo strumento di diagnostica per questa malattia."

Commentando lo studio, l'autrice principale, la dott.ssa Eija Seppälä dell'Università di Helsinki, dice: "La regione genomica identificata è probabilmente il fattore di rischio singolo più forte per l'epilessia nei pastori belgi e stiamo studiando un'interessante variante del gene che causa un cambiamento dell'amino acido al livello proteico. Questo cambiamento omozigotico dell'amino acido però è presente anche in un quinto dei pastori belgi sani. La ricerca continua all'interno della razza e ha lo scopo di identificare la specifica mutazione per i test genetici in questo sito e possibilmente in altri cromosomi. Il bisogno di un test genetico è urgente visto che si stima che ben il 20% dei cani di questa razza abbia l'epilessia."

FONTE: Molecularlab.it
Leggi tutto...

Niente più "Buono vs. Cattivo": ricerca sulla rivista "The Lancet" mette in dubbio l'effetto protettivo dell'HDL...

1 commenti

Interessante risultato di una ricerca pubblicata recentemente sulla rivista inglese "The Lancet". Uno studio compiuto su quasi 12500 pazienti andati incontro nella loro vita a episodi patologici cardiocircolatori avrebbe posto le basi per annullare il principio secondo il quale gli elevati livelli di colesterolo HDL avrebbero un effetto "protettivo" nei confronti del possibile sviluppo di tali patologie. Tale studio, che si sostiene su di un’analisi di numerose ricerche statistiche precedenti, ha scoperto che anche se è vero che mantenere le lipoproteine ​​a bassa densità o LDL (conosciute come il “colesterolo cattivo”) sotto controllo è bene per il cuore, alti livelli di HDL non hanno alcun impatto sul rischio di malattie cardiache. “Questi risultati dimostrano che in realtà un aumento del colesterolo HDL potrebbe non ridurre il rischio di infarto del miocardio (o attacco cardiaco) negli esseri umani”, ha detto l’autore dello studio Sekar Kathiresan, del Massachusetts General Hospital e della Harvard Medical School degli Stati Uniti. “Pertanto, fornire farmaci che aumentano il colesterolo HDL potrebbe non essere una buona idea, in quanto non possiamo dare per scontato che il rischio di infarto si ridurrebbe”, ha spiegato Kathiresan.

A dispetto di quanto sostenuto dalla ricerca, è necessario tuttavia sottolineare alcuni punti importanti:

1) tale ricerca si basa principalmente su rapporti statistici e lo stesso autore dichiara che saranno necessari ulteriori studi per confermare la teoria
2) il mantenimento di valori elevati di LDL, oltre specifici valori soglia determinati dalle proprie condizioni fisiologiche e patologiche nonchè concordati con il proprio medico di fiducia, ha assolutamente e senza dubbio un EFFETTO NEGATIVO sulle possibilità di sviluppo di patologia cardiocircolatoria
3) una dieta che possa incrementare il contenuto di HDL ha un effetto inevitabilmente benefico sul contenuto di LDL favorendone l'abbassamento e appunto prevenendo il possibile sviluppo di patologie quali infarto, arteriopatie e altre patologie prevenibili tramite il controllo dei propri livelli di colesterolo.
 

Leggi tutto...

[OFF TOPIC] - Considerazioni sul terribile attentato di Brindisi,dubbi sull'uso di bombole GPL per preparare l'ordigno...

1 commenti
Passata l' ondata di emozioni susseguenti alla morte della giovanissima studentessa di Brindisi ed al ferimento di alcune sue compagne, la mente non puo' fare  a meno di analizzare quanto ci e' stato raccontato sull' attentato e di valutare le immagini che sono state proposte dalle televisioni. La versione ufficiale dei fatti è che tre bombole di gas, occultate all' interno di un cassonetto, sono state fatte esplodere mediante un timer regolato alle 7.45 e gia' qui viene da porsi una prima domanda: avete presente quanto pesa una bombola di GPL  ? Certamente l'attentatore le ha dovute collocare nel cassonetto una per volta e preparare l' ordigno successivamente al loro posizionamento, mi pare infatti assurdo ipotizzare che tre bombole, quindi una sessantina di chili, con un ingombro notevole, possano essere state preassemblate, munite di detonatore e di timer e dopo collocate insieme all' interno del cassonetto. Sarebbe senza dubbio alcuno stato necessario un automezzo munito di una piccola gru per effettuare l' operazione ed insomma, terroristi che se ne vanbno a giro con una bomba su un autocarro mi sembrano troppo anche per l' Italia. Dunque una per volta ed assemblaggio sul posto. Una operazione che ha impegnato  due persone che hanno trafficato intorno al cassonetto ( e la spazzatura ? ) per diverso tempo.

Supponiamo che sia andata cosi' e che tutto sia filato per il verso giusto, qualcuno puo cortesemente spiegare come si provoca l'esplosione di una bombola di GPL ? Perche' io autore dell'articolo, che ho una certa esperienza sull' argomento, non riesco proprio a trovare un metodo che possa funzionare con efficacia specialmente al momento prestabilito. Come avviene la connessione timer, detonatore ordigno ? I GPL (  Gas da Petrolio Liquefatti )  sono gas pesanti, derivanti dalla raffinazione del greggio, che vengono mantenuti e trasportati allo stato liquido in contenitori a pressione. Lo stato liquido si ottiene per aumento di pressione o sottrazione di calore e viceversa lo stato gassoso diminuendo la pressione o aumentando il calore. Il GPL e' quello che fa funzionare gli accendini, per capirci e se qualcuno lo usa trasparente puo' vedere il gas all' interno che assomiglia all' acqua.

L' esplosione improvvisa di un contenitore di GPL e' chiamato BLEVE ed e' l' evento peggiore che  viene ipotizzato nella analisi dei grandi rischi connessi agli impianti ed alle strutture che trattano questo prodotto.

Qualcuno si ricordera' della esplosione alla Stazione ferroviaria di Viareggio ed alla strage che ne segui', con persone che vennero vaporizzate dal' irraggiamento mortale del fireball ( palla di fuoco ) che segui' il BLEVE ( l' esplosione ). Allora sappiamo cosa avvenne, una perdita consistente di gas da uno dei vagoni ed una saturazione dell' armosfera circostante fino al realizzarsi di una miscela instabile tra combustibile (GPL) e comburente (l'aria) che venne poi innescata dalle scintille di un freno del vagone malfunzionante.

Come questa dinamica possa essere artificialmente riprodotta con tre bambole dentro ad un cassonetto ce lo devono ancora spiegare ma supponiamo che sia avvenuto. Dunque le tre bombole esplodono ed alla esplosione segue il fireball che irraggia un' area  abbastanza rilevante intorno all' epicentro. Dunque, ricapitolando, prima il BLEVE., con gli effetti tipici della esplosione, schegge, detriti, onda d' urto e subito dopo il  Fireball, ossia questa palla di fuoco che incenerisce tutto al suo passaggio. Non si sfugge a questa dinamica se erano bombole.

La fotografia che vedete (vedasi link ad articolo a fondo pagina) si riferisce allo scoppio  di due bombole che erano dentro ad un furgone schiantatosi fuori strada ed e' stata presa parecchio dopo l' evento. Due sole bombole. Mi pare non ci sia bisogno di commentarla. Dalle immagini proposte dalle televisioni abbiamo invece notato che non vi e' alcun cratere nel luogo dell' esplosione, non vi sono fuochi residui.  che il cassonetto e' solo lacerato ma non disintegrato e carbonizzato, che l' erba di un prato adicente e' verde e che alcuni alberelli nei pressi sono intatti. Cosi' tanto per gradire da una prima sommaria occhiata per televisione. Chiunque abbia un minimo di dimestichezza capirebbee immediatamente.

AUTORE: Gianni Fraschetti
SITO:  Informare.over-blog.it



Dalle immagini proposte dalle televisioni abbiamo invece notato che non vi e' alcun cratere nel luogo dell' esplosione, non vi sono fuochi residui.  che il cassonetto e' solo lacerato ma non disintegrato e carbonizzato, che l' erba di un prato adicente e' verde e che alcuni alberelli nei pressi sono intatti. Cosi' tanto per gradire da una prima sommaria occhiata per televisione.
Leggi tutto...

SENTIERI DELLA MEDICINA

In questo blog ci sono post e commenti

Commenti recenti

Post più popolari