Scienza-La produzione mondiale della plastica

Una recente ricerca statunitense certifica che metà di tutta la plastica realizzata dal 1950 ad oggi (4,15 miliardi di tonnellate) è stata prodotta negli ultimi 13 anni! Per avere un’idea concreta di questo incremento, bisogna considerare che, dai 2 milioni di tonnellate del 1950, si è passati agli oltre 400 milioni di tonnellate del 2015

Sono passati poco più di 150 anni da quando Alexander Parkes, inventore e chimico inglese, inventò la Parkesina (1861), il primo tipo di plastica artificiale. Da allora, questi materiali, nelle loro molteplici forme strutturali, hanno praticamente… invaso il mondo!
Cronologicamente, il vero boom della produzione di plastica si è verificato a partire dagli anni ‘50, crescendo ininterrottamente fino ai nostri giorni.
Ma quanta ne è stata prodotta veramente finora? L’interrogativo ha trovato accoglienza da parte di un gruppo di ricercatori dell’Università della Georgia, dell’Università della California a Santa Barbara e di altri istituti di ricerca statunitensi, che si è preso la briga di calcolare la reale quantità di tale produzione, dagli anni ‘50 ad oggi. Ne è risultato uno studio (recentemente pubblicato su “Science Advances”), con numeri davvero allarmanti: si tratterebbe di 8,3 miliardi di tonnellate di plastica!
E non è tutto. Perché di questa quantità totale, ben 6,3 miliardi (il 79%) sono sfuggiti a qualunque circuito di riciclo, finendo per diventare spazzatura, accumulata nelle discariche o dispersa nell’ambiente, con grave danno degli ecosistemi. Infatti, solo il 9% della plastica, al termine del suo utilizzo è stato riciclato, mentre il 12% è stato incenerito. Per non parlare poi dell’inquinamento da plastica degli oceani: secondo una stima dello stesso gruppo, nel solo 2010 sono stati riversati in mare ben 8 milioni di tonnellate di plastica!
“La maggior parte delle materie plastiche – spiega Jenna Jambeck, coautore dello studio – non si biodegrada in alcun modo, e così la plastica che gli esseri umani hanno prodotto resterà con noi per centinaia o anche migliaia di anni. Le nostre stime sottolineano la necessità di pensare criticamente ai materiali che utilizziamo e alle nostre pratiche di gestione”.
Ma ciò che, in prospettiva, preoccupa ancor più gli studiosi è il tasso d’incremento della produzione; basti pensare che metà di tutta la plastica realizzata dal 1950 ad oggi (4,15 miliardi di tonnellate) è stata prodotta negli ultimi 13 anni! Per avere un’idea concreta di questo incremento, bisogna considerare che, dai 2 milioni di tonnellate del 1950, si è passati agli oltre 400 milioni di tonnellate del 2015: un’accelerazione che – escludendo acciaio e cemento – non ha eguali tra gli altri materiali. Con la differenza che mentre acciaio e cemento sono prevalentemente utilizzati nell’industria edile, nel caso delle plastiche l’uso prevalente e più diffuso è quello del “packaging”; ciò significa che la maggior parte dei prodotti viene buttata dopo l’uso.
“Circa metà di tutto l’acciaio che produciamo – commenta Roland Geyer, primo autore dello studio – finisce nelle costruzioni, e quindi rimane in uso per molti decenni. Per la plastica non è così: diventa un rifiuto dopo non più di quattro anni di utilizzo”.
Dicevamo che negli ultimi 13 anni si è prodotta metà di tutta la plastica prodotta dal 1950 a oggi. Se un tale trend fosse confermato, ciò significherebbe che, entro il 2050, la quantità totale di plastica depositata nelle discariche e dispersa nell’ambiente raggiungerebbe i 12 miliardi di tonnellate! Dunque, è tempo di trovare soluzioni efficaci.
“Non è possibile gestire ciò che non si è misurato – aggiunge Geyer – : quello che abbiamo realizzato è il primo passo per una gestione sostenibile dei materiali. Ora le discussioni politiche avranno una base di informazioni e dati numerici”. Ma per fare cosa in concreto? Secondo gli stessi ricercatori, la via realisticamente percorribile non è certo la totale rimozione della plastica dal mercato, cosa attualmente impossibile. Piuttosto, bisognerebbe operare un esame più critico dell’uso delle plastiche, ragionando su come si possa gestire la fine del loro ciclo di utilizzo. “Ci sono ambiti – conclude Kara Lavender Law, coautrice dello studio – in cui le plastiche sono indispensabili, specialmente nei prodotti progettati per durare molto tempo. Ma siamo obbligati a riconsiderare attentamente il nostro uso delle plastiche e a domandarci quando esso abbia senso”.

I possibili effetti positivi dell’assunzione moderata di caffè

Secondo un recente studio sembra che le persone che bevono più caffè al giorno vivano in media più a lungo rispetto ai non bevitori

Un buon caffè espresso: probabilmente la bevanda più amata dagli italiani. Ma, nel mondo, non siamo certo i soli a consumare grandi dosi di questo “carburante” quotidiano. Anzi, i dati ufficiali riservano più di una sorpresa in merito. Pare infatti che, sul nostro pianeta, si consumino ben 2,25 miliardi di tazze di caffè ogni giorno. E in Europa – udite, udite – mentre ad occupare il primato di consumo è la popolazione danese (900 millilitri al giorno), gli italiani si collocano… all’ultimo posto (92 millilitri al giorno)! Probabilmente a causa della nostra orgogliosa predilezione per la preparazione “espressa”, che senza dubbio riduce la quantità globale di caffè ingerito.

In ogni caso, è convinzione comune che sia meglio moderare in qualche modo la nostra passione per la tanto desiderata “bevanda scura”; solitamente, infatti, i medici ci mettono in guardia contro i rischi legati ad un eccesso di caffeina, le cui proprietà stimolanti, sono ad esempio controindicate per chi soffre d’insonnia, di stati ansiosi, di colon irritabile o ipertensione.

Ma adesso, pare che qualcuno voglia addirittura “rovesciare la frittata”. E sì, perché un recente studio (pubblicato su “Annals of Internal Medicine”) parla con chiarezza di possibili benefici per la salute – e non da poco – legati alla regolare assunzione di caffè. In parole povere, sembra che le persone che bevono più caffè al giorno, vivano in media più a lungo rispetto ai non bevitori. Per giungere a queste conclusioni, un gruppo di ricercatori dell’International agency for research on cancer e dell’Imperial College of London ha condotto uno studio osservazionale su un campione di circa mezzo milione di cittadini europei (attualmente, il più ampio sull’argomento), appartenenti a dieci paesi. In realtà, già altri studi in passato avevano evidenziato possibili effetti positivi del caffè sulla salute, in particolare per la prevenzione dei rischi cardiovascolari e delle malattie dell’apparato digerente. Ma non si era mai giunti a risultati concordi e definitivi, anche a causa della variabilità dei metodi di preparazione del caffè: dall’espresso italiano, di pochi centilitri a tazzina, al caffè americano, consumato ben più diluito e in dosi assai più elevate. Peraltro, le differenti preparazioni hanno anche una diversa concentrazione degli ingredienti strutturali del caffè (caffeina, oli naturali e antiossidanti).

Ritornando allo studio di recente pubblicazione, gli autori sono partiti dai dati di un’ampia ricerca denominata Epic (European prospective investigation into cancer and nutrition), relativi a 521.330 persone di età maggiore di 35 anni. Durante i 16 anni di follow-up, circa 42mila persone coinvolte nello studio sono morte per diverse cause, tra cui malattie circolatorie, scompenso cardiaco e ictus. Ebbene, la differenza numerica rilevata tra consumatori e non consumatori di caffè è notevole, pur con le dovute cautele dovute al fatto che si tratta di uno studio osservazionale, effettuato quindi in condizioni non rigidamente controllate.
“Abbiamo scoperto – spiega Marc Gunter, ricercatore dello Iarc, coautore dello studio – che un consumo di caffè più elevato è correlato a un rischio di morte più basso per tutte le cause, in particolare per malattie cardiovascolari e dell’apparato digerente. Il dato più importante è che questi risultati sono simili per tutti i dieci paesi europei, con abitudini di consumo tra loro molto differenti; il nostro studio offre importanti informazioni sui possibili meccanismi degli effetti benefici del caffè”.

Un aspetto curioso è che simili effetti positivi sono stati rilevati anche nei consumatori di “decaffeinato”; ma va tenuto conto che, generalmente, i due tipi di consumi non sono nettamente separabili, perché spesso le stesse persone possono bere abitualmente caffè con caffeina e saltuariamente senza caffeina o viceversa.

Gli studiosi, poi, in un sottoinsieme di 14mila soggetti, hanno analizzato alcuni marcatori biologici, evidenziando come i bevitori di caffè avessero mediamente un fegato più in salute rispetto ai non bevitori.

In definitiva, sembra plausibile che l’abitudine di bere caffè – con la giusta moderazione – possa effettivamente avere anche effetti benefici. Ma serviranno ulteriori studi per definire con più chiarezza a quale tra i diversi componenti del caffè sia da attribuire questo effetto protettivo.

La ridefinizione del chilogrammo da parte dei fisici

Le complesse metodologie per ridefinire un’unità di misura cruciale che la comunità scientifica vuole collegare ad una costante fondamentale della natura

In quest’estate ormai inoltrata, tanti di noi – vuoi a fini di salute, vuoi per preoccupazione estetica – sarebbero davvero felici che la propria bilancia di casa segnasse qualche chilo in meno, magari anche a costo di sacrificio personale. Ma non è certo per questa ragione che i fisici esperti in “metrologia” (scienza che si occupa della misurazione e delle sue applicazioni) si stanno dando da fare per ridefinire un’unità di misura cruciale come il chilogrammo. Com’è noto, essa è attualmente basata sul campione di platino-iridio custodito nell’Ufficio internazionale dei pesi e delle misure di Sèvres, vicino a Parigi.
Noi profani, potremmo dire: e che ci vuole? Non sarà poi così difficile! Appunto, perché siamo profani in materia.

In realtà, il lavoro dei fisici si compone di fasi diverse, a partire dalla recente effettuazione di una più precisa misurazione della famosa “costante di Plank” (attualmente rappresentata dal numero 6,626069934 x 10-34). Questo parametro fondamentale della natura – la sua scoperta ha avuto un ruolo determinante per la nascita e la successiva evoluzione della meccanica quantistica – permette la quantizzazione di grandezze come l’energia, la quantità di moto e il momento angolare. In base alla costante di Plank, si è stabilito che le grandezze fisiche fondamentali non evolvano in modo continuo, ma siano quantizzate, cioè possano assumere solo valori multipli di tale costante.

Abbiamo detto che gli studiosi hanno effettuato una misurazione “più precisa” di questa costante fisica; ma si sta parlando di numeri infinitesimali. Basti pensare che la sua precedente determinazione, effettuata dal National Institute of Standards and Technology (Nist) degli Stati Uniti, aveva un’incertezza pari a 34 parti per miliardo. Ora, con l’ultima misurazione, i ricercatori dello stesso Istituto sono riusciti a diminuire tale incertezza a sole 13 parti per miliardo. E non si tratta neanche di un primato assoluto! La stima più precisa, infatti, appartiene al National Research Council of Canada, con un errore di 9,1 parti per miliardo.

In ogni caso, a gioire maggiormente di questi risultati è sicuramente la comunità metrologica internazionale che, proprio grazie alla costante di Planck, potrà ridefinire un’unità di misura così importante come il chilogrammo.

Ma come hanno fatto gli scienziati a rimisurare la costante di Plank? Anzitutto, basandosi sul fatto che essa mette in relazione anche la massa all’energia elettromagnetica. Per questa ragione, uno dei metodi più usati per misurarla prevede l’impiego della cosiddetta “bilancia di Watt”, recentemente ribattezzata “bilancia di Kibble” (costituita essenzialmente da una bobina elettrica collocata tra due magneti permanenti), che permette di bilanciare la caduta di un peso con una forza elettromagnetica misurabile. Misurando così i diversi parametri elettrici dell’apparato è possibile risalire al valore della costante di Planck.

Il passo successivo sarà il suo utilizzo per ridefinire il chilogrammo, unità di misura che la comunità scientifica ormai da tempo ha stabilito di non riferire più ad un artefatto (campione di platino-iridio), per quanto preciso esso possa essere, ma di collegarlo ad una costante fondamentale della natura.

Con l’aumento delle temperature aumenta la mortalità

L’aumento delle temperature sta comportando anche un significativo aumento della mortalità tra la popolazione: si tratta di un fenomeno sempre più frequente e diffuso, come dimostra un recente studio (pubblicato su “Nature Climate Change”), realizzato da un gruppo internazionale di ricerca, sotto la guida di Camilo Mora, dell’Università della Hawaii a Manoa

“Fa caldo da morire”. Una banale frase di commento, che di solito proferiamo per comunicare la nostra insofferenza alle temperature elevate. Un’immagine palesemente iperbolica, appositamente costruita per dare efficacia al nostro messaggio. Finora.
Adesso rischia di essere una descrizione drammaticamente letterale di quanto sta cominciando ad accadere sul nostro pianeta.

Negli ultimi anni, infatti, le cronache hanno più volte riportato episodi di ondate anomale di calore in diverse regioni del mondo (Chicago 1995, Parigi 2003, Mosca 2010, ecc…). Episodi che i rapporti dei meteorologi indicano con certezza come conseguenza del cambiamento climatico in atto, causato dalle emissioni di gas serra in costante crescita.

Il dramma è che, di recente, l’aumento delle temperature sta comportando anche un significativo aumento della mortalità tra la popolazione: si tratta di un fenomeno sempre più frequente e diffuso, come dimostra un recente studio (pubblicato su “Nature Climate Change”), realizzato da un gruppo internazionale di ricerca, sotto la guida di Camilo Mora, dell’Università della Hawaii a Manoa. Secondo i dati raccolti, circa il 30% della popolazione mondiale attuale sarebbe esposta a un livello di caldo potenzialmente letale per 20 giorni o più all’anno. Va da sé che, se non si interverrà per ridurre effettivamente le emissioni di gas serra, nei prossimi anni la situazione non potrà che peggiorare.

L’affidabilità dello studio si basa anche sulla sua ampiezza; gli autori, infatti, hanno revisionato i principali articoli pubblicati tra il 1980 e il 2014, individuando 783 casi di un eccesso di mortalità associato al caldo, in 164 città di 36 paesi del mondo. In base a questi dati, gli studiosi hanno quindi calcolato la soglia mondiale limite, oltre la quale temperatura media superficiale e umidità relativa diventano letali per gli esseri umani.

Proiettando poi questi risultati al 2100, viene da rabbrividire: se le emissioni di gas serra continueranno a crescere col ritmo attuale, ben il 74% o più della popolazione mondiale sarà esposta a un caldo potenzialmente letale; se le stesse emissioni dovessero diminuire drasticamente, la percentuale sarà circa del 48% (comunque altissima).

I ricercatori sono poi riusciti a ricostruire una mappa dettagliata delle ondate di calore nel mondo, da cui risulta che, anche se il maggior riscaldamento si verificherà alle alte latitudini, saranno in realtà le regioni tropicali ad essere esposte a un numero spropositato di giorni all’anno di calore potenzialmente letale. Peraltro, le conseguenze dell’esposizione al calore letale saranno aggravate dall’aumento della popolazione anziana (la più vulnerabile) e dall’incremento dell’urbanizzazione.

“Il riscaldamento dei poli – spiega Iain Caldwell, coautore dell’articolo – è stato uno dei cambiamenti iconici tra quelli prodotti dalle attuali emissioni di gas serra. Il nostro studio mostra tuttavia che è il riscaldamento dei tropici che pone i maggiori rischi di eventi di calore mortale: in queste zone, con alti valori di temperatura e umidità basta poco per determinare condizioni mortali per la popolazione più fragile”.

Per mitigare gli effetti delle ondate di calore è quindi imperativo operare precise scelte politiche a ciò mirate; ma i recenti eventi non fanno certo ben sperare.

“Il cambiamento climatico – afferma Mora – ha posto l’umanità su un cammino pericoloso e sarà sempre più difficile invertire la rotta; perciò, la recente decisione del presidente Trump di ritirare gli Stati Uniti dagli accordi di Parigi mi sembra molto irresponsabile. Si tratta di un grande passo, ma nella direzione sbagliata: la decisione del governo inevitabilmente ritarderà la soluzione di un problema per il quale, come mostra questo studio, semplicemente non c’è tempo da perdere”.
Sapranno i potenti di questo mondo invertire la rotta e conservare “la casa comune” per le generazioni future?

Inquinamento globale. L’esigenza sempre più urgente di una collaborazione effettiva tra i governi dei vari Paesi

Non ci si riferisce soltanto ad una diffusione massiva, nelle varie aree geografiche, delle sorgenti inquinanti. Si fa purtroppo riferimento anche agli effetti nocivi “a distanza” che ogni fonte d’inquinamento di fatto produce

Che l’inquinamento ambientale sia ormai diventato un problema planetario globale è, purtroppo, cosa nota. Tra altre cause, ne sono responsabili anche l’internazionalizzazione dei commerci e la circolazione degli inquinanti. Del resto, i dati delle ricerche in questo ambito parlano chiaro e, impietosamente, denunciano l’esigenza sempre più urgente di una collaborazione effettiva e sostanziale tra i governi dei vari Paesi, per affrontare insieme questo problema.
Quando si parla di “inquinamento globale” non ci si riferisce soltanto ad una diffusione massiva, nelle varie aree geografiche, delle sorgenti inquinanti. Si fa purtroppo riferimento anche agli effetti nocivi “a distanza” che ogni fonte d’inquinamento di fatto produce. Così che gli agenti inquinanti presenti in una determinata regione spesso diventano causa di danni e morti premature in gran numero anche in altri Paesi molto distanti. Queste sono dovute ad inquinanti prodotti in un altro Paese o associate a beni e servizi prodotti in una regione per essere consumati in un’altra. Lo dimostrano i dati davvero allarmanti di un recente studio (pubblicato su “Nature”), prodotto da un team internazionale di ricercatori, coordinati da Qiang Zhang, dell’Università di Tsinghua a Pechino, in Cina.
Come si sa, uno degli agenti inquinanti più “temibili” è il particolato fine con diametro inferiore a 2,5 micron (PM 2,5). Basti pensare che, solo nel 2007, esso è stato causa nel mondo di quasi tre milioni e mezzo di morti premature! Di queste, 411.000 (cioè, circa il 12%) sono accadute per effetto di agenti inquinanti prodotti in un altro Paese, mentre 762.000 (pari a circa il 22%) sono associate a beni e servizi prodotti in una regione per essere consumati in un’altra.
La “temibilità” del PM 2,5 è giustificata da varie ragioni. Anzitutto la sua vasta diffusione, essendo prodotto dal processo di combustione dei veicoli, degli impianti che producono energia, degli impianti di riscaldamento e da molte attività industriali. Inoltre, esso comporta gravi rischi per la salute, poiché rimane a lungo nell’atmosfera ed è in grado di penetrare in profondità nell’apparato respiratorio umano.
Cosi che respirare aria con un’elevata percentuale di particolato fine costituisce un fattore di rischio per molte patologie; alcune colpiscono l’apparato respiratorio (ad esempio, la broncopneumopatia cronica ostruttiva o il tumore del polmone); altre riguardano l’apparato cardiocircolatorio (malattie cardiache e ictus). Per grandi linee, si calcola che, ogni anno, le malattie dovute all’inquinamento dell’aria ammontino complessivamente ad alcuni milioni (molto più che qualsiasi guerra!).
Finora, gli studi in materia e le misure di contenimento dell’inquinamento e delle sue conseguenze hanno avuto il limite di tener conto solo delle emissioni locali.
Mentre crescono le prove scientifiche della dannosità indicano che gli effetti del particolato possono produrre anche a distanze enormi, a causa della circolazione atmosferica. A ciò, come già accennato, si aggiunge come concausa alla globalizzazione dell’inquinamento la pratica del commercio, che prevede la produzione di beni realizzati in una regione del mondo per essere poi consumati in un’altra.
L’ampio studio di Qiang Zhang e colleghi ha indagato per la prima volta il problema su scala globale, analizzando in ben 228 Paesi gli effetti sanitari della produzione di PM 2,5. Secondo i dati da loro raccolti, ad esempio, l’inquinamento da PM 2,5 prodotto in Cina nel 2007 è correlato a ben 64.800 morti premature in altre parti del mondo (3.100 delle quali in Europa occidentale e negli Stati Uniti). Ma risulta anche che il consumo di beni in Europa occidentale e Stati Uniti sia stato in qualche modo causa di più di 108.600 morti premature in Cina. Purtroppo, sono proprio le emissioni inquinanti della Cina ad occupare il primo posto nella triste classifica dei Paesi più nocivi: esse hanno causato un numero di morti premature più che doppio rispetto a quelle di qualunque altro paese, seguite da quelle dell’India e del resto dell’Asia.
Cosa dobbiamo ancora attendere, prima di decidere di invertire rotta e fermare questa follia autodistruttiva?

Dimmi come mangi e…

Un nuovo studio dimostra che il tipo di dieta assunta costituisce il più importante fattore predittivo per le dimensioni del cervello dei primati, persino più della complessità della loro organizzazione sociale

Dimmi come mangi e ti dirò… quanto è grande il tuo cervello! Possibile? Beh, forse non è proprio così, ma ci andiamo vicino.
Pare infatti che il tipo di dieta assunta costituisca il più importante fattore predittivo per le dimensioni del cervello dei primati, persino più della complessità della loro organizzazione sociale. Questo almeno afferma un nuovo studio (pubblicato su “Nature Ecology & Evolution”), condotto da Alex DeCasien e colleghi, della New York University. Una ricerca, questa, particolarmente autorevole, trattandosi dello studio di questo tipo più ampio (sono state esaminate ben 140 specie diverse, esclusi gli esseri umani) finora condotto, i cui risultati peraltro rimettono in discussione una convinzione largamente diffusa tra i biologi evoluzionisti: la cosiddetta ipotesi del “cervello sociale”.
Secondo questa teoria – elaborata verso la metà degli anni Novanta -, in una prospettiva evoluzionista, sarebbe la complessità sociale dei primati a costituire il fattore trainante per lo sviluppo della loro intelligenza; dunque, a una maggiore complessità sociale corrisponde una maggiore complessità cognitiva.
I sostenitori di questa ipotesi sono convinti che essa sia la giusta spiegazione della compresenza nei primati – e in particolare negli esseri umani – di un elevato livello di socialità, di capacità cognitive superiori agli altri animali e di cervelli con dimensioni relativamente ampie. In verità, in base agli studi sull’evoluzione delle dimensioni cerebrali nei primati fin qui condotti, risulta che, almeno in alcune specie, esiste effettivamente una correlazione tra le dimensioni medie del cervello e il numero medio di esemplari che vivono in un gruppo sociale. Il fatto, però, è che queste correlazioni perdono consistenza man mano che si prendono in considerazione altri parametri di complessità sociale, come ad esempio la pratica o meno della monogamia degli animali studiati. Né finora sono stati considerati altri fattori potenzialmente importanti, come quelli ambientali.
Nella loro ricerca, DeCasien e colleghi hanno approntato il più ampio database mai realizzato sulle dimensioni cerebrali di primati non umani, confrontando poi questi dati con vari parametri di socialità (dimensioni del gruppo, sistema sociale, comportamenti di accoppiamento e abitudini alimentari). Il risultato di quest’analisi è che le dimensioni cerebrali non mostrano alcuna correlazione con i parametri sociali. Al contrario, essi ne hanno una significativa con la dieta praticata. Ad esempio, si è potuto verificare che i primati che si nutrono di frutta hanno sviluppato un tessuto cerebrale più esteso (del 25%) rispetto a quelli che si nutrono di foglie, anche se non se ne conosce la ragione.
Del resto, il fatto che la dieta possa rappresentare un fattore evolutivo importante appartiene già alla cosiddetta “ipotesi ecologica”, in base alla quale una maggiore capacità cognitiva, nel suo insieme, sarebbe legata alla spinta selettiva connessa con le difficoltà di adattamento all’habitat; fra queste, la necessità di nutrimento.
Anche se a prima vista, il risultato di questo studio sembra smentire l’ipotesi del cervello sociale, in realtà non è esattamente così. Sono molte infatti le questioni ancora da chiarire. Il cervello è un organo con diversi “compartimenti”, che probabilmente si sono evoluti secondo uno schema a mosaico. In altre parole, la selezione naturale sembra aver agito soltanto su alcuni di essi e non su altri, che sono rimasti praticamente inalterati. È probabile perciò che la complessità sociale abbia esercitato la sua pressione evolutiva solo sulla neocorteccia (la parte più superficiale e recente del cervello), ma non sono ancora disponibili dati sullo sviluppo della neocorteccia nei primati, sufficienti a verificare questa ipotesi.

Cnr:«Un hub per la scienza del patrimonio culturale»

Prende il via la fase preparatoria dell’infrastruttura di ricerca europea per la scienza applicata al patrimonio culturale: E-RIHS PP – European Research Infrastructure for Heritage Science Preparatory Phase. Firenze candidata a ospitare la sede centrale europea. Il progetto è finanziato dall’Ue e guidato dal Cnr, con il patrocinio del Comune di Firenze e della Regione Toscana e con il supporto della Fondazione Cassa di Risparmio di Firenze

Si è tenuto ieri a Firenze, presso la Sala Capitolare della Caserma Redi (ex Convento del Maglio), il workshop internazionale ‘Towards a European Research Infrastructure for Heritage Science’, evento di avvio della fase preparatoria ‘E-RIHS PP – European Research Infrastructure for Heritage Science Preparatory Phase’, l’infrastruttura di ricerca europea per la scienza del patrimonio, unico dei sei nuovi progetti entrati nella Roadmap ESFRI (European Strategy Forum on Research Infrastructure) nel 2016 a guida italiana. Per questo avvio la Commissione Europea ha approvato un finanziamento di 4 milioni di euro sul programma di ricerca e sviluppo Horizon 2020. Il progetto è finanziato dall’Ue e sostenuto da Miur, Mibact, Mise, patrocinato da Comune di Firenze e Regione Toscana, con il supporto della Fondazione Cassa di Risparmio di Firenze che si è impegnata a mettere a disposizione l’immobile (cioè la Caserma Redi) nel caso Firenze diventi la sede permanente.

“L’Italia con il Cnr è il capofila dell’European Research Infrastructure for Heritage Science Preparatory Phase, il cui consorzio conta 15 Stati membri più Israele”, spiega il presidente del Consiglio nazionale delle ricerche (Cnr), Massimo Inguscio. “Per il nostro paese tre ministeri sostengono l’iniziativa: dell’Istruzione, università e ricerca (Miur) che è il ministero di riferimento, quelli dei Beni, attività culturali e turismo (Mibact) e dello Sviluppo economico (Mise). Lo scopo di E-RIHS è costituire un’unica infrastruttura di ricerca all’avanguardia a livello mondiale in materia di patrimonio culturale, naturale e archeologico, con laboratori e centri distribuiti in tutta Europa che offrano accesso a strumentazioni di alto livello scientifico, metodologie innovative e banche dati. La città di Firenze – con il patrocinio del Comune e della Regione Toscana – è la candidata europea a ospitare l’hub di questa infrastruttura di ricerca globale a guida italiana che aggregherà eccellenze della scienza e del patrimonio culturale in Italia e in Europa”.

Fanno parte di E-RIHS l’Istituto nazionale di fisica nucleare (Infn) e l’Agenzia nazionale per le nuove tecnologie l’energia e lo sviluppo economico sostenibile (Enea), il Consorzio universitario per lo sviluppo dei sistemi a grande interfase (Csgi) e il Consorzio interuniversitario nazionale per la scienza e tecnologia dei materiali (INSTM). Sono protagonisti della nascente infrastruttura europea anche istituti centrali del Mibact, in prima fila l’Opificio delle Pietre Dure (Opd) che ha sede a Firenze. Comprese nell’infrastruttura anche prestigiose istituzioni di ricerca tra cui il Museo del Prado di Madrid, la National Gallery of London, il CNRS-Centre national de la recherche scientifique (FR), il CSIC-Consejo Superior de Investigaciones Científicas (ES), il FORTH-Foundation for Research and Technology (GR), l’Istituto Archeologico Tedesco (DAI) e il Sincrotron SOLEIL (FR).

E-RIHS unisce – secondo un approccio integrato alla scienza del patrimonio (Heritage Science) – competenze quali metodologie fisiche applicate ai beni culturali, nuovi materiali per la conservazione e il restauro, archeologia digitale, e studiosi e professionisti quali archeologi, storici dell’arte, paleo-antropologi e paleontologi, restauratori, scienziati della conservazione. L’infrastruttura intende cioè aggregare scienze dure e umanistiche in un’ottica transdisciplinare, per affrontare i temi al patrimonio culturale, naturale e archeologico. E-RIHS sarà organizzata in quattro piattaforme: Molab per gli strumenti mobili per analisi non-invasive sul patrimonio da realizzare in-situ; Fixlab costituito da grandi infrastrutture quali sincrotroni, sorgenti di neutroni, acceleratori per datazioni e caratterizzazione dei materiali d’interesse; Archlab che comprende archivi fisici in gran parte inediti, contenuti in musei, gallerie e istituti di ricerca europei; Digilab per l’accesso diretto a banche dati e biblioteche digitali.

La fase operativa avrà una durata di tre anni (2017-2019), durante i quali saranno definiti i principali assetti del funzionamento dell’infrastruttura: ‘governance’, piano economico, regolamenti e logistica, sede legale e operativa del consorzio europeo d’infrastruttura di ricerca (ERIC) del quale sono state avviate le procedure di costituzione da parte dei Paesi europei coinvolti. L’ERIC è un soggetto giuridico speciale riconosciuto in tutti i paesi membri dell’Unione e in quelli associati. Ne fanno parte gli stati membri, che aderiscono a livello governativo indicando i loro attuatori scientifici nazionali.

La città di Firenze si candida ad ospitare l’hub europeo di questa infrastruttura all’interno della Caserma Redi: quasi 3.000 mq saranno messi a tale scopo a disposizione grazie al supporto della Fondazione Cassa di Risparmio di Firenze. La Caserma Redi è una struttura sanitaria, attualmente in uso all’Istituto geografico militare, rientrante nell’accordo tra ministero della Difesa, Comune di Firenze e Agenzia del Demanio per la razionalizzazione e la valorizzazione di alcuni immobili militari presenti sul territorio fiorentino.

 

Scienza «il cervello e il traffico».Come orientarsi?

I meccanismi del cervello durante l’orientamento nelle grandi aree urbane

Quanta difficoltà ad orientarsi per le contorte strade di una grande metropoli. E talvolta può succedere che, nonostante tutti nostri sforzi… finiamo pure per perderci!
Ma, panico a parte, cosa accade davvero nel nostro cervello quando tentiamo di muoverci (senza l’ausilio di un navigatore satellitare) in un contesto urbano complesso e sconosciuto?
Ha provato a rispondere a questo quesito una recente ricerca (pubblicata su “Nature Communications”), condotta da un team internazionale di studiosi, coordinati da Hugo Spiers, ricercatore dell’University College di Londra.
Secondo i risultati dello studio, è la parte del cervello chiamata “ippocampo” che, in due sue parti distinte, s’incarica di elaborare le complesse informazioni che permettono alla nostra mente di orientarsi e di muoversi per le strade di una città.
Per giungere a questo risultato, i ricercatori hanno analizzato l’attività cerebrale di un gruppo di volontari, mentre erano impegnati a “spostarsi” all’interno di una mappa virtuale di Londra.
Già diversi studi di neuropsicologia, elettrofisiologia e “imaging” cerebrale avevano evidenziato come sia l’ippocampo a sovraintendere al recupero dei ricordi che ci consentono di simulare il futuro. E proprio attraverso questa capacità ciascuno di noi riesce ad orientarsi in un ambiente, decidendo quale strada seguire, in base alle esperienze passate. Bene, questa nuova ricerca ha anzitutto dimostrato che l’attività dell’ippocampo diminuisce notevolmente, fino ad azzerarsi del tutto, quando si seguono le indicazioni di un navigatore satellitare.
In precedenti studi, Spiers e colleghi avevano già osservato che nel cervello di alcuni tassisti londinesi, impegnati in percorsi di formazione alla loro professione, l’apprendimento delle vie di Londra aveva comportato un aumento della materia grigia proprio nella zona cerebrale dell’ippocampo.
In questa ricerca, per verificare il coinvolgimento dell’ippocampo nei compiti di navigazione spaziale, il team di studiosi ha chiesto a 24 volontari di studiare la mappa del quartiere londinese di Soho. Acquisita una certa familiarità con la mappa, ai soggetti veniva quindi mostrata la foto di un luogo specifico, con la richiesta di dirigersi verso di esso, orientandosi all’interno di una mappa virtuale e percorrendo la via più breve.
Durante lo svolgimento di questo compito, sono state rilevate le immagini cerebrali dei partecipanti. Esse hanno mostrato come sia la porzione anteriore destra dell’ippocampo ad elaborare le informazioni relative ai dettagli della strada imboccata, mentre tocchi alla porzione posteriore destra simulare le future rotte possibili.
Inoltre, quando i soggetti erano obbligati a cambiare rotta, alcune aree della corteccia prefrontale – una regione cerebrale responsabile della valutazione delle potenziali azioni future – entravano in attività per la ripianificazione del percorso.
“Entrando nelle Seven Dials – ha spiegato Spiers – una piazza dell’area di Covent Garden dove si congiungono sette strade, l’attività dell’ippocampo dei volontari risultava aumentata, mentre in una via senza uscita diminuiva fortemente: quando si hanno difficoltà di orientamento nelle strade di una città, all’ippocampo e alla corteccia prefrontale viene richiesto un grande sforzo”.
Dunque è così che il nostro il nostro cervello calcola le diverse possibilità future di spostamento, rivalutandole e ripianificandole quando il percorso scelto all’inizio non è più praticabile.
Spiers e colleghi hanno anche voluto analizzare le reti stradali delle maggiori città del mondo, per delineare quanto possa essere facile orientarvisi. Ebbene, dato il suo intrico di piccole vie, Londra rappresenta una vera sfida per l’ippocampo. Mentre, ad esempio, risulta molto più semplice orientarsi a Manhattan, grazie al suo tipico schema stradale a griglia.

Una migrazione che non si può fermare: micro organismi dal Sahara alle Alpi

Pubblicata su «Microbiome» una ricerca di Fondazione Edmund Mach, Istituto di biometeorologia del Cnr, Università di Firenze, Innsbruck, Venezia. Studiando la polvere sahariana depositata e ‘sigillata’ sulla neve delle Alpi dolomitiche, sono state identificate migrazioni di micro organismi dalle aree sahariane. Si tratta di uno degli effetti del cambiamento climatico e dell’uso del suolo

Il cambiamento climatico e l’uso del suolo stanno provocando migrazioni che non si possono fermare, quelle dei microorganismi. Un team multidisciplinare di microbiologi, geologi, chimici e bioclimatologi di Fondazione Edmund Mach di San Michele all’Adige, Istituto di biometeorologia del Consiglio nazionale delle ricerche (Ibimet-Cnr) , Università di Firenze, Venezia e Innsbruck, ha studiato la carica microbica di uno tra i più intensi eventi di trasporto di polveri sahariane che ha raggiunto le Alpi nel 2014, pubblicando i risultati sulla prestigiosa rivista «Microbiome».

Questa grande tempesta ha depositato enormi quantità di polvere sahariana sulle Alpi dolomitiche che è stata poi sigillata tra strati di neve ‘pulita’. Ciò ha permesso una determinazione precisa di microrganismi associati alla deposizione. Nei campioni di neve raccolti su Marmolada e Latemar, i ricercatori hanno trovato prove che le grandi tempeste di polvere possono muovere non solo frazioni, ma intere comunità microbiche (batteri e funghi) dalle aree sahariane all’Europa e che questo microbiota contiene molti organismi estremamente resistenti e in grado di sopravvivere in ambienti diversi.

Il team interdisciplinare è guidato da Tobias Weil (Fem), Duccio Cavalieri (Università di Firenze) e Franco Miglietta (Ibimet-Cnr, Foxlab) che hanno coordinato esperti in geologia, ambiente, meteorologia, microbiologia e bioinformatica di Fondazione Edmund Mach, Consiglio nazionale delle ricerche, Università di Firenze, Innsbruck, Venezia.

“L’idea di studiare un eccezionale evento invernale”, spiegano i ricercatori, “ha consentito di scoprire quasi intere comunità di microbi Sahariani, trasportate dal vento e congelate in uno strato di neve rosa, isolato sotto lo zero dagli strati precedenti e dai successivi”. L’analisi delle firme genetiche dei batteri e funghi congelati e delle comunità microbiche dei suoli ha consentito di verificare che alcuni di questi microbi sahariani sopravvivono anche dopo lo scioglimento delle nevi, probabilmente perché presenti in grandi quantità. Quanto scoperto suggerisce che il cambiamento climatico e l’aumentata frequenza di questi eventi possa cambiare in modo significativo le comunità microbiche dei nostri suoli, trasportando intere comunità microbiche molto lontane.

Accettando la sfida lanciata recentemente dalle Nazioni Unite per l’implementazione di azioni di monitoraggio e protezione in materia di tempeste di sabbia e polvere dovuto a trasporto di lungo raggio, gli autori indicano metodologie rapide ed efficaci per monitorare i rischi associati alla fusione di neve e ghiacciai contaminati da popolazioni microbiche che arrivano da lontano. Una strada per arrivare a sistemi efficaci di allerta precoce.

Questo studio è stato reso possibile dalle moderne e sofisticate strumentazioni di ricerca: tra queste la metagenomica e biologia computazionale di Fem. “Da quando tecniche di sequenziamento di ultimissima generazione hanno dato all’uomo la possibilità di vedere microorganismi senza coltivarli su piastra, ma identificandoli direttamente dalla ‘firma’ del DNA, si è scoperto che i batteri e i funghi sono in tutti gli ambienti, inclusa l’aria, le nubi e il vento”, concludono i ricercatori.

Un nuovo modello di hard disk

Le novità di una ricerca – di recente pubblicata su Nature -, condotta da un team internazionale, coordinato da Fabian Natterer, fisico dell’École polytechnique fédérale de Lausanne, in Svizzera

Se l’hard disk mi diventa atomico! No, non per esagerare, ma per prefigurare ciò che presto potrebbe essere realtà.
Come è noto, l’hard disk (disco rigido) è un dispositivo di memoria, con supporto magnetico, per immagazzinare dati informatici (file, programmi e sistemi operativi). Al suo interno, normalmente, c’è un disco diviso in aree magnetizzate, ciascuna simile ad una piccola barretta magnetica. Più le aree magnetizzate sono piccole, più densamente possono memorizzati i dati. Dunque, i ricercatori del settore cercano di ottenere barrette sempre più piccole.
Ma c’è un problema! Dividendo infatti in più parti un magnete, si ottengono altrettanti magneti più piccoli. Ripetendo l’operazione, ovviamente, si aumenta il numero di magneti ottenuti. Ma al di sotto di una certa dimensione, essi cominciano a diventare “instabili”, nel senso che i loro campi magnetici tendono a invertire le polarità da un momento all’altro.
Ritornando all’interno dell’hard disk, bisogna sapere che i campi delle aree magnetizzate possono puntare verso l’alto o verso il basso. Ciascuna direzione rappresenta un 1 o uno 0, un’unità di dati nota come “bit”. Abbiamo già ricordato come più le aree magnetizzate sono di piccole dimensioni, maggiore è la quantità di dati che possono memorizzare. Ma per funzionare correttamente, esse devono essere stabili, in modo che gli 1 e gli 0 all’interno del disco rigido non cambino accidentalmente.
Ed ecco la novità. I fisici sono finalmente riusciti a creare un magnete stabile da un singolo atomo! Stiamo parlando di una ricerca – di recente pubblicata su Nature -, condotta da un team internazionale, coordinato da Fabian Natterer, fisico dell’École polytechnique fédérale de Lausanne, in Svizzera.
Il dispositivo riscrivibile approntato dal gruppo di studiosi è formato da due barrette magnetiche, e può memorizzare solo due bit di dati. Ma, secondo il loro parere, se riprodotto su scala maggiore, potrebbe aumentare anche di 1000 volte la densità di immagazzinamento dei dati di un hard disk!
“È una pietra miliare – commenta Sander Otte, fisico della Delft University of Technology, nei Paesi Bassi -. Finalmente, è stata dimostrata in modo indiscutibile la stabilità magnetica in un singolo atomo”.
I bit commerciali attualmente reperibili sono in genere costituiti da circa un milione di atomi. Ma, tentando vari esperimenti, gli esperti di fisica hanno progressivamente ridotto il numero di atomi necessari per memorizzare un bit, passando dai 12 atomi del 2012 a un unico atomo ora. In questo esperimento, i ricercatori hanno scelto di usare atomi di olmio, posti su un foglio di ossido di magnesio e mantenuti ad una temperatura inferiore ai 5 kelvin. In effetti, l’olmio è particolarmente adatto allo stoccaggio a singolo atomo, perché ha molti elettroni spaiati che creano un forte campo magnetico, e questi elettroni si trovano in un’orbita vicina al centro dell’atomo, dove sono schermati dall’ambiente. Questo conferisce all’olmio un campo intenso e stabile.
Per scrivere i dati su un singolo atomo di olmio, il gruppo ha usato un impulso di corrente elettrica da una punta magnetizzata di un microscopio a effetto tunnel, che può invertire l’orientamento del campo dell’atomo tra uno 0 e un 1. Nei test, i magneti si sono dimostrati stabili: ciascuno ha conservato i propri dati per diverse ore e il gruppo non ha mai osservato una inversione involontaria.
Natterer riferisce poi che i suoi colleghi dell’École polytechnique fédérale de Lausanne stanno tentando di approntare nuovi metodi per realizzare grandi schiere di magneti a singolo atomo.
Ma per ora il sistema a 2 bit è ancora lontano dalle applicazioni pratiche e molto in ritardo rispetto ad un altro tipo di archiviazione a singolo atomo, che codifica i dati nelle posizioni degli atomi, invece che nella loro magnetizzazione, e ha già costruito un dispositivo di archiviazione dati riscrivibile da 1-kilobyte (8192-bit).

Perché credere?

Power ha studiato per 20 mesi il modo in cui le pratiche religiose influenzano la vita personale e sociale degli abitanti di due villaggi dell’India meridionale, Tenpatti e Alakapuram

L’esperienza religiosa ha costantemente accompagnato il cammino dell’umanità, in ogni sua epoca, esprimendosi con modalità e linguaggi diversi. E ancora oggi, si calcola che circa l’80% della popolazione mondiale viva con un atteggiamento “religioso”, facendo riferimento ad un qualche tipo di fede.
Questa fondamentale dimensione umana non ha certo mancato di suscitare anche l’attenzione e la curiosità degli studiosi, magari interessati ad aspetti particolari (e “parziali”) della religiosità.
Ad esempio, la psicologia evoluzionistica ha ritenuto d’interrogarsi su quale vantaggio evolutivo possa eventualmente dare la fede religiosa all’individuo che la pratica. E, in un recente studio, pubblicato sulla rivista “Nature Human Behaviour” e condotto da Eleanor Power, del Santa Fe Institute, si sarebbe giunti alla conclusione che le attività religiose consentono a chi vi partecipa di stabilire legami sociali più forti con i membri del proprio gruppo.
A dire il vero, finora i vari studi psicologici del comportamento religioso spesso sono stati condotti in condizioni di laboratorio (“artificiali”). E in queste particolari condizioni, alcuni di essi hanno indicato che il comportamento religioso può favorire alcune qualità prosociali come la generosità e l’affidabilità. Ma sono davvero poche le ricerche in questo campo, condotte in condizioni di vita reale.
Per tentare di colmare questa lacuna, Power ha studiato per 20 mesi il modo in cui le pratiche religiose influenzano la vita personale e sociale degli abitanti di due villaggi dell’India meridionale, Tenpatti e Alakapuram.
Stiamo parlando di comunità dove la maggior parte dei residenti vive in condizioni di povertà e non ha certo accesso ad un conto bancario. Di conseguenza, ciascuno di essi può contare solo sul sostegno della famiglia e degli amici nello svolgimento dei lavori agricoli, nella costruzione degli edifici e nelle altre attività quotidiane fondamentali. La gente vive in villaggi relativamente piccoli, con circa 400 residenti adulti, distribuiti in 200 abitazioni.
Ma nonostante numeri così esigui, in questi raggruppamenti umani sono rappresentate diverse caste e differenti religioni. Tra queste, l’induismo è la fede più seguita. Ma sono presenti anche cristiani cattolici, protestanti ed evangelici, raggruppati in un’unica casta. Normalmente, sia le caste che i gruppi religiosi mantengono tra loro buone relazioni, anche se la discriminazione di casta è ancora tangibile.
In questo scenario sociale, utilizzando un metodo statistico chiamato “modello grafico casuale esponenziale”, la Power ha analizzato le relazioni interpersonali degli abitanti dei villaggi, cercando d’individuarne la possibile correlazione con le pratiche religiose. I dati raccolti hanno messo in evidenza con forza la tendenza generale a chiedere supporto preferenzialmente alle persone che frequentano regolarmente le funzioni religiose, o a quelle coinvolte in atti religiosi più evidenti e costosi (in termini di tempo e risorse). La ragione di ciò? Esse sono giudicate più affidabili e generose rispetto agli altri. Il supporto ricevuto viene poi, in genere, ricambiato. Si costruiscono così salde relazioni umane di mutuo aiuto.
Una conferma di questa tendenza viene anche dal confronto con altre caratteristiche personali, che potrebbero influenzare la reputazione individuale; ad esempio, avere possedimenti e ricchezze sembra avere un impatto trascurabile o addirittura negativo sulle relazioni interpersonali. Inoltre, le manifestazioni religiose rappresentano un’occasione per conoscere altre persone o per approfondire un rapporto interpersonale.
“Gli atti religiosi – spiega Power – possono acquisire un senso notevole quando si guarda al loro beneficio sociale. Perciò se la pratica religiosa influenza la probabilità di stringere queste relazioni e la loro qualità, influenza anche la capacità degli individui di far fronte alle incertezze e alle difficoltà della vita”.
Insomma, un’ulteriore conferma sperimentale del fatto che, aprirsi all’esperienza religiosa, giova all’essere umano da molti punti di vista.

 

Chef, che materia grigia!

Ricercatori Ibfm-Cnr, in collaborazione con la Federazione italiana cuochi, hanno analizzato per la prima volta, tramite risonanza magnetica e test neuropsicologici, il cervello degli head Chef. Ne emergono fenomeni di plasticità neurale e particolari abilità motorie e cognitive legati alla dimensione della brigata squadra da coordinare in cucina. Lo studio è pubblicato su Plos One

Anche gli chef, come già provato per i musicisti e gli alpinisti, presentano un cervelletto più sviluppato rispetto alle persone che svolgono altri lavori. A rivelarlo uno studio dell’Istituto di bioimmagini e fisiologia molecolare del Consiglio nazionale delle ricerche (Ibfm-Cnr) di Catanzaro pubblicato sulla rivista Plos One. I ricercatori si sono chiesti se il lavoro di direzione di cucina possa produrre un iper-sviluppo cerebrale e rendere più abili e veloci: le attività che richiedono un continuo aggiornamento e perfezionamento delle capacità acquisite nel tempo sono infatti di fondamentale interesse scientifico. “Le neuroscienze si sono sempre occupate di musicisti, scacchisti, taxisti e sportivi, dimostrando che l’allenamento finalizzato al miglioramento delle proprie prestazioni produce fenomeni di plasticità neurale rilevabili con le tecniche di risonanza magnetica”, spiega Antonio Cerasa, ricercatore Ibfm-Cnr, che ha ideato e coordinato lo studio. “Nessuno, però, aveva mai studiato gli chef, una categoria di lavoratori impegnati per lunghi periodi di tempo in un’attività motoria e soprattutto cognitiva molto particolare”. Il gruppo di ricerca ha sottoposto undici emergenti head chef della Calabria, selezionati dalla Federazione italiana cuochi (Fic), a un esame di risonanza magnetica e a una lunga serie di test neuropsicologici.“Volevamo scoprire se questa categoria possedesse una particolare abilità cognitiva associata ad un cambiamento strutturale del cervello”, prosegue il ricercatore del Cnr. “Le neuroimmagini ci hanno rivelato che in effetti il loro cervelletto, la parte del cervello conosciuta per il suo ruolo essenziale nella coordinazione motoria e nella programmazione cognitiva di atti motori, presenta un aumento di volume della materia grigia”, continua Cerasa.

Dai test è anche emerso che le variabili associate all’aumento di volume cerebrale sono la dimensione della brigata (il numero dei componenti della squadra in cucina) e le abilità nello svolgere un compito di pianificazione motoria. “Più persone devo coordinare in cucina, più sono veloce a programmare nella mia mente le azioni che dovrò compiere nel tempo, più il cervelletto aumenta di volume”, sintetizza il ricercatore dell’Ibfm-Cnr. “Questi risultati confermerebbero che l’allenamento produce modifiche a lungo termine sia a livello comportamentale sia a livello organico, rendendo il cervello degli chef ‘speciale’ come quello di altri expert brains già studiati dalla letteratura scientifica”.

Carmelo Fabbricatore, presidente della sezione Fic di Calabria, aggiunge: “La ricerca realizzata assieme all’Ibfm-Cnr dimostra che le basi del nostro insegnamento sono oggettive e seguono il solco tracciato dallo chef francese Auguste Escoffier, che vedeva nell’allenamento e nella preparazione i fondamenti della nostra professione”. Tuttavia, avverte Cerasa, “si tratta di dati preliminari che richiedono successive verifiche, dato che questa ricerca non definisce il grado di competenza di uno chef. Al momento non esiste, cioè, un metro scientificamente validato per stabilire quanto sia più bravo, abile o creativo uno chef rispetto a un altro, al contrario di quanto ad esempio avviene per le categorie dei matematici o dei musicisti”.

Sette pianeti per sette misteri. Scoperto un sistema extrasolare abitabile. Che non vuol dire abitato…

Siamo sempre meno soli. Mercoledì 22 febbraio, la Nasa ha annunciato la scoperta di un sistema extrasolare di 7 pianeti simili alla terra. La notizia rimbalza su tutti i giornali da giorni con una valanga di informazioni. Ma come sempre ogni nuova scoperta porta a molte nuove domande, per gli scienziati e per la società nel suo complesso.

Casa è stato scoperto? Trappist-1 non è certo il primo sistema extrasolare in cui ci imbattiamo. La sua peculiarità sta nel tipo di pianeti che orbitano intorno alla stella: 7 pianeti rocciosi (come il nostro), tre dei quali nella fascia abitabile (zona orbitale che permette la presenza di acqua liquida). In questo consiste l’eccezionalità dell’osservazione.

C’è vita su questi pianeti? Abitabile non equivale ad abitato. Certo, un sistema per certi versi così simile al nostro è un forte stimolo per la ricerca di indizi della presenza di vita (ad esempio un’atmosfera con prodotti dell’attività biologica).

Vita intelligente? Il fatto che la stella intorno alla quale ruotano i pianeti sia più piccola del sole e quindi, come ci insegnano le leggi dell’astrofisica, ancora più longeva, potrebbe aver permesso a una eventuale civiltà aliena di svilupparsi. O di estinguersi, visto quello che combiniamo noi sulla Terra. È comunque ancora presto per sentirsi osservati…

Come sarebbe viverci? Le ridotte dimensioni del sistema Trappist-1 fanno sì che l’anno alieno duri appena una manciata di giorni e che i pianeti rivolgano alla stella sempre la stessa faccia. Insomma le vacanze arrivano presto ma sono insopportabilmente torride o gelide! L’unica zona gradevole è il confine tra la faccia illuminata e quella oscura.

Siamo pronti a queste notizie? La Nasa sicuramente sì, noi un po’ meno. La strategia comunicativa dell’ente spaziale americano è stata perfetta, annunciando eccezionalmente fin dal mattino una conferenza stampa. La stampa italiana invece è caduta più volte in errore, dimostrando di essere ancora impreparata a maneggiare la scienza. Bisognerebbe chiedere a chi ha scritto «la stella si trova ad appena 40 anni luce» quale mezzo di trasporto interstellare nasconde in garage.

Una società largamente disinteressata alle basi della conoscenza scientifica non può che restare perplessa di fronte alle ultime scoperte. Non abbiamo un sistema di riferimento solido nel quale inquadrare le novità. Bisogna ripartire dalle scuole o almeno ricordarsi quel poco di scienza che si è già studiato. Non vorremo mica far brutta figura con gli alieni?

Siamo pronti a non scoprire nulla? Malgrado il clamore che accompagna questi annunci potrebbero volerci decenni prima di scoprire tracce attendibili di vita extraterreste. Meno che mai è imminente un incontro ravvicinato del terzo tipo. Questo però non deve sminuire il valore e l’interesse delle conoscenze attuali. Come le infinite forme bellissime della biodiversità che tanto meravigliavano Darwin, anche ‘l’astrodiversità’, per così dire, dei migliaia di pianeti extrasolari scoperti, è di per sé una fonte di bellezza e stupore. Basta saperli guardare (o immaginare) nel modo giusto.

Dalla gioventù alla vecchiaia, la nostra personalità cambia

Non siamo sempre gli stessi; oltre alle cellule, anche la nostra personalità subisce nell’arco della vita un costante numero di cambiamenti, che ci fanno diventare in vecchiaia completamente diversi da quando eravamo giovani

Il nostro corpo non è l’unico a subire gli effetti degli anni che passano. Non sono solo le nostre cellule vengono costantemente sostituite per tutta la vita, ma anche il nostro modo di pensare e di comportarci cambia nel corso della nostra esistenza.

Un team di ricercatori dell’Università di Edimburgo è riuscito a dimostrare che la personalità umana cambierebbe radicalmente dalla giovinezza alla vecchiaia. Come a dire che la personalità di una persona a 14 anni è completamente diversa rispetto alla personalità della stessa a 77 anni.

La scoperta è di un team di ricercatori inglesi. Hanno analizzato i risultati di uno studio del 1947, che aveva coinvolto 1.208 adolescenti scozzesi di 14 anni e i loro insegnanti, ai quali era stata richiesta una valutazione sulla loro personalità. I docenti erano stati invitati a compilare sei questionari differenti, per valutare gli studenti su altrettanti tratti della loro personalità: fiducia in se stessi, perseveranza, coscienziosità, stabilità emotiva, originalità e desiderio di eccellere.

I risultati sono stati raggruppati in un unico punteggio complessivo che indicava un singolo tratto chiamato “affidabilità espressa”, caratteristica paragonabile alla coscienziosità.

Ora, a distanza di più di 60 anni, il team inglese è riuscito a ricontattare 635 degli allievi di allora, dei quali 174 hanno accettato di sottoporsi nuovamente al test sulla loro personalità.

Al gruppo di persone, che avevano ormai un’età media di 77 anni, è stato chiesto di valutare se stessi sui sei tratti della personalità, e chiedere, inoltre, a un amico stretto o un familiare di fare lo stesso test. I risultati, ancora una volta, sono stati riuniti nell’unico punteggio “affidabilità espressa”. Quando i ricercatori hanno confrontato i risultati dei due studi, non hanno trovato alcuna correlazione nella personalità che caratterizzava la loro adolescenza e quella invece presente nella vecchiaia.

Subiamo tanti piccoli cambiamenti di personalità nel corso della nostra vita e gli studi precedenti mancavano di un quadro più ampio. «Come risultato di questo cambiamento graduale, la personalità può apparire relativamente stabile negli intervalli brevi. Tuttavia, più è lungo l’intervallo tra le due valutazioni della personalità, più debole sarà il loro rapporto. Il nostro studio dimostra, quindi, che in un intervallo di 63 anni, non c’è praticamente alcuna relazione», concludono i ricercatori.

I meccanismi psicologici della “corruzione”

La via più probabile verso la corruzione è una singola e grande occasione di trarre un vantaggio personale

Mescolare “sic et simpliciter” le scelte morali con i meccanismi psicologici ad esse connessi è un’operazione alquanto rischiosa. Si rischia di appiattire una dimensione sull’altra e di perdere così lo specifico significato di ciascuna di esse.

Chiarito ciò, si può anche valorizzare l’apporto che alcune scienze umane, come la psicologia moderna, possono dare alla comprensione dei dinamismi che ci conducono ad operare scelte libere e consapevoli, quelle cioè che hanno uno spessore etico.

Su questo sfondo è interessante dare conto dei risultati di una recente ricerca (pubblicata sulla rivista “Psychological Science”), condotta da But Köbis e colleghi della Vrije Universiteit di Amsterdam, che ha indagato i meccanismi psicologici della “corruzione”, uno dei mali morali che più feriscono ed avviliscono la vita pubblica e privata nel nostro Paese.

In base a questa ricerca, sembra che la via più probabile verso la corruzione sia una singola, grande occasione di trarre un vantaggio personale da questa condotta moralmente riprovevole. Sarebbe quindi smentita la diffusa convinzione che, da un punto di vista psicologico, le persone si avvicinino gradualmente a comportamenti contrari all’etica.
Gli studiosi sono arrivati a questa conclusione sulla base di quattro diverse sperimentazioni sul campo.

Nel primo studio, condotto su 86 volontari, ai partecipanti è stato chiesto di impegnarsi in un gioco competitivo, che comprendeva cinque sessioni. In ognuna di esse, due giocatori, nel ruolo di amministratori delegati di due ditte di costruzioni, dovevano competere per aggiudicarsi un contratto lucroso. Il raggiungimento di tale obiettivo dipendeva dalla formulazione della miglior offerta ad un “pubblico ufficiale” (rappresentato in realtà da un programma per computer). L’articolazione del gioco era concepita in modo tale che ciascuno dei partecipanti potesse corrompere il “pubblico ufficiale” in diverse occasioni e, in questo modo, ottenere limitati vantaggi per le sessioni successive, oppure per la parte finale del gioco stesso, al fine di sgominare gli altri concorrenti ed aggiudicarsi definitivamente l’appalto, proprio grazie ad una consistente “mazzetta”!

Analizzando i dati raccolti, i ricercatori hanno così potuto verificare che i partecipanti erano più propensi a corrompere il “pubblico ufficiale” in un’unica occasione, piuttosto che a più riprese. Le sessioni successive del gioco hanno poi confermato il medesimo risultato, pur in presenza di elementi variabili. Nel secondo studio, variava l’entità del denaro utilizzato per corrompere; nel terzo, i partecipanti ricavavano un guadagno personale proporzionale alle offerte per aggiudicarsi l’appalto; nel quarto, prevedeva gli incentivi economici utilizzati erano molto più elevati.

“Si tratta di un risultato inatteso – spiega Nils Köbis -, perché sia intuitivamente che sulla base di considerazioni psicologiche teoriche, è più sensato pensare che il cammino verso un comportamento poco etico sia una lenta discesa; invece l’immagine più adatta per descriverlo è quello di una scogliera a picco, perché talvolta si verifica improvvisamente, spontaneamente e in modo inaspettato. Questo fenomeno si osserva specialmente quando le decisioni appaiono in rapida successione, perché probabilmente le persone sono riluttanti a farsi corrompere ripetutamente e vogliono invece trarre un grande beneficio con un singolo atto di corruzione”.

Ma c’è un altro dato fondamentale che la ricerca ha messo in evidenza: in tutti gli esperimenti i volontari erano ben consapevoli della trasgressione morale costituita dall’atto di corruzione messo in opera.

Questo, secondo il team di ricercatori, farebbe ipotizzare che, probabilmente, una singola trasgressione in risposta a un’opportunità improvvisa potrebbe essere più accettabile dal punto di vista psicologico e, quindi, più facilmente sostenibile, che non una serie ripetuta di trasgressioni.

Ma forse – ci permettiamo di aggiungere noi – il dato dimostra anche un’altra cosa: che la dimensione morale – al di là dei dinamismi psicologici coinvolti – rimane sempre quella determinate per le nostre scelte responsabili.

Patologie tumorali. Qualche speranza da una nuova e originale tecnica

Tra le malattie che ancora rappresentano una sfida aperta per la medicina, continuano a spiccare purtroppo le patologie tumorali. Molto si è fatto, conquistando ampi spazi di guarigione; tuttavia, ancora non si è giunti alla vittoria definitiva.
Nel frattempo, si è ampiamente consolidata la consapevolezza medica che molto si gioca sulla diagnosi precoce delle malattie tumorali, essendoci una proporzione diretta tra tempestività dell’intervento e probabilità di guarigione.
In quest’ottica, una recente ricerca (pubblicata su “Light: Science and Applications”, rivista del gruppo Nature), condotta da un team di giovani studiosi, presso l’Istituto di scienze applicate e sistemi intelligenti del Consiglio nazionale delle ricerche (Isasi-Cnr), a Pozzuoli, in collaborazione con il Consorzio Ceinge-biotecnologie avanzate, di cui fa parte l’Università di Napoli Federico II, ha messo a punto una nuova e originale tecnica per identificare cellule estranee – le cosiddette Ctc (Circulating Tumor Cells) -, circolanti all’interno del flusso sanguigno.
È noto che il sangue è composto da milioni di cellule, quali globuli rossi, bianchi, piastrine, linfociti. In genere, la diagnostica di malattie del sangue viene eseguita mediante emocromo, analisi in grado di fornire parametri statistici sulle cellule esaminate (volume cellulare, emoglobina, ecc. ). Per ottenere informazioni morfologiche è invece necessario studiare lo striscio di sangue al microscopio; ma con il limite di restringere l’analisi ad una piccola parte delle cellule e, inoltre, di elaborare un responso “soggettivo”, cioè dipendente dall’interpretazione del medico che studia l’immagine.
Ecco allora la novità: i risultati ottenuti e descritti nella nuova ricerca dimostrano la possibilità di effettuare una “cito-tomografia in flusso” su campioni liquidi, usando la tecnologia microfluidica o moce (Lab-on-a-Chip).
“Questa nuova tecnica di tipo interferometrico – spiegano gli autori dello studio -basata sull’olografia digitale, consente di analizzare anche milioni di cellule mentre scorrono in un canale microfluidico fornendo parametri quali l’emoglobina, al pari del classico emocromo. Inoltre è in grado di analizzare ogni singola cellula praticamente in tempo reale, ricostruendone l’immagine tridimensionale con una accuratezza senza precedenti”. “In questo modo – chiarisce Francesco Merola, coordinatore del gruppo – è possibile identificare cellule rare, sintomo precoce di eventuali patologie, che passerebbero inosservate a un’analisi tradizionale. La chiave della tecnica sta nello sfruttare la rotazione di 360° delle cellule mentre scorrono nel canale, questo ci consente di ricostruire la struttura tridimensionale di ogni cellula fino a dimensioni di millesimi di millimetro”.
Difatti, questa ricerca ha consentito di ottenere una tomografia di globuli rossi di pazienti con diverse forme di anemie, identificandole con precisione assoluta.
“Grazie alla particolare accuratezza di questa tecnica di imaging ottico – conclude Achille Iolascon del Ceinge, ordinario di genetica medica dell’Università Federico II -, anche la più piccola variazione morfologica rispetto al globulo rosso sano può essere rivelata, riconoscendo velocemente e oggettivamente l’eventuale malattia connessa: una sorta di biopsia liquida”.
Peraltro, “tramite questa tecnica sarà possibile studiare qualsiasi tipo di cellula, non solo quelle del sangue”, aggiunge Pietro Ferraro, direttore di Isasi-Cnr. “Infatti – grazie al contributo dei colleghi dell’Istituto di chimica biomolecolare (Icb-Cnr) – la validità è stata confermata anche con le diatomee, alghe cui si deve la produzione di oltre il 20% dell’ossigeno dell’intero pianeta, la cui presenza negli oceani è un importantissimo segnale di salute degli ecosistemi. I cloroplasti, gli elementi delle diatomee responsabili della fotosintesi, sono estremamente sensibili ai contaminanti presenti nell’acqua marina e la tecnica permette di ottenerne la forma completa tridimensionale, fornendo informazioni su un’eventuale contaminazione”.
Insomma, sembra proprio che i risultati di questa ricerca potranno avere un forte impatto sulla diagnostica oncologica, aprendo la strada alla possibilità di trovare il cosiddetto “ago nel pagliaio”, ovvero le cellule tumorali circolanti, primissimo segnale premonitore – finora inafferrabile – di possibili metastasi.

Medulloblastoma: in arrivo una nuova cura

A individuarla, un gruppo di ricercatori dell’Istituto di biologia cellulare e neurobiologia del Cnr. Lo studio, pubblicato su Frontiers in Pharmacology, evidenzia la capacità della chemokina Cxcl3 di bloccare questo tumore, frequente nell’infanzia, senza ricorrere a sostanze tossiche. Si sta studiando l’applicabilità nell’uomo del trattamento, brevettato dal Cnr

Il medulloblastoma è il più diffuso tumore cerebrale dell’infanzia e, nonostante l’accettabile tasso di sopravvivenza, la tossicità dei trattamenti oggi in uso, in particolare la radioterapia, lasciano nei pazienti danni gravi, tra cui disturbi cognitivi permanenti e neoplasie secondarie. Un gruppo di ricercatori dell’Istituto di biologia cellulare e neurobiologia del Consiglio nazionale delle ricerche (Ibcn-Cnr) di Roma mettendo a profitto l’esperienza derivata da un decennio di studi sullo sviluppo dei neuroni nel cervello e nel cervelletto (neurogenesi), ha dimostrato in vivo che dopo il trattamento con la proteina Cxcl3, anche se il tumore ha già iniziato a svilupparsi, il medulloblastoma non si forma più o scompare completamente. Lo studio è pubblicato su Frontiers in Pharmacology.

“Già nel 2012 avevamo identificato la chemokina Cxcl3 quale possibile target terapeutico, dimostrando che la mancanza di questa proteina si lega a un notevole aumento della frequenza del medulloblastoma, poiché i precursori cerebellari, cioè le cellule giovani che poi diventano neuroni, non riescono più a migrare al di fuori della zona proliferativa alla superficie del cervelletto e tendono a diventare neoplastici. Una permanenza eccessiva nella zona proliferativa rende cioè i precursori più suscettibili alle mutazioni che inducono la proliferazione incontrollata”, spiega Felice Tirone dell’Ibcn-Cnr, che ha guidato la ricerca in collaborazione con Manuela Ceccarelli e Laura Micheli. “Utilizzando questa informazione, abbiamo ora dimostrato che se un modello murino che sviluppa medulloblastoma con alta frequenza viene trattato per un mese per via intracerebellare con Cxcl3, a due mesi da quando il tumore ha già iniziato a svilupparsi, il medulloblastoma non si forma più o scompare completamente”.

La peculiarità di questo studio è la procedura totalmente diversa da quelle in uso, che si basano sul blocco della proliferazione dei precursori cerebellari neoplastici mediante sostanze tossiche. “Il nostro approccio sfrutta invece la plasticità residua del precursore cerebellare neoplastico, in quanto Cxcl3 ne forza la migrazione al di fuori della zona proliferativa del cervelletto verso la parte interna, dove i precursori neoplastici differenziano, uscendo definitivamente dal programma di sviluppo del tumore”, precisa il ricercatore.

Si sta ora studiando l’applicabilità nell’uomo di questo trattamento, che è stato brevettato dal Cnr (Cxcl3 chemokine for the therapeutic treatment of medulloblastoma, Patent WO 2014053999 A1). “Cxcl3 sembra essere privo di tossicità anche ad alte dosi, ma resta da chiarire se la plasticità dei precursori cerebellari tumorali, cioè la capacità di differenziare dopo la migrazione, permane a stadi più avanzati del tumore”, conclude Tirone. “Un’applicazione possibile sarebbe nella sindrome di Gorlin, dove il medulloblastoma è trasmesso geneticamente (frequenza 1:50.000), e quindi la sua insorgenza è più prevedibile e monitorabile sin dalle fasi iniziali di sviluppo”.

Questa ricerca è stata finanziata con una borsa di studio della Fondazione italiana per la ricerca sul cancro assegnata a Manuela Ceccarelli nel 2014 e dal progetto Fare Bio del Ministero dello sviluppo economico assegnato a Felice Tirone.

Allenare il corpo e la mente contrasta la demenza senile

Uno studio, condotto dall’Istituto di neuroscienze e dall’Istituto di fisiologia clinica del Cnr, dimostra che è possibile contrastare il decadimento cognitivo dell’anziano e l’Alzheimer con attività ludiche, logiche, motorie e sociali. L’esperimento è stato condotto in una struttura attrezzata nell’Area Cnr di Pisa. La ricerca è pubblicata su Scientific Reports

L’Italia è uno dei Paesi europei col maggior numero di anziani e oltre un milione di questi presenta un forte deficit cognitivo o forme di demenza senile grave, come la malattia di Alzheimer. Per quest’ultima patologia, non esistendo terapie efficaci, è importante attuare interventi di rallentamento del deterioramento cognitivo partendo dagli stadi iniziali della malattia. Del problema, destinato ad aumentare a seguito del progressivo incremento della popolazione in età avanzata, si sono occupati i ricercatori dell’Istituto di neuroscienze (In-Cnr) e dell’Istituto di fisiologia clinica (Ifc-Cnr) del Consiglio nazionale delle ricerche di Pisa verificando un chiaro miglioramento dello stato cognitivo e della funzionalità cerebrale nei soggetti anziani con diagnosi di danno cognitivo lieve sottoposti a un programma di allenamento cognitivo e motorio. I risultati sono pubblicati da Scientific Reports (gruppo Nature).

“Quando impegniamo il cervello in attività cognitivamente complesse e in un contesto sociale e giocoso, i circuiti neurali vengono stimolati e rimodellati mediante la produzione di fattori neurotrofici che favoriscono la plasticità cerebrale”, spiega Lamberto Maffei, vice presidente dell’Accademia dei Lincei, e coordinatore della ricerca. “Anche nella terza età non è mai troppo tardi: i neuroni rispondono agli stimoli con effetti sorprendenti per il benessere cerebrale, consentendo di attuare una vera strategia anti-invecchiamento”.

Questo concetto è stato applicato, nello studio Train the Brain, attraverso uno specifico programma di allenamento, su anziani con diagnosi di danno cognitivo lieve (Mild Cognitive Impairment-Mci), a rischio di evolvere verso forme gravi di demenza. “Gli anziani selezionati sono stati accolti, per sette mesi e per tre mattine a settimana, nell’Area della ricerca del Cnr di Pisa in una struttura appositamente creata e attrezzata con una palestra, in un contesto ricreativo e rilassante, con ampio spazio per le attività di gruppo e la musicoterapia e con ambienti dedicati alla stimolazione cognitiva basata, per esempio, su compiti di memorizzazione di volti e parole, esercizi di logica, giochi di attenzione”, spiegano i ricercatori Alessandro Sale e Nicoletta Berardi dell’In-Cnr. “I soggetti, accompagnati dai loro familiari, hanno fin da subito mostrato di gradire molto la partecipazione alle attività proposte e i risultati sono stati sorprendenti: gli stimoli ambientali hanno arrestato il decadimento cognitivo nei partecipanti, con effetti riscontrabili anche a livello dei parametri di funzionalità cerebrale valutati con le più moderne tecniche di imaging. Questi risultati possono avere importanti applicazioni in campo clinico per la malattia di Alzheimer e per altre forme di demenza senile: l’arricchimento ambientale costituisce una via molto promettente per stimolare la plasticità in maniera fisiologica e non invasiva, in una fascia di popolazione che spesso vive invece in condizioni inadeguate e povere di stimoli”.
Lo studio Train the Brain è stato svolto in collaborazione con l’Università di Pisa e l’Ircss Stella Maris ed è stato finanziato dalla Fondazione Pisa.

Le emozioni condizionano la vita

Una recente ricerca dimostra che le lasciano nella nostra mente un’impronta che influenzare le esperienze future.

Le emozioni, una fondamentale dimensione del nostro essere, che ne condiziona molte funzioni e capacità. A risentirne gli effetti, ad esempio, è la nostra capacità di memoria. E’ esperienza comune a molti di noi, infatti, che le esperienze fortemente connotate dal punto di vista emotivo di solito sono ricordate meglio e per un tempo più lungo.

Ma una recente ricerca (pubblicata su “Nature Neuroscience”), realizzata da un gruppo di neuropsicologi della New York University (Usa), ha dimostrato come l’impronta che le emozioni lasciano nella nostra mente vada ben oltre la semplice permanenza temporale, finendo invece per influenzare anche quello che si sperimenta in seguito, anche se si tratta di cose banali.

Lo studio è stato condotto su dei soggetti volontari, che sono stati divisi in due gruppi, per testare percorsi di ricerca differenti. Al primo gruppo è stata mostrata una serie di immagini con forte contenuto emotivo. Quindi, trascorso un periodo di tempo variabile tra 10 e 30 minuti, una seconda serie di immagini emotivamente “neutre”. Al secondo gruppo, invece, sono state mostrate le due stesse serie di immagini, ma in ordine inverso: prima quelle neutre e poi quelle ad alto contenuto emotivo.

In entrambi i casi, mentre i soggetti si sottoponevano ai test, gli sperimentatori hanno effettuato su di loro misurazioni di conduttanza cutanea, che rappresenta un indice dello stato di eccitazione fisiologica, e scansioni cerebrali di risonanza magnetica funzionale (tecnica che evidenzia le specifiche aree cerebrali attivate mentre il soggetto è impegnato in un determinato compito). Dopo un periodo di circa 6 ore, entrambi i gruppi sono stati sottoposti ad un test di memoria, per verificare se e come ricordassero le immagini viste in precedenza.

Ebbene, l’analisi dei dati ottenuti ha mostrato con chiarezza come le immagini “neutre” erano ricordate meglio e per un tempo più lungo dal gruppo di soggetti cui erano state mostrate per prime le immagini con forte contenuto emotivo. Sono state poi le scansioni di risonanza magnetica funzionale a fornire un’adeguata spiegazione di questo risultato. In pratica, gli stati mentali associati alle esperienze emotivamente cariche restavano sostanzialmente invariati per circa 20-30 minuti dopo l’esposizione alle immagini che li avevano originati. Questa notevole permanenza influiva quindi sulle modalità con cui i soggetti elaboravano (e quindi ricordavano) le successive esperienze, anche quando tali esperienze successive possedevano un basso tenore emotivo.

“Il modo in cui ricordiamo gli eventi – ha spiegato Lila Davachi, associate professor del Dipartimento di psicologia della New York University, autore senior dello studio – non è influenzato solo dagli eventi del mondo esterno di cui abbiamo percezione, ma è anche fortemente plasmato dai nostri stati interni, che durano a lungo e ‘colorano’ le nostre esperienze. L’emozione è uno stato mentale: questi risultati dimostrano che le nostre capacità cognitive sono fortemente influenzate dalle precedenti esperienze, e che nello specifico gli stati mentali legati all’emozioni possono durare per lunghi periodi di tempo”.

Un figlio lascia il segno.Una recente ricerca ha potuto verificare che la gravidanza comporta anche dei cambiamenti strutturali nel cervello della madre.

Divenire madre, un’esperienza così radicale da lasciare sigilli indelebili nella donna. Persino a livello anatomo-fisiologico. Una recente ricerca (pubblicata su “Nature Neuroscience”), condotta da un gruppo di neuroscienziati dell’Università Autonoma di Barcellona, infatti, ha potuto verificare che la gravidanza comporta anche dei cambiamenti strutturali nel cervello della madre. Queste variazioni anatomiche riguardano in modo specifico alcune regioni cerebrali coinvolte nella “cognizione sociale”; in pratica, si tratta di quelle zone adibite all’elaborazione delle immagini del bambino che la madre sviluppa durante la gravidanza. Tali cambiamenti sono così evidenti che, dal loro esame, si può stabilire se una donna ha avuto figli oppure no.
Da dove parte questa ricerca? È cosa nota per gli studiosi il fatto che la gravidanza comporti dei drastici cambiamenti fisiologici e fisici per la donna, soprattutto a causa degli accentuati picchi ormonali rilasciati dal corpo della donna in quel periodo. In particolare, già si sapeva che i significativi cambiamenti ormonali che caratterizzano la fase puberale sono in grado di modulare struttura e funzionalità del cervello femminile. Quello che ancora non si conosceva era quali fossero gli effetti cerebrali delle variazioni ormonali che avvengono durante la gravidanza, dato che questi sono molto più intensi di quelli tipici dell’età adolescenziale.
Per dare risposta a questo quesito, il nuovo studio, realizzato da Elseline Hoekzema e dai suoi colleghi, ha preso in esame (utilizzando tecniche di risonanza magnetica) la struttura cerebrale di 25 donne alla loro prima gravidanza. L’osservazione anatomo-funzionale è stata condotta prima, durante e dopo la gravidanza; successivamente, essa è stata confrontata con la struttura cerebrale di 19 maschi divenuti padri per la prima volta, di 17 maschi senza figli e di 20 donne che non avevano mai partorito.
I risultati di questo confronto sono stati illuminanti: è infatti apparso chiaro che, nelle donne in gravidanza, alcune specifiche regioni cerebrali – e solo quelle – subiscono una riduzione di volume. Più esattamente, si tratta delle aree del cervello che formano la rete di circuiti associati alla “teoria” della mente, vale a dire alla capacità di attribuire stati mentali (pensieri, sentimenti, intenzioni, desideri) a se stessi o ad altre persone. L’insieme dei cambiamenti strutturali osservati è talmente definito, chiaro e stabile -indagini di follow up hanno mostrato che esso persiste anche per due anni (con l’eccezione delle aree dell’ippocampo interessate, che recuperano quasi subito) – che può essere usato, a modo di test, come elemento di distinzione tra il cervello delle donne che hanno partorito da quello delle donne che ancora non hanno avuto figli.
La riduzione di queste regioni cerebrali è inoltre associata ad un aumento di attività neuronale in alcune di esse. E pare che sia proprio questo aumento a rendere le madri particolarmente sensibili alle immagini dei propri neonati, molto più che a quelle di altri bambini.
Quello che invece la ricerca di Hoekzema e colleghi non è stata ancora in grado di chiarire è quale sia l’origine del cambiamento di volume cerebrale riscontrato nelle donne gravide. Esso potrebbe avere cause molto diverse: dalla variazione nel numero di sinapsi, al numero di cellule gliali o di neuroni; dalla ristrutturazione della forma dei dendriti dei neuroni, al livello della loro mielinizzazione; dalla vascolarizzazione dell’area, al volume del sangue che vi affluisce. In ogni caso, a parere dei ricercatori, è estremamente probabile che tali cambiamenti siano funzionali tanto alla preparazione della donna alle esigenze sociali della maternità imminente, quanto ad una concentrazione della sua attenzione sul benessere del figlio.
Per contro, nel cervello dei padri, non è stato possibile riscontrare alcun cambiamento strutturale analogo. Ma siamo certi che, al di là dei dati anatomo-funzionali, l’attesa di un nuovo figlio sia comunque in grado di “lasciare il segno”, in maniera indelebile, anche nella loro vita!

Una ricerca sulle regioni cerebrali responsabili della percezione temporale

Quante volte un attimo ci è sembrato eterno. O, al contrario, una giornata ci è volata via come fosse un attimo. Sono gli scherzi che talvolta gioca la percezione soggettiva dello scorrere del tempo, un elemento estremamente variabile, dipendente da molteplici fattori esterni e interni.

In genere, per la maggior parte di noi, in una situazione piacevole e divertente il tempo sembra volare. Al contrario, in una situazione di malessere o di sofferenza, ogni minuto sembra non avere mai fine.
Nel tempo, filosofi e psicologi hanno provato a studiare approfonditamente questo fenomeno. Ma ora giunge loro man forte anche da parte dei neuroscienziati.
Il punto è che finora nessuno era riuscito ad individuare con esattezza le regioni cerebrali responsabili della percezione temporale, anche perché essa, a differenza della vista o dell’udito, non può essere associata ad alcun organo di senso.
Ma una nuova ricerca (pubblicata sulla rivista “Science”), realizzata presso il Champalimaud Centre di Lisbona, in Portogallo, da Joe Paton e alcuni suoi colleghi, ha potuto individuare nei topi da laboratorio l’attività di alcuni neuroni, situati in regioni profonde del cervello, che se adeguatamente manipolata può indurre questi roditori a sottostimare o sovrastimare un intervallo di tempo.
Questo gruppo di ricercatori studia da anni la neurobiologia della percezione temporale e, in particolare, il ruolo rivestito in questa percezione da alcuni particolari neuroni, che rilasciano il neurotrasmettitore “dopammina” e che concorrono a formare la cosiddetta “substantia nigra”, una struttura cerebrale profonda coinvolta nell’elaborazione delle informazioni che riguardano il tempo. Questo coinvolgimento è abbastanza evidente, ad esempio, nella malattie come il Parkinson, dove la distruzione dei neuroni della substantia nigra è accompagnata da un’alterazione della percezione del tempo.
Lo spiccato interesse per questo tipo di neuroni è dovuto anche al fatto che le loro proiezioni giungono ad un’altra struttura cerebrale (lo “striato”), anch’essa coinvolto nei comportamenti che implicano un giudizio sul trascorrere del tempo.
Come si è svolto l’esperimento? Gli autori hanno fornito ad alcuni topi di laboratorio il cibo in due posti diversi, associandoli a due suoni che potevano essere separati da intervallo di tempo rispettivamente più breve o più lungo di 1,5 secondi. In questo modo, dopo alcuni mesi di addestramento, i roditori si sono dimostrati capaci di stimare la lunghezza dell’intervallo di tempo tra i due toni.
La seconda parte dello studio è invece consistito nel misurare passivamente – mediante una tecnica chiamata fotometria a fibre – i segnali che riflettono l’attività elettrica dei neuroni dopamminergici nella substantia nigra, mentre i topi erano impegnati nel compito. Paton e colleghi hanno così potuto evidenziare un aumento di attività dei neuroni dopamminergici quando i topi udivano sia il primo che il secondo suono, dimostrando così l’effettivo coinvolgimento di questi neuroni nella percezione del tempo.
Ma il dato rilevato più significativo è che l’ampiezza dell’incremento dell’attività neurale era variabile. “Quanto più aumentava l’attività neurale – spiega Maria Joao Soares, che ha partecipato allo studio – tanto più gli animali sottostimavano la durata dell’intervallo. Coerentemente, quanto più era piccolo l’incremento, tanto più la durata temporale veniva sovrastimata”.
Nella parte conclusiva della ricerca, gli autori hanno poi dimostrato di poter controllare la percezione temporale dei topi, usando una tecnica (nota come “optogenetica”), che consente di attivare o silenziare specifici neuroni bersagliandoli con impulsi di luce.
“Abbiamo scoperto – afferma la Paton – che stimolando i neuroni, s’inducevano i topi a sottostimare la durate temporale, mentre silenziandoli si otteneva l’effetto opposto, cioè una sovrastima temporale. Il risultato dimostra che questa attività neuronale è sufficiente ad alterare la capacità dei topi di giudicare il passare del tempo: è questo il nostro maggiore successo”.

Paura di invecchiare? Un unico meccanismo cellulare sembra essere coinvolto in tutti i processi d’invecchiamento

Un unico meccanismo cellulare sembra essere coinvolto in tutti i processi d’invecchiamento.

Invecchiare, una prospettiva ineluttabile che spesso – se vissuta male – diviene fonte di paura ed angoscia per tante persone. Una sorta di tabù da esorcizzare e sconfiggere, con ogni rimedio possibile. Tanto che – nella nostra epoca più che in passato – anche la ricerca scientifica ha moltiplicato gli sforzi per meglio comprendere i meccanismi dei vari processi d’invecchiamento che interessano il nostro organismo.

Un importante risultato in questo ambito è stata la recente scoperta – illustrata da un articolo pubblicato su Nature – di un unico meccanismo cellulare fondamentale che sembra essere coinvolto in tutti i processi d’invecchiamento, tanto di quelli che portano alla formazione delle rughe, come alle patologie cardiovascolari legate all’età o all’insorgenza del morbo di Alzheimer, e così via. Tutti processi che, ovviamente, influiscono anche sulla durata della vita.

Un gruppo di ricercatori della Harvard University e dell’Università della Danimarca meridionale, a Odense, è riuscito infatti a mettere in evidenza un meccanismo che – grazie al “taglia e cuci” (noto come “splicing”) dei filamenti di RNA – permette ad un gene di produrre più proteine che possono esercitare un’azione differente nelle diverse parti del corpo.
Sono molte le conoscenze acquisite negli ultimi anni dalla scienza sul ruolo che la disfunzione di geni e proteine riveste nei processi dell’invecchiamento. Questa ricerca però è la prima a mettere in luce anche il ruolo biologico giocato dai processi che portano dai geni alla formazione di proteine, tra i quali lo “splicing” dell’RNA riveste senza dubbio un’importanza primaria.
In sintesi, i risultati dello studio evidenziano come la manipolazione dei fattori di “splicing” possa contribuire a promuovere un invecchiamento sano.

La ricerca, coordinata da Caroline Heintz, è consistita in una serie di esperimenti su un particolare tipo di vermi (Caenorhabditis elegans), che rappresenta un ottimo modello per lo studio dell’invecchiamento. Essi, infatti, vivono in media solo tre settimane, rendendo così agevole – dato il breve lasso di tempo – cogliere via via i segni del loro invecchiamento (come la perdita di massa muscolare, il declino della fertilità, la riduzione delle difese immunitarie e perfino la formazione di rughe). Per di più, questa specie di vermi un numero di geni quasi uguale a quello degli esseri umani. Molti di questi geni, poi, sono evolutivamente ben conservati, cioè sono presenti in entrambe le specie, in toto o con omologhi con varianti minori.

In pratica, Heintz e i suoi colleghi hanno modificato il genoma dei vermi C. elegans in modo che l’attivazione di uno specifico gene fosse accompagnata dalla produzione di una proteina fluorescente, visibile dall’esterno perché le cellule dei C. elegans sono quasi trasparenti. Grazie a questo espediente, i ricercatori hanno così potuto seguire, passo dopo passo, l’attività di “splicing” di singoli geni durante tutto il processo di invecchiamento. In questo modo sono state rilevate due differenti modalità di “splicing” dell’RNA: una in atto nei vermi giovani; l’altra, leggermente diversa, che si manifesta progressivamente con il passare del tempo, fino a diventare la prevalente nei ceppi di C. elegans caratterizzati da un invecchiamento precoce.

Gli studiosi hanno anche potuto verificare che, negli esemplari sottoposti a una forte restrizione dietetica – procedura che in questi animali provoca un significativo allungamento della vita -, lo “splicing giovanile” permaneva per quasi tutta la durata della vita. In particolare, è risultato che il mal funzionamento del processo di “splicing” dell’RNA è da ascrivere soprattutto ad un suo componente, chiamato fattore di “splicing 1” (SFA-1), presente anche negli esseri umani. La presenza di livelli notevolmente elevati di SFA-1 è sufficiente per estendere la durata di vita dei C. elegans.

Certo l’applicazione di queste nuove conoscenze sull’uomo è ancora lontana, ma di sicuro questa ricerca rappresenta un importante passo avanti nella comprensione dei meccanismi dell’invecchiamento.

Novità al Bambino Gesù per chi ha bisogno di un trapianto

Messa a punto una tecnica che riduce la mortalità

Buone nuove dall’Ospedale pediatrico Bambino Gesù di Roma. Là i medici hanno messo a punto una nuova tecnica per consentire ai bambini immunodepressi (con difetti congeniti del sistema immunitario) di sottoporsi al trapianto di midollo donato da uno dei genitori, senza incorrere nell’alto rischio di mortalità legato al particolare tipo d’intervento.
Si tratta senza dubbio di un risultato eccezionale (è la prima sperimentazione di questo genere nel mondo), ottenuto grazie all’utilizzo di un gene “suicida”, capace di tenere sotto controllo eventuali infezioni dovute al trapianto.

È una novità scientifica di tale interesse che i dati finora ottenuti sono stati presentati a San Diego in California, il 3 dicembre, al 58° meeting annuale della American Society of Hematology. Questi dimostrano la piena guarigione di tutti i 20 pazienti (100% dei bambini trattati), affetti da immunodeficienze primitive, cui è stato infuso il gene “suicida”.
Attualmente, inoltre, questi risultati sono sottoposti a validazione anche per i pazienti affetti da leucemia. È convincimento degli studiosi, infatti, che le cellule del donatore modificate con il gene suicida, oltre ad abbattere la probabilità di infezione, siano in grado di ridurre il rischio che la malattia si ripresenti nei pazienti leucemici.

Ma come funziona questa nuova tecnica? Essa rappresenta un’evoluzione della procedura di trapianto da genitore (aploidentico), già adottata in questi anni dall’équipe del professor Franco Locatelli, direttore del Dipartimento di Oncoematologia dell’Ospedale pediatrico Bambin Gesù.

Normalmente, le cellule linfocitarie del genitore vengono prelevate e, mediante manipolazione genetica, aiutate a recuperare la cosiddetta “immunità adattiva”, che protegge il paziente dalle infezioni virali o fungine. Quindi, una volta reinfuse, queste cellule si espandono e contribuiscono alla protezione immunitaria del paziente.

A volte però accade che esse aggrediscano l’organismo del ricevente (“graft versus host disease”), causandone la morte. In verità, si tratta di una delle maggiori cause di morte in caso di trapianto ed è uno dei motivi per cui, spesso, i medici preferiscono evitare questa procedura, almeno quando si tratta di malattie che non mettono a rischio immediato la sopravvivenza del paziente (ad esempio, malattie del sangue non neoplastiche). La nuova tecnica messa a punto all’Ospedale Bambino Gesù, al contrario, permette di combattere e sconfiggere l’aggressione da parte delle cellule del donatore. Prima di iniziare il percorso trapiantologico, infatti, dal genitore vengono prelevate le cellule linfocitarie del sangue nelle quali viene inserito il gene “suicida” (inducibilecaspase-9 o iC9). Il tutto viene poi congelato. Due settimane circa dopo il trapianto, le cellule modificate geneticamente vengono scongelate e infuse nel bambino. A questo punto, se tutto procede senza complicazioni, il gene “suicida” resta inattivo. Se invece si dovesse scatenare l’aggressione delle cellule del donatore nei confronti dell’organismo del paziente, questa potrà essere bloccata iniettando un agente, di per sé inerte, ma attivante il gene “suicida” (AP1903).

La sperimentazione dell’infusione di queste cellule geneticamente modificate, nel primo trial in Europa, ha già arruolato più di 100 pazienti pediatrici. Di questi bambini, 20 erano affetti da gravissime forme d’immunodeficienza, incompatibili con la vita in assenza di un trapianto. Lo studio, coordinato dall’Ospedale Bambino Gesù, ha anche registrato l’adesione di molti prestigiosi centri Europei e Nord-Americani, che hanno riprodotto i dati ottenuti all’Ospedale romano per la prima volta. “I bambini trapiantati avevano già un rischio di mortalità molto bassa – spiega il professor Franco Locatelli, direttore del dipartimento di Oncoematologia pediatrica e Medicina trasfusionale del Bambino Gesù -. Adesso, questo rischio si è ridotto ulteriormente e, quindi, ci sentiamo confidenti a offrire questa importante alternativa di cura, il trapianto di midollo da genitore, anche a bambini a cui, pur non rappresentando una terapia salvavita, la procedura trapiantologica può migliorare di molto la qualità della vita. È il caso per esempio dei talassemici che prima di questa soluzione venivano trapiantati solo in caso di donatore compatibile al 100%”.

Mangiare bene fa bene. Anche al cervello

Nuovi studi suggeriscono una correlazione tra corretta alimentazione e salute mentale

Mangiare bene – nel senso di un’alimentazione corretta in qualità e quantità – contribuisce anche al benessere della nostra salute fisica. E fin qui, niente di nuovo. Ma fra gli studiosi, c’è chi si domanda se esista un reale legame anche fra ciò che mangiamo e la nostra salute mentale. Già, proprio così.
In verità, ad oggi, le ricerche in proposito sono ancora poche; ma già suggeriscono connessioni inattese, offrendo elementi che possono aiutare a capire quale ruolo abbiano particolari meccanismi fisiologici e metabolici nella genesi di alcuni disturbi mentali. Va proprio in questa direzione la recente decisione della rivista “Clinical Psychological Science” di dedicare una serie di articoli per fare il punto su questo nuovo e complesso campo di ricerca.
Va da sé che prestare attenzione alla dieta non va certo inteso come un’alternativa al ricorso alle terapie tradizionali nei casi di problemi mentali conclamati, né tantomeno una garanzia di “immunità” verso questo tipo di difficoltà.
Piuttosto, questi studi possono aiutare a mettere in evidenza interessanti correlazioni tra alcuni processi fisiologici e metabolici (dallo stress ossidativo alle disfunzioni mitocondriali, fino alle disbiosi gastrointestinali e ai processi infiammatori) e la conservazione del benessere psichico della persona.
Nel recente passato, alcuni studi avevano evidenziato una possibile associazione fra una dieta ricca di carni, grassi e cibi trasformati e il rischio di sviluppare sintomi ansiosi o depressivi. Per contro, era stata riscontrata una riduzione del medesimo rischio in soggetti sottoposti ad una dieta mediterranea, ricca di frutta e verdura, ad alto contenuto di grassi insaturi (come quelli di noci e pesce) e povera di alimenti trasformati.
Tra i primi articoli pubblicati da “Clinical Psychological Science”, una ricerca condotta da Almudena Sánchez-Villegas e colleghi, delle Università di Las Palmas de Gran Canaria e dell’Università della Navarra a Pamplona. In essa, viene confermata una forte correlazione fra una significativa diminuzione del rischio (- 50% circa) e la regolare assunzione di una dieta mediterranea, a patto che questa sia inserita in un più generale “stile di vita mediterraneo” – come lo chiamano gli autori – caratterizzato anche da una buona attività fisica e da relazioni sociali soddisfacenti.
In un altro articolo, un gruppo di ricercatori guidati da Jerome Sarris, dell’Università di Melbourne, hanno concentrato la loro attenzione sulla relazione tra nutrizione e disturbo ossessivo-compulsivo (Doc), esaminando in particolare l’effetto dell’integrazione dietetica con l’aminoacido N-acetilcisteina. Attuando un trial randomizzato e controllato, essi hanno potuto verificare che, per quanto questo tipo di integrazione non riduca i sintomi del disturbo sulla popolazione generale dei pazienti testati, risulta tuttavia possibile una risposta positiva nei soggetti più giovani e in quelli in cui la sintomatologia aveva iniziato a manifestarsi da meno tempo.
Ancora in un altro studio condotto sui bambini, Jane Pei-Chen Chang, del Medical University Hospital di Taiwan, e colleghi hanno trovato una stretta connessione tra consumo di alimenti, sintomi fisici e prestazioni cognitive. In particolare, essi hanno scoperto che il deficit di attenzione e iperattività (Adhd) e la severità dei suoi sintomi appaiono correlati alla presenza di sintomi da carenza di acidi grassi essenziali (omega-2 e omega-6), sebbene i livelli di assunzione di questi bambini fosse uguale a quella del gruppo di controllo. Se confermata, questa relazione lascerebbe intravedere un possibile problema di metabolizzazione di queste sostanze nei soggetti con Adhd.
Infine, una ricerca ad opera di un team, coordinato da Joanna Lothian, dell’Università di Canterbury, come studio preliminare sull’effetto di complessi multivitaminici e multiminerali sull’insonnia (che si può presentare come disturbo a sé stante, ma che spesso è associata ad altri problemi di salute mentale, che aggrava). Ebbene, i risultati ottenuti hanno evidenziato un miglioramento dei sintomi, che però – osservano gli stessi ricercatori – hanno bisogno di essere confermati da ulteriori ricerche.
Dunque, occhio all’alimentazione… per il benessere del corpo e della mente!

Un algoritmo per il buon caffè

Un team di scienziati britannici ha elaborato un modello matematico che prende in esame 1800 variabili

Preparare un buon caffè? Non è per niente semplice! Si potrebbero riempire gli scaffali di una biblioteca intera con le diverse ricette esistenti, che esprimono sì i gusti personali, ma anzitutto le differenti tradizioni nei vari Paesi.
Dati alla mano, infatti, il caffè è una delle bevande più consumate al mondo, e in ciascuna delle varie zone del pianeta è diffuso un metodo proprio di preparazione: dalla classica “tazzina” mediterranea (con al top, l’espresso italiano!), alla bevanda molto più allungata tipica del mondo anglosassone. Insomma c’è n’è per tutti gusti.
Di sicuro c’è che i differenti metodi di preparazione del caffè hanno tutti in comune una cosa: la tecnica di estrazione. In ogni caso, infatti, si tratta di far percolare acqua bollente attraverso una porzione di polvere di caffè ottenuta dai semi (i “chicchi” della pianta) tostati e macinati.
Ma, allora, esiste la ricetta perfetta per preparare il caffè? Ebbene, pare che la qualità di una tazza di caffè possa essere prevista… matematicamente! Già, proprio così.
O almeno, è questo il convincimento di un gruppo di ricercatori dell’Università di Limerick, in Irlanda, che si è preso la briga di elaborare un modello matematico dell’estrazione della bevanda dai chicchi. Esso – come spiega un recente articolo pubblicato su “SIAM Journal on Applied Mathematics” – prende in considerazione precise correlazioni tra i parametri fisici della preparazione, delle materie prime e la qualità del prodotto finale (che contiene ben 1800 diversi composti chimici!).
A dire il vero, non è la prima volta che degli studiosi di matematica si applicano al problema dell’estrazione del caffè, ma finora tutti avevano dedicato poca attenzione al sistema di filtraggio.
“I modelli di estrazione del caffè che si trovano nella letteratura scientifica – spiega Kevin M. Moroney, primo firmatario dell’articolo – non sono basati su specifici meccanismi, validati sperimentalmente. Il nostro modello invece, descrive il flusso dell’acqua e il processo di estrazione in una dose di caffè macinato in funzione delle proprietà dei chicchi, ed è controllato sperimentalmente”.
Già in un precedente articolo (pubblicato nel 2015 su “Chemical Engineering Science”) il team di ricercatori irlandesi aveva presentato il modello nelle sue linee generali. Là venivano considerati parametri quali la portata del flusso d’acqua, la dimensione dei grani e la pressione, ipotizzando che la temperatura rimanesse costante in tutto il processo (in un intervallo tra i 91 e i 94 gradi Celsius) e che l’acqua saturasse tutti i pori presenti sulla superficie dei chicchi di caffè.
Ma ora, Moroney e i suoi colleghi si sono spinti oltre. “Il lavoro che abbiamo presentato l’anno scorso – ha aggiunto William T. Lee, coautore dell’articolo – era matematicamente completo, ma era uno di quei modelli che possono piacere solo a un computer: un complicato sistema di equazioni differenziali che possono essere risolte solo per via numerica. Ora abbiamo prodotto un sistema ridotto di equazioni per cui è possibile trovare soluzioni approssimate”.
Il nuovo modello, infatti, considera anche le diverse fasi del filtraggio dell’acqua: lo stadio iniziale, in cui il chicco di caffè è ancora integro; il passaggio dell’acqua bollente, che determina una rapida estrazione delle sostanze dalla superficie del chicco, tra cui la caffeina; la fase successiva, in cui gli strati esterni del chicco sono ormai esauriti e il processo di estrazione è dominato dalla lenta diffusione delle sostanze presenti nella parte più interna, che era inizialmente trascurabile. Insomma, un’analisi complessa e articolata.
“Il valore delle soluzioni trovate – conclude Moroney – è nella possibilità di correlare le prestazioni del sistema di percolamento con le proprietà del caffè, dell’acqua e dell’apparecchiatura usata. Queste soluzioni dovrebbero permettere di prevedere la qualità del caffè in base alle specifiche configurazioni usate”.
Scientificamente ineccepibile! Sarà pure così, ma per preparare un buon caffè… preferiamo continuare a fidarci delle sane tradizioni di casa nostra!

L’allenamento aiuta a ragionare. I benefici dell’addestramento sulle prestazioni cognitive

A parlare si impara in fretta, imparare a ragionare richiede più tempo. Non si tratta di un proverbio, bensì della sintesi – forse un po’ troppo “brutale”, lo ammettiamo – dei risultati di un recente studio sull’apprendimento cognitivo.
La ricerca (descritta in un articolo pubblicato su “Psychological Science”), realizzata da un gruppo di studiosi dello University College di Londra, ha dimostrato che le prestazioni cognitive (il ragionamento) in compiti non verbali possono essere addestrate con grande efficacia a tutte le età, e soprattutto nella seconda parte dell’adolescenza, più che nella prima. Questo tipo di capacità, dunque, non è innato e fissato una volta per tutte, ma al contrario aumenta in modo notevole con l’addestramento. In buona sostanza, quindi, questo studio ha smentito la convinzione che, in tema di apprendimento, sia meglio iniziare quanto più precocemente possibile. Ma al tempo stesso, esso ha evidenziato come i test d’ingresso nelle scuole e nell’Università non siano realmente affidabili per stimare le reali potenzialità cognitive degli studenti.
“Nell’età adulta e nelle seconda parte dell’adolescenza – spiega Sarah-Jayne Blakemore, autore senior dello studio – l’effetto dell’allenamento al ragionamento non verbale è massimo. Rimane il fatto che anche nella fascia di età tra 11 e 13 anni, sessioni di addestramento on line di soli 10 minuti al giorno, ma protratte per tre settimane, aumentano le prestazioni del 60-70 per cento: questo dato mette in forte discussione l’idea che i test di ingresso nelle scuole e nelle università possano valutare il ‘vero’ potenziale di un individuo”.
La ricerca dell’equipe di studiosi dello University College di Londra ha coinvolto 558 studenti, di età compresa tra 11 e 18 anni, e 105 adulti. Questi, dopo aver partecipato a un test su diverse capacità cognitive, hanno seguito un addestramento on line (della durata di 20 giorni), incentrato su una specifica capacità. Dopo sei mesi, i soggetti sono stati rivalutati per verificare l’effetto dell’addestramento.
Di cosa si è trattato? Il test sul ragionamento non verbale consisteva in alcuni classici rompicapi. Ad esempio, il completamento di un schema (noto come “matrici di Raven”) composto da una griglia 3×3, in cui erano presenti otto figure di forma, posizione, colore e dimensioni diverse, più uno spazio bianco da riempire. Un altro test riguardava la discriminazione della numerosità: i soggetti dovevano indicare quale, tra due insiemi di punti di diverso colore, era quello con la maggiore quantità di punti.
“Abbiamo mostrato – spiega Lisa Knoll, coautrice dello studio – che queste capacità cognitive, che sono legate al pensiero matematico, possono essere allenate molto di più nella seconda fase dell’adolescenza rispetto alla prima. I risultati sottolineano la rilevanza di questa fase più matura dello sviluppo neurocognitivo, smentendo l’ipotesi diffusa secondo cui in fatto di apprendimento quanto prima si inizia, meglio è”.
Riguardo le capacità cognitive non addestrate precedentemente, poi, lo studio ha anche evidenziato come l’effetto di addestramento cognitivo sia specifico per ogni capacità. Non è stato infatti rilevato alcun effetto di trasferimento da una capacità all’altra.
“Alcune app di ‘addestramento cerebrale’ – ha precisato Delia Fuhrmann, coautrice dell’articolo – promettono di migliorare il quoziente intellettivo con un addestramento specifico, per esempio su compiti di ragionamento non verbale, gli stessi che abbiamo usato nel nostro studio. Eppure, non esistono prove che possano portare a un miglioramento delle capacità cognitive complessive: tutto ciò che si può dire è che allenarsi su compiti di completamento di uno schema migliora le prestazioni su uno stesso identico compito. Anche se questa abilità viene comunemente verificata nei test sul quoziente intellettivo, potrebbe non essere appropriato elaborare giudizi su altre forme d’intelligenza sulla base dei risultati di questi test”.
Come dire… non si finisce mai di imparare!

E se la tecnologia avesse un’origine «scimmiesca»?

Cosa ha dato origine alla tecnologia? Verrebbe da rispondere: i problemi che ha risolto, ovviamente. Forse però la storia non è così semplice, o meglio è ancora più semplice, ma in un modo insospettabile. A suggerircelo una ricerca sui cebi barbuti del Brasile.

Ricercatori delle università di Oxford e San Paolo hanno filmato i cebi (Sapajus libidinosus) mentre sbattevano violentemente delle pietre, producendo schegge molto simili a quelle ritrovate nei siti archeologici dei nostri antenati dell’età della pietra. Lo scopo delle simpatiche scimmiette è leccare la superficie delle pietre appena scheggiata, probabilmente per ingerire minerali fondamentali per la loro dieta.

Per gli scienziati la scoperta abbassa, in un certo senso, la soglia di ‘intelligenza’ necessaria per produrre volontariamente schegge di questo tipo. Questo non vuol dire che i reperti archeologici non siano di origine umana, ma suggerisce di rivedere il processo di sviluppo della tecnica stessa.

Al di là delle ricerche rigorose, possiamo formulare un’ipotesi (un po’ azzardata) sulla nascita della tecnologia proprio sulla base di questo fenomeno. I cebi non usano le schegge che producono, sono un semplice scarto di un attività primitiva. In una situazione analoga i primati da cui discendiamo potrebbero aver prodotto intenzionalmente, ma per altri scopi, una grande quantità di oggetti. La successiva necessità, ad esempio di aprire un guscio, avrebbe fatto casualmente riconoscere in quei rifiuti un utile strumento.

Che le scoperte avvengano per caso non è certo una novità. Ma il curioso comportamento di queste scimmie porta a credere che alla base dello sviluppo tecnologico, che ci caratterizza come specie, ci siano comportamenti del tutto animaleschi. La prossima volta che guardate il profilo sottile di uno smartphone, ripensate a quanto semplice e stupida sia stata la nascita delle sottilissime schegge da cui deriva tutta la tecnologia attuale.

Lampi di luce

Risultati positivi da una nuova ricerca per protesi della retina

Tra i problemi sanitari che affliggono la popolazione mondiale, senza distinzioni, ha senz’altro un peso importante la cecità. Oltre 40 milioni di persone ne sono colpite in tutto il mondo. Le cause che stanno all’origine della condizione di “non vedente” sono molteplici e diverse tra loro. Tra queste, una grande incidenza hanno le varie forme di degenerazione retinica, che si manifesta in modo lento e progressivo. La retina, infatti, è una membrana nervosa sensibile alla luce, situata nel bulbo oculare, che rappresenta una componente fondamentale della visione. Ecco perché la ricerca oculistica più avanzata sta dedicando parte dei propri sforzi per provare a realizzare sofisticate protesi in grado di porre rimedio al danneggiamento della retina.
Non si tratta però di una sfida esclusivamente tecnologica. Per raggiungere l’obiettivo di una protesi retinica efficace e affidabile, infatti, è necessario rispondere previamente ad una domanda cruciale: il cervello dei soggetti non vedenti da molto tempo è ancora in grado di elaborare le informazioni che provengono da una retina “restaurata”? E se sì, in che misura?
Due studiose italiane – Elisa Castaldi e Maria Concetta Morrone – dell’Università di Pisa hanno cercato di dare una risposta al quesito con una ricerca, pubblicata di recente sulla rivista “PLoS ONE”. Castaldi e Morrone hanno studiato dei pazienti affetti da retinite pigmentosa, una malattia ereditaria che porta gradualmente alla totale cecità, proprio a causa di una degenerazione della retina. Le due ricercatrici hanno impiantato negli occhi di alcuni pazienti volontari un microchip capace di tradurre gli stimoli visivi in segnali. Questi sono stati poi trasmessi alle cellule dei gangli della retina (un tipo di neuroni che si trova nello strato più interno di questa membrana, a monte del nervo ottico rispetto al tragitto dei segnali verso il cervello). Successivamente, le due scienziate hanno verificato quale fosse in realtà l’effetto della stimolazione operata, sia in base a quanto riferito dai soggetti, sia in base ai risultati delle scansioni di risonanza magnetica effettuate sul loro cervello.
In base a quanto riportato, il risultato della sperimentazione è stato decisamente positivo. I pazienti, infatti, attraverso un processo di progressivo apprendimento, hanno imparato a riconoscere alcuni stimoli visivi inusuali (ad es. i lampi di luce). Questa capacità, inoltre, è apparsa correlata ad un incremento dell’attività della corteccia cerebrale e del talamo (una struttura posta alla base del cervello, di grande importanza per l’elaborazione delle informazioni sensoriali).
Tuttavia, come prima accennato, quest’attivazione ha richiesto un lungo e progressivo periodo di addestramento dei pazienti coinvolti. Quanto più il soggetto si esercitava tanto più il suo cervello si mostrava in grado di rispondere agli input e di percepire gli stimoli visivi generati dall’impianto protesico. In pratica, si era instaurato un cosiddetto meccanismo “di rinforzo positivo”, per cui più il soggetto percepiva la luce, più imparava a percepirla, affinando e rinforzando sempre più questa percezione.
I risultati ottenuti con questa ricerca rivestono grande importanza, in quanto dimostrano come, dopo l’impianto di un dispositivo protesico, il cervello subisca una sorta di rimodellamento plastico, che lo mette in condizione di “reimparare” a gestire i segnali visivi nuovi.
L’esito dello studio, poi, appare ancor più rilevante se si considera l’evidenza di una plasticità cerebrale residua, nonostante molti anni di deprivazione sensoriale. Un dato di cui si potrà tener conto, d’ora in poi, anche nello sviluppo e nella realizzazione di nuovi impianti protesici per la retina.

Perché la caduta della sonda Schiaparelli non è un fallimento

Mercoledì 19 ottobre il lander Schiaparelli, della missione spaziale europea Exo Mars, è caduto sul suolo marziano, passando da 21000 km/h a 0 in meno di sei minuti. Negli ultimi 50 secondi di questo rocambolesco viaggio il segnale dalla sonda è saltato, i retrorazzi, che dovevano farlo rallentare per mezzo minuto, si sono spenti dopo appena tre secondi. Lo schianto è stato inevitabile.

Ma questo ‘ammartaggio’ mancato non è stato un completo fallimento. A dirlo per primi sono stati ovviamente i vertici delle agenzie spaziali europea e italiana. Quest’ultima in particolare è la principale finanziatrice del progetto e ospitava sul lander importanti strumentazioni scientifiche. Il rammarico per le opportunità andate perdute è grande, ma non bisogna credere che tutto si risolva nell’ennesimo mucchietto di spazzatura marziana.

Come ricordato anche da Roberto Battiston, direttore del ASI, adesso l’Europa ha un satellite che orbita intorno a Marte. La gran parte degli obbiettivi scientifici di Exo Mars è infatti affidata al satellite TGO (Trace Gas Orbiter), che ha compiuto con successo una difficile manovra di stabilizzazione dell’orbita intorno al pianeta rosso. Oltretutto a bordo di TGO c’è uno strumento guidato congiuntamente da Svizzera e Italia che realizzerà mappe tridimensionali del suolo marziano.

Per quanto riguarda Schiaparelli, non dobbiamo pensare la sua caduta come lo schianto di un aereo. Ogni atterraggio su un altro corpo celeste è un esperimento a sé, non certo una manovra di routine. Inoltre tutto è stato programmato sulla terra, ancor prima della partenza della missione. Non è affatto facile considerare tutti i possibili imprevisti che possono capitare a milioni di kilometri di distanza. Infine dagli ultimi dati provenienti dalla sonda si ricaveranno preziose lezioni per i programmi futuri.

Programmi che prevedono di portare un rover (robot in grado di spostarsi) su Marte nel 2020, con a bordo una trivella (italiana) che cercherà tracce di vita al disotto della superficie. Siamo solo all’inizio di una grande avventura, ma anche l’apparente insuccesso di Schiaparelli non pregiudica i risultati scientifici e tecnologici frutto del lavoro di centinaia di scienziati e aziende. L’Europa dello spazio gioca adesso un ruolo fondamentale nell’epica storia di esplorazione del pianeta rosso.

Laniakea, il nostro oceano cosmico

Dove siamo? Sembra questa la più semplice delle grandi domande ma in realtà nasconde problemi non banali. A livello cosmico ad esempio verrebbe da dire che facciamo parte di un pianeta di uno dei sistemi stellari della Via Lattea, la nostra galassia. L’immagine delle galassie come isole, però, non restituisce al meglio la vita di questi aggregati di stelle. Esistono strutture cosmiche ben riconoscibili, come gli ammassi di galassie, molto più grandi.

Inoltre le galassie si muovono. Sono come barchette in immensi oceani di spazio trascinate dalle correnti. Una di queste correnti, l’energia oscura, pervade l’intero universo accelerandone l’espansione. È come se ogni barca fosse spinta lontano dalle altre. Le altre correnti invece sono generate dalla materia oscura, una sostanza misteriosa che rivela la sua presenza solo attraverso la gravità. Come risultato di queste forze le galassie hanno un loro moto peculiare che le spinge in direzione delle masse più grandi, spesso dopo essersi scontrate tra loro.

Solo recentemente i ricercatori hanno individuato i confini e la struttura dell’oceano in cui galleggiamo inconsapevoli da sempre. Si tratta di Laniakea, termine di origine Havaiana che significa ‘oceano incommensurabile’. La Via Lattea naviga nella periferia di questo gigante. Con la gravità trattiene a se i numerosi ammassi e superammassi galattici che contiene, estendendosi per oltre 400 milioni di anni luce. Per avere un idea delle sue dimensioni basta pensare che la distanza tra terra e sole è di solo 8 minuti luce.

Ma Laniakea è solo un altro nome nel nostro indirizzo cosmico? In realtà studiandone la struttura si può capire quale sarà il destino dell’universo e chiarire la natura di materia ed energia oscure. È, per ora, il laboratorio più grande che possiamo immaginare per mettere alla prova le nostre teorie da marinai alla deriva che possono solo godersi l’immenso spettacolo.