Scienza

In Asia centrale, delimitato a nord dall’Uzbekistan, a sud-est da Afghanistan e Iran, a sud-ovest e a est dal Mar Caspio, si trova il Turkmenistan. Questo paese è al quarto posto nel mondo per giacimenti di gas naturale e all’undicesimo posto (sempre al mondo) riguardo le esportazioni di questa preziosa risorsa energetica.

La sostanza, come detto, è preziosa, ma anche molto pericolosa. Se non correttamente gestita, piuttosto che diventare un flusso pressochè ininterrotto di profitti, molto utili ad un paese in via di sviluppo, si può velocemente trasformare in un disastro apocalittico. Ed è proprio quello che è successo nel 1971.

Prima del disfacimento dell’Unione Sovietica, nel 1991, il Turkmenistan era una delle repubbliche costituenti l’Unione, (allora si chiamava Repubblica Turkmena). Nel 1971, ingegneri sovietici, identificarono un sito vicino al villaggio di Derweze, nel deserto del Karakum (a circa 250 Km a nord della capitale Ashgabat), come un potenziale giacimento di gas naturale. Si avviarono le perforazioni e si iniziò pure ad immagazzinare il gas. Ad un certo punto, però, improvvisamente, il terreno franò e l’impianto di perforazione scomparve in un grande cratere.

Nessuno rimase ferito, ma gli ingegneri temevano che potessero liberarsi nell’aria gas velenosi. Così, decisero di incendiare il pozzo, pensando che le fiamme sarebbero durate non più di qualche giorno. Mai decisione si rivelò tanta errata!
Il cratere, profondo più di 60 metri e largo 20, continua a bruciare ancora oggi, dopo quasi mezzo secolo!

Essendo, il gas naturale, un’indiscutibile preziosa risorsa, nel 2010 il Presidente del Turkmenistan, Gurbanguly Berdimuhamedow, ordinò di sigillare il foro, con l’idea di sviluppare altri pozzi nella zona. Ma, a tutt’oggi, questo tentativo si è dimostrato infruttuoso.

Questa voragine incandescente, paurosamente bella, dà l’idea di una “porta verso l’inferno,” e alcuni turkmeni, molto pragmatici, stanno promuovendo il cratere ardente come gita eco-turistica. Uno di questi turisti ha descritto l’esperienza indimenticabile e da “togliere il fiato! Ho immediatamente pensato ai miei peccati e mi è venuta voglia di pregare.”

A volte gli incubi peggiori sono quelli che non hai. Ci sono numerose condizioni, disturbi e malattie che limitano o impediscono la giusta quantità di sonno che un individuo deve avere. Molti di questi disturbi sono piuttosto pericolosi, ma nessuno di questi è così spaventoso come la “insonnia familiare fatale” (FFI), che per fortuna è una malattia rara.

La malattia, spesso ereditaria, colpisce il sistema nervoso dell’uomo, ma anche degli animali, ed altera alcune funzioni essenziali del cervello come la diminuzione della memoria, i cambiamenti della personalità e l’insonnia. Poi, ancora, un declino nella funzione intellettuale (demenza) e movimenti anormali, specialmente nella difficoltà di coordinare i movimenti (atassia). I sintomi della malattia cominciano, tipicamente, in età adulta e peggiorano con il tempo. La morte arriva dopo alcuni mesi oppure entro alcuni anni.

Negli esseri umani, ci sono cinque malattie denominate prioniche: la malattia di Creutzfeldt-Jakob, la variante della malattia di Creutzfeldt-Jakob, la sindrome di Gerstmann-Straussler-Scheinker, la Kuru e l’insonnia familiare fatale. Ci sono invece sei malattie prioniche negli animali, tra cui l’encefalopatia spongiforme bovina, più comunemente conosciuta come “Malattia della mucca pazza”.

La prima malattia prionica ad essere identificata è stato quando, nei primi del 1700, pecore e capre, in Gran Bretagna, hanno iniziato ad avere strani sintomi come, irritabilità, perdita di peso ed, inoltre, diventavano scoordinate nei movimenti. La malattia, che prese il nome di “Scrapie”, poteva uccidere interi greggi. La Scrapie, per i primi 200 anni dalla sua comparsa, ha colpito solo l’Europa occidentale, ma nella metà del XX secolo, un contadino del Michigan importò pecore dall’Inghilterra e l’intero suo gregge fu ucciso da questa malattia. Oggi, solo l’Australia e la Nuova Zelanda non hanno mai avuto la Scrapie.

Come tutte le malattie da prioni, l’insonnia familiare fatale è causata da un cambiamento (mutazione) di geni, che si ammassano nella regione del talamo del cervello, distruggendone le cellule sane. La regione del talamo controlla le abilità sensoriali e motorie, come anche la coscienza e il sonno. I geni mutati “bucano” il cervello, dandogli un aspetto “spugnoso”. Questo può portare all’incapacità a dormire (peggiorando progressivamente, ma inesorabilmente) e quando il sonno viene raggiunto, sono molto vividi i sogni. È stato osservato da letture dell’encefalogramma che quando la persona è sveglia, visualizza segni associati al sonno REM. Essenzialmente, essi sono così privati del sonno che, pur essendo svegli, fanno comunque dei sogni.

Altri sintomi associati alla malattia includono la mancanza di movimento coordinato, e i cambiamenti della personalità. A seconda della gravità dei sintomi, la malattia è mortale entro pochi mesi, ma il malato potrebbe sopravvivere (peggiorando) per alcuni anni. L’aspettativa di vita, una volta diagnosticata la malattia, è di 12-18 mesi e conduce sempre alla morte.

I primi segni e sintomi di questa malattia, stranamente, non tendono a svilupparsi prima dei quaranta, cinquanta anni. Nessuno sa con certezza perché il gene fino a questo momento si trovi dormiente e non compia alcuna mutazione. I medici hanno teorizzato che forse il cervello, in questo periodo, diventa più vulnerabile.

Il primo caso registrato (ma di casi non registrati sicuramente ce ne saranno stati altri) di insonnia familiare fatale, anche se nessuno all’epoca la conosceva, è stato quello di un medico veneziano nel lontano 1765. Inizialmente, si pensava fosse morto per “un difetto legato al funzionamento del cuore”, egli soffriva di “paralisi” e lunghi periodi di insonnia, sintomi che sono coerenti con la FFI. Non solo, come documentato nel libro The Family That Couldn’t Sleep (La famiglia che non poteva a dormire), egli non è stato l’unico membro della sua famiglia a morire in questo modo. Infatti, il libro va a dettagliare 200 anni di storia di questa famiglia italiana e le battaglie dei loro membri con questa rara malattia genetica.

Nel mondo, ci sono stati altri casi diagnosticati come FFI. Nel 1991, un insegnante di musica di Chicago, che si chiamava Michael Corke, poco dopo il suo quarantesimo compleanno, iniziò a soffrire di insonnia. Man mano che l’insonnia peggiorava, peggioravano pure la salute fisica e quella mentale. Egli fu ricoverato all’ospedale dell’Università di Chicago, dove gli fu erroneamente diagnosticata una grave depressione. Al peggiorare dei sintomi, Corke divenne incapace di dormire e i medici lo posero in uno stato di coma controllato. Alla fine, l’insegnante di musica, morì. Erano trascorsi sei mesi dai primi sintomi della malattia. Alcuni anni più tardi, il suo caso fu descritto nel documentario della BBC “L’uomo che non dormiva mai”. Non è chiaro se ci fossero stati altri casi di FFI nella sua famiglia.

Un’altra storia interessante è quella dell’uomo vietnamita Thai Ngoc. Nel 2004, egli affermò di non aver dormito per 31 anni (dal 1973), dopo essere stato colpito da una brutta febbre. Nonostante le oltre 11.000 notti insonni, Thai ha sostenuto di non aver sofferto di problemi fisici o mentali. Alcuni hanno addirittura sostenuto che Ngoc è la prova che l’insonnia familiare fatale non è sempre mortale. Altri, soprattutto medici ed esperti, sostennero che Ngoc effettivamente dormiva, ma lui non lo sapeva. Secondo il dottor Wadhwa, alcuni insonni non riescono distinguere bene tra dormire ed essere svegli perché spesso sono impegnati in brevi, ma frequenti, “micro-sonnellini”.

Quanto veloce è il flusso degli elettroni all’interno dei cavi elettrici?

Potreste essere sorpresi di apprendere che il flusso degli elettroni attraverso un filo di rame è molto più lento di quanto si muove una tartaruga.

Ogni filo che conduce un flusso di elettroni, produce corrente elettrica utilizzabile ed è composto da miliardi di atomi. Per muoversi lungo di esso, gli elettroni devono attraversare questi atomi e lo fanno con un moto a zig-zag, che realizza un tasso di flusso netto, chiamato “velocità di deriva”, in una data direzione abbastanza lento.

Quanto lento esattamente? Per calcolarlo, usiamo questa formula: I = n * A * v * Q
Oppure: v = I/(n*A*Q)

I è la corrente, n è il numero di elettroni per metro cubo, A è la sezione trasversale del filo, Q è la carica di un elettrone e v è la velocità di deriva degli elettroni.

Poiché il numero di elettroni in un filo di rame (n) è 8,5 * 10 elevato a 28 / m3, e la carica di un elettrone (Q) è 1.6 * 10 elevato alla -19 C, se sappiamo l’area della sezione trasversale del filo e la corrente (I), noi possiamo calcolare la velocità di deriva degli elettroni.

Ad esempio, supponiamo di disporre di una corrente di 14 ampere e un filo di rame con una sezione trasversale di 3 * 10 elevato alla -6 m2. Facendo i calcoli otterremo che gli elettroni si muovono a una velocità di 3,4 * 10 elevato alla -4 m/s – circa un terzo di millimetro al secondo.

Per dirla con valori che sono più facili da capire, la velocità degli elettroni è di 1,2 metri per ogni ora – una velocità di movimento molto più lenta di quella di una tartaruga comune, che può coprire circa 240 metri nello stesso lasso di tempo.

Come è possibile che un flusso, sostanzialmente più lento di una tartaruga, più o meno istantaneamente, possa accendere una lampadina in una stanza?

Grazie ad una “Reazione a catena”.

Gli atomi nel filo di rame sono stipati l’uno vicino all’altro, “guancia a guancia”, ed anche per gli elettroni succede la stessa cosa. Quando l’interruttore viene acceso, grazie alla differenza di potenziale creata dal generatore, viene attivata una forza che fa spostare gli elettroni. Ognuno spinge il proprio vicino, che a sua volta spinge il vicino e così via fino in fondo il filo.

Alla fine, nessun elettrone attraversa il filo per accendere la luce, come si potrebbe pensare. Questo fenomeno è simile al moto dell’acqua nelle condutture. Quando si apre il rubinetto di casa, l’acqua esce istantaneamente, nonostante il fatto che, magari, il serbatoio di accumulo dell’acquedotto è a chilometri di distanza.

I batteri di origine alimentare sono la causa principale del deterioramento dei cibi ed anche degli avvelenamenti. Essi prosperano in ambienti umidi e a bassa acidità, dove sono presenti grandi quantità di proteine. Alcuni agenti patogeni come Salmonella, Campylobacter ed E.Coli vivono nell’organismo degli uccelli durante la loro vita e continuano a trovarsi nelle loro carni dopo la loro uccisione. Allo stesso modo, altri batteri, come Acinetobacter e Pseudomonas fluroescens, prosperano nelle carni degli animali macellati. Il sapore del pollo, essendo piuttosto unico per qualità e fragranza, è, inevitabilmente, soggetto ad un rapido deterioramento, che può essere mitigato solo ponendo particolare attenzione ai tempi di conservazione, alla temperatura delle carni e all’umidità dell’aria.

I batteri necessitano di acqua per sopravvivere e crescono soltanto su alimenti con un tasso di acqua di almeno l’85%. Il pollo, come la maggior parte delle altre carni fresche, ha un tasso di acqua del 99% e, quindi, fornisce un ambiente ideale. Inoltre, a differenza di molti altri tipi di carne, l’acqua e il ghiaccio utilizzati per lavare o refrigerare il pollo, non asciugano la carne quando questa viene cucinata ma, al contrario, la pelle del pollo conserva molta acqua in superficie, offrendo un’accogliente casa per una notevole varietà di batteri.

Anche se alcuni agenti patogeni, come la Salmonella, hanno difficoltà a crescere a temperatura ambiente, altri batteri vi prosperano, ed anche solo una popolazione di circa 105 cfu (unità formanti colonia)/cm2 di batteri psicrotrofi inizierà a rovinare il cibo. Però, in particolare per la carne di pollo, il degrado non diventa evidente fino a quando i batteri deterioranti non raggiungono una concentrazione molto più alta, di almeno 3.2 * 10.000.000 cfu/cm2.

Come detto, la temperatura è molto importante e svolge un grande ruolo nel prevenire le intossicazioni alimentari. Al fine di garantire che la Salmonella ed E.Coli, presenti nelle carni del pollo (in quanto uccello) siano effettivamente morti, il pollo deve essere cotto ad una temperatura interna di almeno 75 gradi, tenuta per almeno 15 secondi.

Il tempo gioca un ruolo importante nel processo di deterioramento delle carni, ed è fortemente influenzato dalla temperatura. Quando il pollo ha alti livelli di batteri psicrotrofi, cioè di circa 100.000 cfu/cm2, la carne inizierà a rovinarsi entro 1 o 2 giorni. Allo stesso modo, anche se la carne ha bassi livelli di batteri deterioranti, ma viene mantenuta ad una temperatura di 20 gradi, che è sotto la soglia necessaria per uccidere la maggior parte dei microbi, la carne si deteriorerà entro 2 giorni.

Inoltre, anche quando il cibo è cotto correttamente, se si lascia in un intervallo di temperatura tra i 5 e i 60 gradi, potranno proliferare batteri, che raddoppiano ogni 30 minuti. Di conseguenza, gli esperti di sicurezza alimentare, consigliano di non mangiare il pollo quando questo sia stato lasciato, per più di due ore, in questo intervallo di temperatura.

Quando ero un ragazzino, i miei genitori avevano una raccolta di vecchi giornali storici e ingialliti. Per esempio, ricordo distintamente un vecchio giornale, il Washington Post del 21 luglio 1969, adagiato su uno scaffale, col titolo “Eagle è atterrato – due uomini camminano sulla luna.” O un altro sbiadito e giallastro del 8 agosto 1974 con un grande titolo in evidenza, “Nixon si dimette.” Questi giornali sono reperti affascinanti, che documentano la storia, fatta di momenti importanti, ma anche di quotidiana banalità. Purtroppo, diventano di difficile lettura a causa del loro ingiallito colore o per la stampa che tende a dissolversi. Così, ci chiediamo, perché i vecchi giornali – e i libri – ingialliscono? C’è un modo per evitare che questo accada?

Generalmente, si racconta che la carta fu inventata intorno al 100 A.C. in Cina. Originariamente era realizzata con canapa bagnata, mescolata e pressata insieme a polpa di corteccia d’albero, bambù e altre fibre vegetali. La carta, presto si diffuse in tutta l’Asia; inizialmente era utilizzata per documenti ufficiali ed importanti ma, appena il processo diventò più efficiente e meno costoso, diventò di uso comune.

La carta arrivò in Europa probabilmente intorno al XI secolo. Gli storici ritengono che il più antico documento conosciuto su carta appartenga alla “chiesa cristiana” col “Messale di Silos”, proveniente dalla Spagna e che, essenzialmente, consisteva in un libro con testi da leggere durante la messa. La carta di questo libro era fatta con fibra di lino. Tuttavia, la carta e i libri si evolveranno nel corso degli anni, fino ad arrivare, nella metà del XV secolo, alla stampa, inventata da Gutenberg. La carta era normalmente fatto di stracci, lino, cotone o altre fibre vegetali. Ma, dalla metà del XIX secolo, si iniziò a fabbricare la carta con la fibra del legno.

Perché ci fu questo importante cambiamento? Perchè nel 1844, due persone inventarono il processo di fabbricazione della carta dal legno. Uno viveva nella Costa Est dell’Oceano Atlantico, ed era l’inventore canadese Charles Fenerty. La famiglia di Charles possedeva una serie di segherie in Nuova Scozia ed egli, conoscendo la durabilità, economicità e disponibilità del legno, pensò che poteva essere un buon sostituto del cotone, molto più costoso, per produrre la carta. Egli fece alcuni esperimenti con la pasta di legno e il 26 ottobre 1844, inviò la sua carta al giornale della città di Halifax, The Acadian Recorder, con una nota che reclamizzava la durevolezza e convenienza della carta di legno abete. Dopo poche settimane, il giornale iniziò ad utilizzare la carta, di pasta di legno, prodotta da Fenerty.

Allo stesso tempo, il tedesco, rilegatore e tessitore, Friedrich Gottlob Keller, mentre stava lavorando in una segheria, fece la stessa scoperta di Charles Fenerty – cioè, che la pasta di legno poteva essere impiegata al posto del cotone, perché più a buon mercato. Keller produsse un campione e, nel 1845, lo brevettò. In realtà, alcuni storici, per questa invenzione, danno più credito a Keller che non a Fenerty, per il fatto che Keller brevettò la sua scoperta, mentre il canadese non lo fece.

Tempo una trentina di anni e, per la produzione della carta, la pasta di legno scalzò tutte le altre fibre vegetali. La pasta di legno è, in effetti, più economica e resistente di quanto lo sia cotone e lino ma, ci sono anche alcuni inconvenienti. Quello più significativo è che la carta di pasta di legno è molto più sensibile all’ossigeno e alla luce solare rispetto ad altre fibre.

Il legno è principalmente costituito da due sostanze – cellulosa e lignina. La cellulosa è il materiale organico più abbondante in natura. Essa è incolore ma, riflettendo la luce piuttosto bene noi, esseri umani, la vediamo bianca. Tuttavia, la cellulosa è piuttosto sensibile all’ossidazione, anche se non come la lignina. L’ossidazione provoca una perdita di elettroni e indebolisce il materiale. A questo punto la cellulosa riflette meno la luce, rendendo il materiale (in questo caso, pasta di legno) più opaco e meno bianco. Tuttavia, questa non è la maggior causa dell’ingiallimento della carta.

Come detto, la lignina è l’altra sostanza che compone la carta. La lignina è un composto presente nel legno, che lo rende più forte e resistente. Infatti, secondo il dottor Hou-Min Chang, dell’Università di Raleigh, “Senza lignina, un albero potrebbe crescere fino a circa 180 cm di altezza.” Essenzialmente, la lignina funziona come un collante, tenendo più saldamente unite tra loro le fibre di cellulosa. Quindi, grazie alla lignina, l’albero è molto resistente, è in grado di svettare verso l’alto e di resistere alle azioni esterne, come il vento e la neve.

La lignina ha un colore scuro, come il cartone dove, gran parte della lignina, è lasciata per dare una resistenza aggiuntiva; tra l’altro, il cartone è più economico della carta perchè richiede una minore trasformazione della pasta di legno. Anche la lignina, tuttavia, è molto sensibile all’ossidazione. L’esposizione all’ossigeno (sopratutto se abbinata all’esposizione della luce solare), altera la sua struttura molecolare, causando un cambiamento di colore. Il colore della lignina ossidata è giallo-marrone.

Dal momento che la carta utilizzata nei giornali è economica e poco raffinata (perché, quella del giornale, è una carta “usa e getta”), al proprio interno è presente una quota significativa di lignina. Nei libri, invece, viene introdotto un processo di sbiancamento, che serve per rimuovere gran parte della lignina presente. Il risultato è che i giornali invecchiano più rapidamente (cioè, diventano bruno-giallastri) dei libri.

Oggi, per combattere l’invecchiamento, molti documenti importanti sono scritti su carta con limitata quantità di lignina.

Per quanto riguarda invece i vecchi documenti storici non c’è modo per intervenire sul danno già fatto. Si possono, però, prevenire ulteriori danni. Occorre conservare, giornali o documenti, in un luogo fresco, asciutto e buio. Proprio come accade nei musei, dove si conservano i documenti storici in un ambiente a temperatura controllata e con scarsa luce. Inoltre, non vanno tenuti in soffitte o cantine, perché questi luoghi possono essere umidi, oppure avere dannose oscillazioni di temperatura . Se si desidera esporre il vecchio giornale (o il documento) alla luce, occorre metterlo dentro una teca con vetro a protezione raggi UV (che sono quelli più nocivi). Occorre, infine, limitare la movimentazione di questi vecchi reperti perché niente distrugge la carta più di una sua frequente movimentazione.

Perché la luna non ha un nome altisonante come i satelliti degli altri pianeti del nostro sistema solare?

Quasi ogni pianeta nel nostro sistema solare, e le loro rispettive lune orbitanti, hanno nomi presi direttamente dalla mitologia greca e romana. Ad esempio, Marte è il dio greco e romano della guerra, conosciuto anche come Ares, mentre le due lune, Deimos e Phobos sono denominate come i suoi figli. Similmente, Giove, in greco Zeus, è il Re degli Dei, mentre alcune delle sue lune sono denominate col nome di sue conquiste sentimentali. Questa tradizione sui nomi è in gran parte vera per ogni pianeta del nostro sistema solare, ad eccezione delle lune di Urano (uno degli ultimi pianeti scoperti) che prendono il nome di personaggi delle commedie di Shakespeare.

La sola eccezione a questa tradizione sulla denominazione dei pianeti e satelliti del nostro sistema solare sono i nomi, dal suono decisamente generico, di Terra e Luna (Moon).

In realtà, in inglese, Moon non significa nulla, è un nome di fantasia ma, in latino, il nostro satellite si chiama Luna ed è in perfetta armonia con lo schema di denominazione degli altri corpi celesti. Infatti, il nome le è stato dato in onore di un’antica e potente divinità romana, che si chiamava appunto Luna.

Quindi, nelle lingue neo-latine, il nostro satellite prende il nome di “Luna” (come anche di “Selene”, in misura minore, che è il nome greco della dea Luna). In inglese la parola luna viene usata come radice per la parola “lunare”.
In ogni caso, quando gli esseri umani scoprirono che c’erano altri pianeti nel cielo, ancora non erano sicuri che questi pianeti avessero delle proprie lune, fino a quando, nel 1610, Galileo Galilei non osservò direttamente, attraverso il proprio cannocchiale, i quattro satelliti di Giove.

Uno dei principali motivi per la scelta dei loro nomi, fu quello che dovevano differenziarsi dal nome del nostro satellite: Moon, in inglese. Infatti, secondo l’Unione astronomica internazionale (IAU), l’ente incaricato di dare un nome ad ogni corpo celeste del cielo, Moon è ancora il nome ufficiale della nostra luna, in inglese.

La denominazione di Moon (Luna) è stata una delle prime cose che la IAU ha fatto quando si è formata nel 1919 perché, per citarli, volevano: “standardizzare i molteplici e confusi sistemi di nomenclatura che erano allora in uso per il nostro satellite.”

Per quanto riguarda la IAU, essa stabilì che Moon (Luna) fosse uno dei nomi più interessanti che esistessero ed affermarono che, poiché la nostra luna è stata la prima ad essere scoperta ed è così chiamata in molte lingue e da molte popolazioni da millenni, era più facile rendere questo nome ufficiale piuttosto che introdurre un nuovo nome, dato che il loro obiettivo era di rendere le cose più facili da capire per le persone, non più complicate.

Naturalmente, “Moon”, è in realtà un nome molto grazioso, solo reso meno interessante dal fatto che abbiamo scelto un nome generico e non un nome di divinità, come per gli altri corpi del sistema solare.
La parola Moon da cosa deriva? Essa si può far risalire all’inglese antico, dove si pensa che derivi dalla parola proto-germanica “menon”, che a sua volta è derivata dalla parola proto-indoeuropeo ” menses” (mestruazioni), vale a dire “month, moon” (mese, luna). Questo evidenzia quanto occorre andare indietro nel tempo per trovare i primi accostamenti tra le parole umane ed il nostro amato satellite.

Cosa c’è di più traumatico nell’infanzia che svegliarsi una mattina e trovare l’amato pesce rosso galleggiare, morto capovolto, nell’acquario? Un innocente, minuscolo essere vivente, crudelmente estinto anzitempo!
Ma perché i pesci quando muoiono galleggiano capovolti?

La risposta a questa domanda ha a che fare col modo in base al quale mantengono il corretto assetto nell’acqua quando sono vivi. Occorre sapere che, la maggior parte dei pesci, possiede un organo, comunemente noto come “vescica natatoria”, il quale può essere riempito o svuotato volontariamente, tramite le branchie, consentendo, al pesce, di galleggiante a pelo d’acqua, oppure immergersi, rimanendo in profondità, senza alcuno sforzo. Questo principio fisico è utilizzato anche nel “Compensatore di profondità” (chiamato anche “dispositivo per il controllo di assetto”) dei subacquei.

Le vesciche natatorie, come detto, sono fondamentali per la capacità di un pesce di muoversi facilmente nell’acqua, senza spendere molte energie; tuttavia, c’è un effetto collaterale: l’instabilità. Infatti, la ricerca ha dimostrato che la posizione del “centro di galleggiamento” di un pesce è, tra quelli con vescica natatoria, situata sotto il loro centro di massa, vicino allo stomaco. Questo fatto li rende inclini al “rotolamento idrostatico” che è solo un modo elegante per dire che sono propensi a rivoltarsi con la pancia all’insù. Questo spiega perché il pesce spesso muove le pinne, anche quando è fermo.

Anche quando il pesce è malato o ferito, spesso non ha più il giusto assetto, ma nuota inclinato o, addirittura, capovolto. Semplicemente, essi perdono la capacità di mantenere l’equilibrio idrostatico e la parte più leggera del loro corpo cercherà di galleggiare sulla superficie dell’acqua. Quando i pesci muoiono, ovviamente, perdono qualsiasi possibilità di fermare il proprio ribaltamento, e la galleggiabilità della vescica natatoria prende il sopravvento.

Va anche notato che, i pesci, non necessariamente sempre galleggiano quando muoiono. Ad esempio, se un pesce muore con poca o senza aria nella vescica natatoria, questa non permetterà la galleggiabilità e, il pesce, affonderà ed inizierà a decomporsi. Ciò detto, il processo di decomposizione può, a volte, provocare la produzione di molto gas che, intrappolato dentro il pesce, può produrre un nuovo galleggiamento del pesce sulla superficie dell’acqua.

Quindi, riassumendo, il pesce quando muore galleggia con la pancia all’insù perché esso possiede un organo pieno di aria che è posizionato nella parte bassa del proprio ventre. Tale organo provoca uno sbilanciamento verso l’alto, che deve essere compensato col movimento delle pinne natatorie.

Se causata da un tumore, un ictus, un colpo alla testa o sono nate in questo modo, le persone con acromatopsia hanno una limitata o nessuna capacità di vedere il colore.

Ognuna delle possibili cause fisiche della condizione, come un tumore invasivo o un’emorragia cerebrale, danni al talamo (un insieme di “relè” nel cervello che coordina i segnali sensoriali) o alla corteccia cerebrale, possono produrre danni permanenti ed irreversibili alla capacità di percepire i colori.

D’altra parte, la acromatopsia può risultare anche ereditaria, in funzioni di mutazioni genetiche correlate, che impediscono all’occhio di rispondere correttamente alla luce e al colore.

All’interno della retina, nella parte posteriore dell’occhio, ci sono i coni ed i bastoncelli, che hanno proporzioni notevolmente diverse (120 milioni di bastoncelli contro 6 milioni di coni). I bastoncelli non sono influenzati dalla quantità di luce: essenzialmente, hanno lo stesso comportamento sia in assenza che in presenza di luce. Essi, oltrechè numerosi, sono molto sensibili e consentono alle persone di vedere anche in condizioni di scarsa illuminazione. Tuttavia, essi non sono di nessun aiuto quando si tratta di vedere i colori.
È qui che entrano in azione i coni. Divisi in tre gruppi, per percepire il verde, il blu e il rosso, i coni distinguono il colore e riescono a mettere a fuoco i dettagli.

Sia che si tratti di un bastoncello che di un cono, queste celle fotoricettrici hanno una carica. L’area che circonda la cella ha livelli più elevati di ioni di sodio, caricati positivamente (Na +), rispetto all’interno. Quando è buio, la membrana della cella è permeabile e alla ricerca di un nuovo equilibrio: gli ioni Na + si spostano all’interno dei fotoricettori, causando la carica positiva della cella. Quando la luce colpisce la cella, la permeabilità della membrana diminuisce, impedendo agli ioni Na + di entrare, consentendo alla cella di passare a carica negativa (questo fenomeno si chiama iperpolarizzazione).

Nei coni, in persone con acromatopsia congenita, la iperpolarizzazione non avviene correttamente e, quindi, non sono trasmessi al cervello i segnali che riguardano i colori. Ci sono quattro cromosomi che sono stati identificati come possibili colpevoli per questa menomazione: i cromosomi 14, 8q21, q22, 2q11 e 10q24.

Oltre a non distinguere i colori, le persone affette da acromatopsia ereditaria hanno anche una diminuzione della visione complessiva. Le cellule fotoricettrici della fovea, la regione centrale della retina da dove deriva la massima acuità visiva, hanno i coni acromati, cioè non distinguono i colori. Ciò comporta, oltre che vedere in bianco e nero, una meno chiara visione dei dettagli, particolarmente con luce diurna accentuata.

Le persone affette da acromatopsia spesso sono anche sensibili alla luce.

L’acromatopsia ereditaria colpisce circa una persona su 40.000, ma si trova in proporzioni maggiori nelle società che permettono i matrimoni tra consanguinei. Ad esempio, sull’isola di Pingelap in Micronesia, nel 1775, dopo un tifone e la successiva carestia, la popolazione si ridusse a sole 20 persone: una delle quali aveva la acromatopsia. Con il successivo aumento della popolazione, dovuta alle nuove nascite, molte persone di questa comunità ereditarono la menomazione che aveva uno dei superstiti del tifone e continuarono a passarla alle future generazioni.

Mentre non vi è alcuna cura per la menomazione, un trattamento efficace è disponibile per attenuare i sintomi. Si tratta di usare particolari occhiali correttivi. Questi occhiali hanno lenti rosse per ridurre la sensibilità alla luce ed una forma avvolgente per diminuire le interferenze luminose.

Il 95% degli individui legge ad un tasso compreso tra le 200-400 parole al minuto, secondo una ricerca fatta dal professore dell’Università del Massachusetts, Amherst Dr Keith Rayner. Tuttavia, esiste un piccolo numero di persone che afferma di poter leggere molto più velocemente, utilizzando alcune tecniche di “lettura veloce”. Con poco sforzo, troverete in internet molte aziende che sostengono che, seguendo i loro metodi, si può facilmente leggere anche oltre le 1.000 parole al minuto.

Tim Ferriss, autore del famoso libro “Four Hour Work Week” (Quattro ore di lavoro a settimana), offre un metodo per aumentare la velocità di lettura, gratuitamente, sul suo sito, sostenendo che, applicandolo, si avrà un aumento medio della velocità di lettura del 386% in appena tre ore di pratica.

Quindi, tutto questo è davvero possibile?

Quando si tratta di leggere, la comprensione è tutto. Leggere velocemente, ad esempio dimezzando i tempi, non serve a nulla se, alla fine della pagina, non si è capito o memorizzato quanto appena letto. E’ questo aspetto, molto importante, che non viene considerato dalla maggior parte dei programmi di lettura veloce. Gli studi sull’argomento hanno ripetutamente dimostrato che, chi legge velocemente, peggiora la comprensione del testo scritto rispetto a chi, il testo, lo legge ad un ritmo più lento.

Forse il più famoso test riguardo a questo argomento è stato condotto dal dottor Ronald Carver, autore di “The Causes of High and Low Reading Achievement” (Aspetti dell’alta e bassa velocità di lettura). Tra i molti studi che il dottor Carver ha fatto, nel corso degli anni, in cerca dei collegamenti tra velocità di lettura e comprensione, ha analizzato i migliori lettori veloci, scegliendoli, tramite test, attraverso un folto gruppo di studenti universitari, che eccellevano per la loro abilità di lettura e comprensione. Ha poi anche selezionato delle persone i cui lavori richiedevano eccezionali quantità di lettura quotidiana, come alcuni giornalisti del New Yorker e, infine, ha coinvolto alcune persone, molto dotate, che si erano costruite una buona reputazione per la loro abilità nella lettura.

Carver, in questo modo, ha cercato di raccogliere il meglio degli individui che dimostravano una grande attitudine per la lettura veloce, pur mantenendo alti livelli di comprensione. Voleva vedere se davvero questo gruppo selezionato, quando testato in modo scientifico e rigoroso, aveva un’abilità molto superiore a quella di un normale individuo con un normale livello di educazione scolastica.

Le conclusioni dello studio furono che nessuno del gruppo selezionato poteva raggiungere una comprensione di lettura del 75% – livello C (medio) – durante una lettura veloce (sopra le 600 parole al minuto). Va sottolineato ancora una volta che Carver ha selezionato meticolosamente i candidati del suo studio per trovare il meglio del meglio in termini di lettori veloci. E il meglio di quel gruppo poteva solo raggiungere una media di C in termini di comprensione, con una lettura soltanto di 1/3 più veloce di quella che è considerata generalmente la normale velocità di un lettore di media cultura.

Si può anche citare il professore Keith Raynor, autore di “Eye Movements and Information Processing During Reading: 20 Years of Research” (Movimenti oculari ed elaborazione delle informazioni durante la lettura: 20 anni di ricerca), “pochissime persone possono leggere più velocemente di 400 parole al minuto e, qualsiasi guadagno, probabilmente causerebbe un’inaccettabile perdita di comprensione del testo”.
Il Dr. Raynor continua, “probabilmente, si può spingere per ottenere un po’ più di 500 parole al minuto ma, poi, ci si scontra con un limite anatomico che riguarda l’occhio e la retina. Infatti, per comprendere il testo scritto, è necessario spostare gli occhi per metterlo a fuoco e, questa messa a fuoco, comprende un intorno limitato di parole, oltre a queste, non c’è più una visione nitida. Un altro fattore limitante è la velocità con cui il cervello è in grado di elaborare le informazioni.”

Molte tecniche di lettura veloce tentano di concentrarsi sulla diminuzione dei movimenti dell’occhio che, in media, prende circa un decimo di secondo per ogni movimento. Queste tecniche ritengono che sia possibile ridurre il numero di movimenti oculari e di fare cose come leggere due righe per volta o memorizzare molte parole prima di muovere gli occhi. Ma, come nota Raynor, “si può anche affermare che è possibile prendere maggiori informazioni per ogni messa a fuoco dell’occhio, ma non c’è nessuna prova di quali benefici reali si possano ottenere. Per quanto ne sappiamo, la fisiologia della retina ci insegna che non si possono visualizzare due righe di testo allo stesso tempo, o cose simili.”

Un altro comune metodo di lettura veloce è quello di eliminare la vocalizzazione, memorizzando in testa le parole. Raynor osserva che questo può aiutare ad aumentare la velocità ma, alla fine, “la ricerca mostra che quando ci si prova, e il testo è difficile, la comprensione peggiora inesorabilmente.”

Essenzialmente, il cervello ha bisogno di un certo tempo, non solo per vedere la parola, ma anche per comprenderne il significato. Risparmiare tempo, non vocalizzando o memorizzando tante parole su una pagina, non aiuta a comprendere il significato del testo e, sopratutto, a ricordarselo. Ognuno ha sperimentato qualcosa di simile mentre legge ma, tutto ciò che si ottiene, quando si arriva in fondo ad una pagina, è di rendersi conto di non avere idea di quello che si è appena letto, anche se gli occhi hanno visualizzato tutte le parole.

In aggiunta, sia Carver che Raynor, hanno scoperto che, mentre di sta leggendo, non è possibile eliminare completamente la vocalizzazione. Questo è stato dimostrato tramite sensori elettromagnetici posizionati nella gola. Questo esperimento ha dimostrato che, quando si stanno visualizzando le parole nella propria testa, il cervello invia impulsi nervosi ai muscoli della gola che controllano la voce; questo fatto non si nota visivamente, ma è registrato tramite i sensori elettromagnetici. Anche per i migliori lettori veloci, che affermano di avere eliminato la vocalizzazione, dati alla mano, si può affermare che ciò non è completamente vero.

La capacità di visualizzazione degli occhi e le possibilità di elaborazione del cervello hanno dei limiti, che non è possibile superare. Se le parole vengono visualizzate troppo velocemente, la capacità di comprenderne il loro significato e ricordarselo declina bruscamente.

Quindi, anche se si mettono in atto tecniche di visualizzazione veloce con un lavoro sugli occhi, per esempio, aumentando il numero di parole lette per ogni posizionamento dell’occhio, rimane il problema di quanto velocemente il cervello, in realtà, possa elaborare una parola. Infatti, questi metodi tendono a sovraccaricare la capacità di comprensione del cervello, al quale è impedito di soffermarsi sulle parole più difficili, che non conosce perfettamente. Inutile dire che poi il livello di comprensione generale del testo tende ad essere piuttosto carente e non perfettamente soddisfacente.
Per cui, un vero metodo per aumentare le proprie abilità come lettore, non a livelli sbalorditivi ma, almeno, essere nella parte superiore dell’intervallo di 200-400 parole al minuto, è di lavorare sul proprio vocabolario, perché ciò aumenta la capacità di vedere una parola e comprenderne, da subito, il significato. Ciò si ottiene, semplicemente, leggendo molto e, come detto, aumentando il proprio vocabolario di parole conosciute.
L’aumento della velocità di lettura legato alla conoscenza di un ricco vocabolario di parole può essere misurata anche direttamente tramite il monitoraggio degli impulsi nervosi sui muscoli della gola e della lingua, mentre si legge in silenzio. È stato verificato che, quando si incontra una parola che non si conosce perfettamente, si sub-vocalizza molto più lentamente di quando si incontrano parole che si conoscono perfettamente.

Un altro vantaggio di avere un ampio vocabolario di parole conosciute, è quello di ridurre il numero di volte che gli occhi devono tornare indietro per rileggere una frase dove si è trovata una parola difficile o, peggio ancora, sconosciuta.

Quindi, dopo tutto quanto detto, è possibile che, nel mondo, ci sia qualcuno che, legittimamente, possa vantarsi di leggere molto più velocemente di tutti gli altri? La risposta è sì. Questo qualcuno esiste ma, purtroppo, per noi comuni mortali, non è possibile imitarlo, perché egli usa processi mentali che non possono essere replicati. Per esempio, Kim Peek, soprannominato “l’erudito” o il “Google umano”, che è stato l’ispiratore del film “Rain Man”, è un esempio ben noto di capacità straordinarie. L’abilità mentale di Peek è stata oggetto di studio nel corso degli anni ed è anche ben documentata la sua possibilità, apparentemente senza sforzo, di memorizzare tutte le informazioni contenute in una determinata pagina, con notevole velocità.
Esattamente, non è mai stato testato sulla lettura veloce, cioè, quante parole al minuto poteva leggere, con una quasi perfetta comprensione del testo; tuttavia, secondo suo padre che, necessariamente, doveva essere la sua “ombra”, Kim poteva leggere una pagina in circa dieci secondi, dopo di chè, avrebbe potuto ripeterla, quasi perfettamente, anche dopo anni.

Kim, questa sua un’abilità, è stato felice di dimostrarla, per oltre due anni, in varie “performances”, davanti a mezzo milione di persone nel corso di varie lezioni in sale per conferenze e librerie attraverso gli Stati Uniti d’America. Una volta che è divenuto celebre, dopo il film “Rain Man”, egli si fermava spesso in strada con sconosciuti per dimostrare la sua sorprendente memoria e abilità di elaborazione dati. Questo era uno dei pochi modi che conosceva, in quanto affetto da autismo, per interagire socialmente con gli altri.

Le capacità di Peek, si pensa siano l’effetto collaterale di un grave difetto congenito (cioè presente sin dalla nascita) per cui le connessioni tra i due emisferi del cervello non si sono sviluppate correttamente e, per compensare tali mancanze, nel suo cervello, si sono create connessioni anomale ed insolite lasciandolo, mentalmente e fisicamente, affetto da molte disabilità, ma anche dandogli una memoria davvero eccezionale.

In conclusione, se si considera la “sintesi di lettura” piuttosto che la “lettura veloce”, è assolutamente possibile incrementare, anche significativamente, la possibilità di comprensione del testo. Un esempio comune, molto semplice è quello di leggere solo l’inizio di ogni paragrafo di un libro. Si otterrà, così, un’idea generale del capitolo, senza bisogno di leggerlo completamente.

Ma se tu, che stai leggendo, stai firmando la partecipazione ad un corso dove si sostiene che ti insegneranno a leggere 1.000 o più parole al minuto, con la stessa comprensione di quando si legge a ritmo normale, stai buttando via i tuoi soldi e rimarrai dolorosamente deluso dai risultati che realmente potrai ottenere. Questi corsi semplicemente, o ti stanno vendendo fumo o, quelli più seri, ti stanno per insegnare a riconoscere rapidamente, in un testo, le cose da ignorare e le cose su cui prestare la massima attenzione.
La scrematura del testo, cioè non leggere ciò che è secondario, può essere un’abilità estremamente preziosa in alcune circostanze, ma, comunque, non aspettarti di ottenere il livello di comprensione del testo che otterresti leggendo tutta la pagina ad un ritmo normale. Dopo un certo punto, più si va veloci, meno si capisce o, in seguito, meno si ricorda.

Il Triangolo delle Bermuda è una vasta area dell’oceano tra la Florida, Puerto Rico e Bermuda. Nel corso degli ultimi secoli, decine di navi e aerei sono scomparsi in circostanze misteriose nella zona, che si è guadagnata il soprannome di Triangolo del diavolo. Alcune persone hanno ipotizzato che potrebbe essere un’area di attività extra-terrestre, oppure che potrebbe trattarsi di una bizzarra, quanto pericolosa, causa scientifica naturale; ma molto probabilmente, è semplicemente un’area in cui si sono verificati episodi sfortunati — l’idea di essere di fronte ad un “vortice del mistero” non è una ipotesi più reale di quella dello Yeti o del mostro di Loch Ness.

La verità sul triangolo delle Bermuda - Mappa - TOP5

La cattiva reputazione del triangolo delle Bermuda è iniziata con Cristoforo Colombo, che nel suo diario dell’8 ottobre 1492, scrisse che guardando la bussola aveva notato strani movimenti. Egli, in un primo momento, non avvisò l’equipaggio, perché avere a bordo una bussola che non puntava al nord magnetico, poteva gettare nel panico i marinai. Probabilmente, fu una decisione giusta, considerando che tre giorni più tardi, quando Colombo avvistò semplicemente una strana luce, l’equipaggio voleva tornare in Spagna.

Questo ed altri problemi segnalati dalla bussola di Colombo, hanno dato origine alla diceria che le bussole non funzionino nel triangolo delle Bermuda, ma non è corretto, o perlomeno, è un’esagerazione, come si vedrà. Nonostante questo, nel 1970 la Guardia costiera, tentando di spiegare le ragioni delle sparizioni nel triangolo, ha dichiarato:

In primo luogo, il “triangolo del diavolo” è uno dei due posti sulla terra dove una bussola punta al “nord vero” mentre, normalmente, punta verso il “nord magnetico”. La differenza tra i due poli è nota come “variazione bussola”. Questa variazione rappresenta circa 20 gradi che, se non compensata, potrebbe portare un navigatore fuori rotta ed in seri guai.

Tutto questo è vero, ma ritenere la “variazione bussola” come la spiegazione per le sparizioni nel triangolo, non è corretto perché la variazione magnetica è un fenomeno che i comandanti di navi (e gli esploratori) hanno conosciuto ed affrontato sin dai tempi remoti, quando ancora non era stata scoperta la bussola. Quindi, questo problema, non può in alcun modo preoccupare un navigatore esperto.

Nel 2005, la Guardia costiera è ritornata sulla questione, dopo che un produttore TV di Londra ha realizzato un programma sul “triangolo delle Bermuda” ed ha affermato:

In molte pubblicazioni sono elencate insolite proprietà magnetiche che si verificherebbero entro i confini del triangolo. Pur considerando che i campi magnetici del mondo sono in continuo mutamento, il “triangolo delle Bermuda” è rimasto, nel tempo, relativamente indisturbato. È vero che alcuni eccezionali valori magnetici sono stati segnalati all’interno del triangolo stesso, ma questo non fa del triangolo un posto più insolito rispetto a qualsiasi altro sulla terra.

La verità sul triangolo delle Bermuda - un falso mito - TOP5

La moderna leggenda del “triangolo delle Bermuda” inizia nel 1950, quando è stato pubblicato dalla Associated Press un articolo scritto da Jones Edward Van Winkle. Jones segnalò diverse scomparse di navi e aerei nel triangolo delle Bermuda, tra cui cinque aerosiluranti della US Navy che scomparvero il 5 dicembre 1945 e gli aerei di linea “Star Tiger” e “Star Ariel”, scomparsi rispettivamente il 30 gennaio 1948 e il 17 gennaio 1949. In tutto, circa 135 persone risultarono disperse. Come disse Jones: “Esse erano sparite senza lasciare alcuna traccia.”

Nel 1955 un libro, The Case for UFO di M. K. Jessup, iniziò a puntare il dito verso forme di vita aliene: dopotutto, di corpi o relitti non ne erano stati trovati.
Nel 1964 fu Vincent H. Gaddis che coniò il termine “Triangolo delle Bermuda”. Ma, l’ossessione del triangolo ha colpito il suo picco nei primi anni settanta, con la pubblicazione di diversi libri sull’argomento, tra cui il bestseller di Charles Berlitz, “Il triangolo delle Bermuda”.

Tuttavia, Larry Kusche, che pubblicò nel 1975 “Il mistero del triangolo delle Bermuda”, ha sostenuto che alcuni autori hanno esagerato coi numeri pubblicati perchè non si sono adeguatamente documentati, presentando alcuni casi di scomparsa come “misteri”, quando non lo erano affatto. Inoltre, segnalarono casi che non erano nemmeno accaduti all’interno del triangolo delle Bermuda.

Dopo avere studiato adeguatamente la questione, Kusche ha concluso che il numero di sparizioni avvenute all’interno del triangolo delle Bermuda non era in realtà maggiore di un qualsiasi altro settore dell’oceano e che molti scrittori hanno fatto disinformazione (come non denunciare le tempeste che si sono verificate lo stesso giorno delle sparizioni), contribuendo a creare una storia sensazionale, ma non realistica. In breve, gli autori precedenti che si erano cimentati nella descrizione dei misteri del triangolo, non hanno fatto ricerca e, consapevolmente o involontariamente, si sono letteralmente inventati gli avvenimenti.

Il libro ha fatto un lavoro approfondito sfatando il mito del triangolo e dando una spiegazione plausibile ed approfondita ai tanti misteri e scomparse che si sono susseguiti nell’area. Tuttavia, altri autori, come Berlitz, confutarono i risultati di Kusche e ritornarono a parlare di fenomeni inspiegabili e, anche oggi, sono trasmessi programmi televisivi e film che continuano a tramandare il mistero del triangolo delle Bermuda.

Poiché il numero di sparizioni nel triangolo delle Bermuda è non superiore a qualsiasi altra area degli oceani presenti nel pianeta Terra, siete ancora convinti che questa area sia un cimitero per navi e aerei, che non trovi paragone in altre zone di mare aperto?
La maggior parte delle sparizioni può essere semplicemente attribuita alle caratteristiche uniche della zona. In particolare alla corrente del Golfo, una corrente che scorre dal Golfo del Messico, costeggia la Florida e si dirige verso l’Europa. Questa corrente calda rende l’oceano Atlantico estremamente turbolento ed un disastro, come un naufragio, può essere cancellato rapidamente, eliminando qualsiasi tangibile prova di quello che è successo.

Poi, occorre considerare le imprevedibili tempeste del Mar dei Caraibi, che danno vita ad onde di enormi dimensioni, gli uragani e tifoni, che flagellano periodicamente la zona. Tutte queste cause possono sicuramente portare a disastri per navi ed aerei che si trovassero a percorrere questa zona.
Inoltre, la topografia del fondale oceanico nell’area incriminata varia da vasti banchi in acque superficiali ad alcune delle trincee marine più profonde al mondo, con forti correnti che modificano i fondali e creano nuovi pericoli per la navigazione.
Infine, occorre non sottovalutare il fattore umano. Un gran numero di imbarcazioni da diporto viaggia tra le coste del Golfo del Messico, della Florida e delle Bahamas (una delle aree più densamente popolate al mondo) e spesso, chi si avventura in mare, non ha imbarcazioni sufficientemente sicure, oppure sono troppo piccole, oppure non conosce i reali pericoli di quest’area di mare, oppure non ha sufficiente esperienza di navigazione.

CURIOSITA'

AROUND THE WORLD

Le 5 citta piu antiche di Italia TOP5

Classificare le città italiane in base alla data di fondazione ufficiale ed i ritrovamenti archeologici non è un’impresa così semplice come potrebbe apparentemente sembrare,...

ARTICOLI RECENTI