Curiosità

In Asia centrale, delimitato a nord dall’Uzbekistan, a sud-est da Afghanistan e Iran, a sud-ovest e a est dal Mar Caspio, si trova il Turkmenistan. Questo paese è al quarto posto nel mondo per giacimenti di gas naturale e all’undicesimo posto (sempre al mondo) riguardo le esportazioni di questa preziosa risorsa energetica.

La sostanza, come detto, è preziosa, ma anche molto pericolosa. Se non correttamente gestita, piuttosto che diventare un flusso pressochè ininterrotto di profitti, molto utili ad un paese in via di sviluppo, si può velocemente trasformare in un disastro apocalittico. Ed è proprio quello che è successo nel 1971.

Prima del disfacimento dell’Unione Sovietica, nel 1991, il Turkmenistan era una delle repubbliche costituenti l’Unione, (allora si chiamava Repubblica Turkmena). Nel 1971, ingegneri sovietici, identificarono un sito vicino al villaggio di Derweze, nel deserto del Karakum (a circa 250 Km a nord della capitale Ashgabat), come un potenziale giacimento di gas naturale. Si avviarono le perforazioni e si iniziò pure ad immagazzinare il gas. Ad un certo punto, però, improvvisamente, il terreno franò e l’impianto di perforazione scomparve in un grande cratere.

Nessuno rimase ferito, ma gli ingegneri temevano che potessero liberarsi nell’aria gas velenosi. Così, decisero di incendiare il pozzo, pensando che le fiamme sarebbero durate non più di qualche giorno. Mai decisione si rivelò tanta errata!
Il cratere, profondo più di 60 metri e largo 20, continua a bruciare ancora oggi, dopo quasi mezzo secolo!

Essendo, il gas naturale, un’indiscutibile preziosa risorsa, nel 2010 il Presidente del Turkmenistan, Gurbanguly Berdimuhamedow, ordinò di sigillare il foro, con l’idea di sviluppare altri pozzi nella zona. Ma, a tutt’oggi, questo tentativo si è dimostrato infruttuoso.

Questa voragine incandescente, paurosamente bella, dà l’idea di una “porta verso l’inferno,” e alcuni turkmeni, molto pragmatici, stanno promuovendo il cratere ardente come gita eco-turistica. Uno di questi turisti ha descritto l’esperienza indimenticabile e da “togliere il fiato! Ho immediatamente pensato ai miei peccati e mi è venuta voglia di pregare.”

A volte gli incubi peggiori sono quelli che non hai. Ci sono numerose condizioni, disturbi e malattie che limitano o impediscono la giusta quantità di sonno che un individuo deve avere. Molti di questi disturbi sono piuttosto pericolosi, ma nessuno di questi è così spaventoso come la “insonnia familiare fatale” (FFI), che per fortuna è una malattia rara.

La malattia, spesso ereditaria, colpisce il sistema nervoso dell’uomo, ma anche degli animali, ed altera alcune funzioni essenziali del cervello come la diminuzione della memoria, i cambiamenti della personalità e l’insonnia. Poi, ancora, un declino nella funzione intellettuale (demenza) e movimenti anormali, specialmente nella difficoltà di coordinare i movimenti (atassia). I sintomi della malattia cominciano, tipicamente, in età adulta e peggiorano con il tempo. La morte arriva dopo alcuni mesi oppure entro alcuni anni.

Negli esseri umani, ci sono cinque malattie denominate prioniche: la malattia di Creutzfeldt-Jakob, la variante della malattia di Creutzfeldt-Jakob, la sindrome di Gerstmann-Straussler-Scheinker, la Kuru e l’insonnia familiare fatale. Ci sono invece sei malattie prioniche negli animali, tra cui l’encefalopatia spongiforme bovina, più comunemente conosciuta come “Malattia della mucca pazza”.

La prima malattia prionica ad essere identificata è stato quando, nei primi del 1700, pecore e capre, in Gran Bretagna, hanno iniziato ad avere strani sintomi come, irritabilità, perdita di peso ed, inoltre, diventavano scoordinate nei movimenti. La malattia, che prese il nome di “Scrapie”, poteva uccidere interi greggi. La Scrapie, per i primi 200 anni dalla sua comparsa, ha colpito solo l’Europa occidentale, ma nella metà del XX secolo, un contadino del Michigan importò pecore dall’Inghilterra e l’intero suo gregge fu ucciso da questa malattia. Oggi, solo l’Australia e la Nuova Zelanda non hanno mai avuto la Scrapie.

Come tutte le malattie da prioni, l’insonnia familiare fatale è causata da un cambiamento (mutazione) di geni, che si ammassano nella regione del talamo del cervello, distruggendone le cellule sane. La regione del talamo controlla le abilità sensoriali e motorie, come anche la coscienza e il sonno. I geni mutati “bucano” il cervello, dandogli un aspetto “spugnoso”. Questo può portare all’incapacità a dormire (peggiorando progressivamente, ma inesorabilmente) e quando il sonno viene raggiunto, sono molto vividi i sogni. È stato osservato da letture dell’encefalogramma che quando la persona è sveglia, visualizza segni associati al sonno REM. Essenzialmente, essi sono così privati del sonno che, pur essendo svegli, fanno comunque dei sogni.

Altri sintomi associati alla malattia includono la mancanza di movimento coordinato, e i cambiamenti della personalità. A seconda della gravità dei sintomi, la malattia è mortale entro pochi mesi, ma il malato potrebbe sopravvivere (peggiorando) per alcuni anni. L’aspettativa di vita, una volta diagnosticata la malattia, è di 12-18 mesi e conduce sempre alla morte.

I primi segni e sintomi di questa malattia, stranamente, non tendono a svilupparsi prima dei quaranta, cinquanta anni. Nessuno sa con certezza perché il gene fino a questo momento si trovi dormiente e non compia alcuna mutazione. I medici hanno teorizzato che forse il cervello, in questo periodo, diventa più vulnerabile.

Il primo caso registrato (ma di casi non registrati sicuramente ce ne saranno stati altri) di insonnia familiare fatale, anche se nessuno all’epoca la conosceva, è stato quello di un medico veneziano nel lontano 1765. Inizialmente, si pensava fosse morto per “un difetto legato al funzionamento del cuore”, egli soffriva di “paralisi” e lunghi periodi di insonnia, sintomi che sono coerenti con la FFI. Non solo, come documentato nel libro The Family That Couldn’t Sleep (La famiglia che non poteva a dormire), egli non è stato l’unico membro della sua famiglia a morire in questo modo. Infatti, il libro va a dettagliare 200 anni di storia di questa famiglia italiana e le battaglie dei loro membri con questa rara malattia genetica.

Nel mondo, ci sono stati altri casi diagnosticati come FFI. Nel 1991, un insegnante di musica di Chicago, che si chiamava Michael Corke, poco dopo il suo quarantesimo compleanno, iniziò a soffrire di insonnia. Man mano che l’insonnia peggiorava, peggioravano pure la salute fisica e quella mentale. Egli fu ricoverato all’ospedale dell’Università di Chicago, dove gli fu erroneamente diagnosticata una grave depressione. Al peggiorare dei sintomi, Corke divenne incapace di dormire e i medici lo posero in uno stato di coma controllato. Alla fine, l’insegnante di musica, morì. Erano trascorsi sei mesi dai primi sintomi della malattia. Alcuni anni più tardi, il suo caso fu descritto nel documentario della BBC “L’uomo che non dormiva mai”. Non è chiaro se ci fossero stati altri casi di FFI nella sua famiglia.

Un’altra storia interessante è quella dell’uomo vietnamita Thai Ngoc. Nel 2004, egli affermò di non aver dormito per 31 anni (dal 1973), dopo essere stato colpito da una brutta febbre. Nonostante le oltre 11.000 notti insonni, Thai ha sostenuto di non aver sofferto di problemi fisici o mentali. Alcuni hanno addirittura sostenuto che Ngoc è la prova che l’insonnia familiare fatale non è sempre mortale. Altri, soprattutto medici ed esperti, sostennero che Ngoc effettivamente dormiva, ma lui non lo sapeva. Secondo il dottor Wadhwa, alcuni insonni non riescono distinguere bene tra dormire ed essere svegli perché spesso sono impegnati in brevi, ma frequenti, “micro-sonnellini”.

Quanto veloce è il flusso degli elettroni all’interno dei cavi elettrici?

Potreste essere sorpresi di apprendere che il flusso degli elettroni attraverso un filo di rame è molto più lento di quanto si muove una tartaruga.

Ogni filo che conduce un flusso di elettroni, produce corrente elettrica utilizzabile ed è composto da miliardi di atomi. Per muoversi lungo di esso, gli elettroni devono attraversare questi atomi e lo fanno con un moto a zig-zag, che realizza un tasso di flusso netto, chiamato “velocità di deriva”, in una data direzione abbastanza lento.

Quanto lento esattamente? Per calcolarlo, usiamo questa formula: I = n * A * v * Q
Oppure: v = I/(n*A*Q)

I è la corrente, n è il numero di elettroni per metro cubo, A è la sezione trasversale del filo, Q è la carica di un elettrone e v è la velocità di deriva degli elettroni.

Poiché il numero di elettroni in un filo di rame (n) è 8,5 * 10 elevato a 28 / m3, e la carica di un elettrone (Q) è 1.6 * 10 elevato alla -19 C, se sappiamo l’area della sezione trasversale del filo e la corrente (I), noi possiamo calcolare la velocità di deriva degli elettroni.

Ad esempio, supponiamo di disporre di una corrente di 14 ampere e un filo di rame con una sezione trasversale di 3 * 10 elevato alla -6 m2. Facendo i calcoli otterremo che gli elettroni si muovono a una velocità di 3,4 * 10 elevato alla -4 m/s – circa un terzo di millimetro al secondo.

Per dirla con valori che sono più facili da capire, la velocità degli elettroni è di 1,2 metri per ogni ora – una velocità di movimento molto più lenta di quella di una tartaruga comune, che può coprire circa 240 metri nello stesso lasso di tempo.

Come è possibile che un flusso, sostanzialmente più lento di una tartaruga, più o meno istantaneamente, possa accendere una lampadina in una stanza?

Grazie ad una “Reazione a catena”.

Gli atomi nel filo di rame sono stipati l’uno vicino all’altro, “guancia a guancia”, ed anche per gli elettroni succede la stessa cosa. Quando l’interruttore viene acceso, grazie alla differenza di potenziale creata dal generatore, viene attivata una forza che fa spostare gli elettroni. Ognuno spinge il proprio vicino, che a sua volta spinge il vicino e così via fino in fondo il filo.

Alla fine, nessun elettrone attraversa il filo per accendere la luce, come si potrebbe pensare. Questo fenomeno è simile al moto dell’acqua nelle condutture. Quando si apre il rubinetto di casa, l’acqua esce istantaneamente, nonostante il fatto che, magari, il serbatoio di accumulo dell’acquedotto è a chilometri di distanza.

I batteri di origine alimentare sono la causa principale del deterioramento dei cibi ed anche degli avvelenamenti. Essi prosperano in ambienti umidi e a bassa acidità, dove sono presenti grandi quantità di proteine. Alcuni agenti patogeni come Salmonella, Campylobacter ed E.Coli vivono nell’organismo degli uccelli durante la loro vita e continuano a trovarsi nelle loro carni dopo la loro uccisione. Allo stesso modo, altri batteri, come Acinetobacter e Pseudomonas fluroescens, prosperano nelle carni degli animali macellati. Il sapore del pollo, essendo piuttosto unico per qualità e fragranza, è, inevitabilmente, soggetto ad un rapido deterioramento, che può essere mitigato solo ponendo particolare attenzione ai tempi di conservazione, alla temperatura delle carni e all’umidità dell’aria.

I batteri necessitano di acqua per sopravvivere e crescono soltanto su alimenti con un tasso di acqua di almeno l’85%. Il pollo, come la maggior parte delle altre carni fresche, ha un tasso di acqua del 99% e, quindi, fornisce un ambiente ideale. Inoltre, a differenza di molti altri tipi di carne, l’acqua e il ghiaccio utilizzati per lavare o refrigerare il pollo, non asciugano la carne quando questa viene cucinata ma, al contrario, la pelle del pollo conserva molta acqua in superficie, offrendo un’accogliente casa per una notevole varietà di batteri.

Anche se alcuni agenti patogeni, come la Salmonella, hanno difficoltà a crescere a temperatura ambiente, altri batteri vi prosperano, ed anche solo una popolazione di circa 105 cfu (unità formanti colonia)/cm2 di batteri psicrotrofi inizierà a rovinare il cibo. Però, in particolare per la carne di pollo, il degrado non diventa evidente fino a quando i batteri deterioranti non raggiungono una concentrazione molto più alta, di almeno 3.2 * 10.000.000 cfu/cm2.

Come detto, la temperatura è molto importante e svolge un grande ruolo nel prevenire le intossicazioni alimentari. Al fine di garantire che la Salmonella ed E.Coli, presenti nelle carni del pollo (in quanto uccello) siano effettivamente morti, il pollo deve essere cotto ad una temperatura interna di almeno 75 gradi, tenuta per almeno 15 secondi.

Il tempo gioca un ruolo importante nel processo di deterioramento delle carni, ed è fortemente influenzato dalla temperatura. Quando il pollo ha alti livelli di batteri psicrotrofi, cioè di circa 100.000 cfu/cm2, la carne inizierà a rovinarsi entro 1 o 2 giorni. Allo stesso modo, anche se la carne ha bassi livelli di batteri deterioranti, ma viene mantenuta ad una temperatura di 20 gradi, che è sotto la soglia necessaria per uccidere la maggior parte dei microbi, la carne si deteriorerà entro 2 giorni.

Inoltre, anche quando il cibo è cotto correttamente, se si lascia in un intervallo di temperatura tra i 5 e i 60 gradi, potranno proliferare batteri, che raddoppiano ogni 30 minuti. Di conseguenza, gli esperti di sicurezza alimentare, consigliano di non mangiare il pollo quando questo sia stato lasciato, per più di due ore, in questo intervallo di temperatura.

Quando ero un ragazzino, i miei genitori avevano una raccolta di vecchi giornali storici e ingialliti. Per esempio, ricordo distintamente un vecchio giornale, il Washington Post del 21 luglio 1969, adagiato su uno scaffale, col titolo “Eagle è atterrato – due uomini camminano sulla luna.” O un altro sbiadito e giallastro del 8 agosto 1974 con un grande titolo in evidenza, “Nixon si dimette.” Questi giornali sono reperti affascinanti, che documentano la storia, fatta di momenti importanti, ma anche di quotidiana banalità. Purtroppo, diventano di difficile lettura a causa del loro ingiallito colore o per la stampa che tende a dissolversi. Così, ci chiediamo, perché i vecchi giornali – e i libri – ingialliscono? C’è un modo per evitare che questo accada?

Generalmente, si racconta che la carta fu inventata intorno al 100 A.C. in Cina. Originariamente era realizzata con canapa bagnata, mescolata e pressata insieme a polpa di corteccia d’albero, bambù e altre fibre vegetali. La carta, presto si diffuse in tutta l’Asia; inizialmente era utilizzata per documenti ufficiali ed importanti ma, appena il processo diventò più efficiente e meno costoso, diventò di uso comune.

La carta arrivò in Europa probabilmente intorno al XI secolo. Gli storici ritengono che il più antico documento conosciuto su carta appartenga alla “chiesa cristiana” col “Messale di Silos”, proveniente dalla Spagna e che, essenzialmente, consisteva in un libro con testi da leggere durante la messa. La carta di questo libro era fatta con fibra di lino. Tuttavia, la carta e i libri si evolveranno nel corso degli anni, fino ad arrivare, nella metà del XV secolo, alla stampa, inventata da Gutenberg. La carta era normalmente fatto di stracci, lino, cotone o altre fibre vegetali. Ma, dalla metà del XIX secolo, si iniziò a fabbricare la carta con la fibra del legno.

Perché ci fu questo importante cambiamento? Perchè nel 1844, due persone inventarono il processo di fabbricazione della carta dal legno. Uno viveva nella Costa Est dell’Oceano Atlantico, ed era l’inventore canadese Charles Fenerty. La famiglia di Charles possedeva una serie di segherie in Nuova Scozia ed egli, conoscendo la durabilità, economicità e disponibilità del legno, pensò che poteva essere un buon sostituto del cotone, molto più costoso, per produrre la carta. Egli fece alcuni esperimenti con la pasta di legno e il 26 ottobre 1844, inviò la sua carta al giornale della città di Halifax, The Acadian Recorder, con una nota che reclamizzava la durevolezza e convenienza della carta di legno abete. Dopo poche settimane, il giornale iniziò ad utilizzare la carta, di pasta di legno, prodotta da Fenerty.

Allo stesso tempo, il tedesco, rilegatore e tessitore, Friedrich Gottlob Keller, mentre stava lavorando in una segheria, fece la stessa scoperta di Charles Fenerty – cioè, che la pasta di legno poteva essere impiegata al posto del cotone, perché più a buon mercato. Keller produsse un campione e, nel 1845, lo brevettò. In realtà, alcuni storici, per questa invenzione, danno più credito a Keller che non a Fenerty, per il fatto che Keller brevettò la sua scoperta, mentre il canadese non lo fece.

Tempo una trentina di anni e, per la produzione della carta, la pasta di legno scalzò tutte le altre fibre vegetali. La pasta di legno è, in effetti, più economica e resistente di quanto lo sia cotone e lino ma, ci sono anche alcuni inconvenienti. Quello più significativo è che la carta di pasta di legno è molto più sensibile all’ossigeno e alla luce solare rispetto ad altre fibre.

Il legno è principalmente costituito da due sostanze – cellulosa e lignina. La cellulosa è il materiale organico più abbondante in natura. Essa è incolore ma, riflettendo la luce piuttosto bene noi, esseri umani, la vediamo bianca. Tuttavia, la cellulosa è piuttosto sensibile all’ossidazione, anche se non come la lignina. L’ossidazione provoca una perdita di elettroni e indebolisce il materiale. A questo punto la cellulosa riflette meno la luce, rendendo il materiale (in questo caso, pasta di legno) più opaco e meno bianco. Tuttavia, questa non è la maggior causa dell’ingiallimento della carta.

Come detto, la lignina è l’altra sostanza che compone la carta. La lignina è un composto presente nel legno, che lo rende più forte e resistente. Infatti, secondo il dottor Hou-Min Chang, dell’Università di Raleigh, “Senza lignina, un albero potrebbe crescere fino a circa 180 cm di altezza.” Essenzialmente, la lignina funziona come un collante, tenendo più saldamente unite tra loro le fibre di cellulosa. Quindi, grazie alla lignina, l’albero è molto resistente, è in grado di svettare verso l’alto e di resistere alle azioni esterne, come il vento e la neve.

La lignina ha un colore scuro, come il cartone dove, gran parte della lignina, è lasciata per dare una resistenza aggiuntiva; tra l’altro, il cartone è più economico della carta perchè richiede una minore trasformazione della pasta di legno. Anche la lignina, tuttavia, è molto sensibile all’ossidazione. L’esposizione all’ossigeno (sopratutto se abbinata all’esposizione della luce solare), altera la sua struttura molecolare, causando un cambiamento di colore. Il colore della lignina ossidata è giallo-marrone.

Dal momento che la carta utilizzata nei giornali è economica e poco raffinata (perché, quella del giornale, è una carta “usa e getta”), al proprio interno è presente una quota significativa di lignina. Nei libri, invece, viene introdotto un processo di sbiancamento, che serve per rimuovere gran parte della lignina presente. Il risultato è che i giornali invecchiano più rapidamente (cioè, diventano bruno-giallastri) dei libri.

Oggi, per combattere l’invecchiamento, molti documenti importanti sono scritti su carta con limitata quantità di lignina.

Per quanto riguarda invece i vecchi documenti storici non c’è modo per intervenire sul danno già fatto. Si possono, però, prevenire ulteriori danni. Occorre conservare, giornali o documenti, in un luogo fresco, asciutto e buio. Proprio come accade nei musei, dove si conservano i documenti storici in un ambiente a temperatura controllata e con scarsa luce. Inoltre, non vanno tenuti in soffitte o cantine, perché questi luoghi possono essere umidi, oppure avere dannose oscillazioni di temperatura . Se si desidera esporre il vecchio giornale (o il documento) alla luce, occorre metterlo dentro una teca con vetro a protezione raggi UV (che sono quelli più nocivi). Occorre, infine, limitare la movimentazione di questi vecchi reperti perché niente distrugge la carta più di una sua frequente movimentazione.

Nero, bianco, verde, rosso, blu, arancione, marrone e grigio, il colore della guaina isolante su un filo elettrico indica generalmente il suo scopo. Così, prima di iniziare a trafficare con la nuova plafoniera, oltre a spegnere l’interruttore, è una buona idea quella di ripassare il significato del colore di ognuno dei fili che si sta per toccare.

L’elettricità residenziale negli Stati Uniti non iniziò con un sistema organizzato di fili a diverso colore e con proprie norme specifiche ma, poco dopo che Thomas Edison inventò la lampada elettrica (introdotta nel 1879), l’industria assicurativa iniziò ad emettere direttive sulla sicurezza e, nel 1881, il New York Board di Fire Underwriters rilasciò il primo set di norme, affrontando la capacità di isolamento e di installazione, ma non parlava ancora del colore dei fili.

Dal 1882, anche il Consiglio nazionale del Fire Underwriters (NBFU) adottò delle sue norme di sicurezza. Nel 1893, l’Associazione nazionale elettrica Underwriters, cercando di unificare e standardizzare i diversi orientamenti stabiliti in varie norme locali, scrisse un codice di norme nazionali per il cablaggio degli edifici riguardante l’energia elettrica e la relativa potenza.

Il primo codice elettrico nazionale (NEC) è stato prodotto dal NBFU nel 1897, anche se la questione della standardizzazione dei colori dei fili fece la sua comparsa solo nell’edizione del 1928. Lì, un requisito fu impostato per uniformare il colore dei fili di terra (chiamati “conduttori di messa a terra”), che dovevano essere soltanto di colore grigio.

Una codifica dei colori più approfondita è stata introdotta negli Stati Uniti con l’edizione del 1937 del NEC, dove un codice-colore fu istituito per definire i circuiti: i rami di tre circuiti avrebbero avuto i fili bianco, rosso e nero; per circuiti con più rami, si aggiungevano altri colori, tra cui giallo e blu.

Nel 1953, il NEC ha cambiato il colore di terra, che da grigio è passato a verde. Come conseguenza, questo colore (verde) è stato vietato per l’utilizzo nei circuiti.

La codifica a colori per più rami fu eliminata con il NEC 1971, perchè “non ci sono abbastanza colori per coprire tutte le variazioni per i sistemi e le tensioni.”

Oggi, negli Stati Uniti, i fili di terra possono essere verdi, verdi con una striscia gialla o fili nudi, i neutri possono essere bianco o grigio e i fili di circuito possono essere nero, rosso, blu, marrone, arancione o giallo, a seconda della tensione.

Si noti che questi colori sono la prassi standard negli Stati Uniti; altri paesi hanno istituito diversi codici (anche se nel Canada la codifica dei colori è molto simile). Ad esempio, Australia e Nuova Zelanda hanno gli stessi colori per i conduttori di terra come negli Stati Uniti (verdi, verdi con una striscia gialla e nudo), ma il loro neutro è nero o blu. Inoltre, qualsiasi colore può essere utilizzato per fili elettrici sotto tensione che non sia il colore di terra o del neutro Il rosso e il marrone sono raccomandati per la singola fase; il rosso, bianco e blu sono raccomandati per fili elettrici in multifase.

Nel Regno Unito, recentemente (2004), è stato cambiato il sistema dei codici, per uniformarlo a quello della International Electrotechnical Commission (IEC). Il filo di terra è rimasto lo stesso (verde con una striscia gialla), mentre il colore neutro, che precedentemente era nero, è passato a blu. Allo stesso modo, dove una vecchia linea monofase era rossa, ora dovrebbe essere marrone. Inoltre, è cambiata l’etichettatura e la colorazione delle linee multi-fase: L1, precedentemente rossa, ora è marrone; L2, precedentemente gialla, ora è nera e L3, precedentemente blu, ora è grigia.

Perché la luna non ha un nome altisonante come i satelliti degli altri pianeti del nostro sistema solare?

Quasi ogni pianeta nel nostro sistema solare, e le loro rispettive lune orbitanti, hanno nomi presi direttamente dalla mitologia greca e romana. Ad esempio, Marte è il dio greco e romano della guerra, conosciuto anche come Ares, mentre le due lune, Deimos e Phobos sono denominate come i suoi figli. Similmente, Giove, in greco Zeus, è il Re degli Dei, mentre alcune delle sue lune sono denominate col nome di sue conquiste sentimentali. Questa tradizione sui nomi è in gran parte vera per ogni pianeta del nostro sistema solare, ad eccezione delle lune di Urano (uno degli ultimi pianeti scoperti) che prendono il nome di personaggi delle commedie di Shakespeare.

La sola eccezione a questa tradizione sulla denominazione dei pianeti e satelliti del nostro sistema solare sono i nomi, dal suono decisamente generico, di Terra e Luna (Moon).

In realtà, in inglese, Moon non significa nulla, è un nome di fantasia ma, in latino, il nostro satellite si chiama Luna ed è in perfetta armonia con lo schema di denominazione degli altri corpi celesti. Infatti, il nome le è stato dato in onore di un’antica e potente divinità romana, che si chiamava appunto Luna.

Quindi, nelle lingue neo-latine, il nostro satellite prende il nome di “Luna” (come anche di “Selene”, in misura minore, che è il nome greco della dea Luna). In inglese la parola luna viene usata come radice per la parola “lunare”.
In ogni caso, quando gli esseri umani scoprirono che c’erano altri pianeti nel cielo, ancora non erano sicuri che questi pianeti avessero delle proprie lune, fino a quando, nel 1610, Galileo Galilei non osservò direttamente, attraverso il proprio cannocchiale, i quattro satelliti di Giove.

Uno dei principali motivi per la scelta dei loro nomi, fu quello che dovevano differenziarsi dal nome del nostro satellite: Moon, in inglese. Infatti, secondo l’Unione astronomica internazionale (IAU), l’ente incaricato di dare un nome ad ogni corpo celeste del cielo, Moon è ancora il nome ufficiale della nostra luna, in inglese.

La denominazione di Moon (Luna) è stata una delle prime cose che la IAU ha fatto quando si è formata nel 1919 perché, per citarli, volevano: “standardizzare i molteplici e confusi sistemi di nomenclatura che erano allora in uso per il nostro satellite.”

Per quanto riguarda la IAU, essa stabilì che Moon (Luna) fosse uno dei nomi più interessanti che esistessero ed affermarono che, poiché la nostra luna è stata la prima ad essere scoperta ed è così chiamata in molte lingue e da molte popolazioni da millenni, era più facile rendere questo nome ufficiale piuttosto che introdurre un nuovo nome, dato che il loro obiettivo era di rendere le cose più facili da capire per le persone, non più complicate.

Naturalmente, “Moon”, è in realtà un nome molto grazioso, solo reso meno interessante dal fatto che abbiamo scelto un nome generico e non un nome di divinità, come per gli altri corpi del sistema solare.
La parola Moon da cosa deriva? Essa si può far risalire all’inglese antico, dove si pensa che derivi dalla parola proto-germanica “menon”, che a sua volta è derivata dalla parola proto-indoeuropeo ” menses” (mestruazioni), vale a dire “month, moon” (mese, luna). Questo evidenzia quanto occorre andare indietro nel tempo per trovare i primi accostamenti tra le parole umane ed il nostro amato satellite.

Ogni volta che viene pubblicato un elenco dei lavori più pericolosi del mondo, taglialegna, metalmeccanico, elettricista e pescatore, di solito sono le professioni che compaiono. Ma, nessuna di queste professioni è pericolosa come quella di chi, all’interno di un lungo tubo cilindrico, vola attraverso l’aria, completamente privo di protezioni, e cerca di arrivare, sano e salvo, a terra. Come presto si vedrà, il Bureau of Labor Statistics ha recentemente registrato il lavoro più pericoloso in America con 127,8 decessi su 100.000 lavoratori. Beh, diciamo pure che tutto ciò è molto risibile rispetto ai tassi di mortalità che ha il mestiere di “uomo cannone”.

La palla di cannone umana entrò pubblicamente nella storia alla fine del 19esimo secolo. Nel 1871, un inglese di nome George Farini, sviluppò un meccanismo che chiamò “lanciatore”. Realizzato con potenti molle e gomma indiana, era semplicemente una piattaforma di lancio (a molle). Questo strumento, non sembrava per niente un cannone ma, in effetti, era in grado di lanciare le persone nel vuoto (o qualunque altra cosa fosse caricata sulla piattaforma).

Farini brevettò la sua creazione il 13 giugno 1871. Due anni più tardi, nel 1873, il “lanciatore” fece la sua prima apparizione pubblica in America (non è noto quando la macchina fu mostrata, per la prima volta, al pubblico inglese), al ben noto teatro di Broadway, Niblo’s Garden, a New York.

Farini, a causa del suo peso e del giro di vita non proprio da ballerino, non era l’uomo cannone. Lo era invece “Lulu,” un giovane minuto, vestito con abiti di donna, che George aveva addestrato per il lancio col cannone. Quando George lasciò andare il fermo che teneva la molla, Lulu volò per 9 metri in aria, per poi afferrare una barra di trapezio appesa al soffitto. La folla impazzì. George e Lulu ebbero un enorme successo e, da quel momento, iniziarono a viaggiare, proponendo il loro spettacolo di circo in molte città. Nel 1875, Lulu era conosciuta (effettivamente, il genere era maschile, ma era minuto e vestito da donna) come la “Regina dei trapezisti”. Ma, le loro performances sarebbero ben presto state eclissate da una nuova invenzione nel campo dei “proiettili umani”.

Secondo “The Australian Marvels”, non è chiaro chi fu il primo a fregiarsi del titolo di “proiettile umano”: Ella Zuila e George Loyal o la quattordicenne Matilda Richter, nota anche come “Zazel”. Secondo il sito web Circushistory.org, i primi furono i due australiani, che fecero il loro spettacolo a Sydney, nel 1872, con George che veniva sparato da un grande tubo cilindrico ed Ella che lo prendeva, appesa da un trapezio.

Altre fonti sostengono che fu Zazel la prima palla di cannone umana, quando eseguì lo stesso tipo di acrobazia, dal vivo, davanti ad un pubblico, presso il Royal Aquarium di Londra nel 1877. Più tardi, ella fu reclutata per far parte dello spettacolo di P.T. Barnum. Ma, naturalmente, se le date indicate sono giuste, la Zazel sembra essere arrivata soltanto seconda.

In entrambi i casi, la palla di cannone umana entusiasmò il pubblico. Il pericolo, l’emozione e il coraggio catturavano l’attenzione degli spettatori. I migliori circhi dell’epoca, tra cui di PT Barnum e Yankee Robinson Circus (dove lavoravano Zuila e Loyal), avevano questa attrazione; anzi, ben presto divenne un punto fermo ed insostituibile del loro show.

La macchina che lancia in aria il proiettile umano è, tutto sommato, piuttosto semplice. Infatti, il cosiddetto “cannone”, tecnicamente, non è affatto un cannone. La polvere da sparo, utilizzata comunemente nei normali cannoni, storicamente, non è mai stata utilizzata per lanciare i proiettili umani (anche se a volte, per effetto scenografico, la polvere da sparo è usata all’esterno, per il botto, in modo da rendere più verosimile lo sparo).

Aria compressa o, meno spesso, corde elastiche, vengono utilizzati per sparare i proiettili umani viventi. Come in ogni invenzione, i creatori sono reticenti e riluttanti a rivelare come è costruito il meccanismo ma, sostanzialmente, questi dispositivi tendono a lavorare come una catapulta. Molto semplicemente, nella canna viene immessa aria compressa, la quale spinge la piattaforma, su cui è posizionata la persona, con una pressione da 250 a 500 Kg per centimetro quadrato. La piattaforma si ferma all’imboccatura del cannone, ma il corpo umano prosegue il lancio, in alto nell’aria.

Viaggiando verso l’alto a 110 Km/h (il record mondiale è di 120,057 km/h), questi missili umani possono essere lanciati a 60 metri di distanza e raggiungere un’altezza di più di 22 metri. È stato anche verificato che queste persone, spesso svenivano a mezz’aria, a causa della forte accelerazione a cui il corpo è sottoposto (9 volte l’accelerazione di gravità terrestre). E, come se tutto ciò non fosse estremamente pericoloso, la fase più difficile della performane è l’atterraggio!

Prima del lancio gli acrobati, sia uomini che donne creano, con meticolosità ed attenzione, reti o bersagli gonfiabili, dove poter atterrare. Ma, questi atterraggi, che solitamente misurano circa 150 centimetri di lato, sono spaventosamente piccoli per una persona che fa un volo di 60 metri.

Prima dell’esibizione davanti al pubblico, i trapezisti posizionano i bersagli, inserendo manichini impagliati (con lo stesso peso degli uomini che si esibiranno) nel cannone, per vedere dove atterrano e se il bersaglio li può sorreggere. Se tutti i test vanno bene, si potrà procedere allo spettacolo. Nonostante tutti questi controlli e prove, il rischio è sempre molto alto e la possibilità che succeda una tragedia non è un evento così remoto.

Lo storico britannico, A.H. Coxe, una volta valutò che, delle 50 persone che si erano esibite, fino a quel momento, come proiettili umani, 30 erano morte. La maggior parte per non avere centrato la zona adibita all’atterraggio.

Altri sono stati gravemente feriti, come Rossa Matilda Richter, un ragazzina pioniere palla di cannone di 14 anni. Matilda si ruppe la schiena mentre lavorava per il Circo PT Barnum, per avere mancato il suo bersaglio. Nel 8 giugno 1987, Elvin Bale, durante un’esibizione per il Circo Barnum & Bailey, superò il suo obiettivo di atterraggio a causa del manichino bagnato (e quindi più pesante) che aveva usato come test. Finì paralizzato alle gambe. Matt Cranch, invece, fu ancora meno fortunato. Nel 2011, durante una esibizione davanti a duemila spettatori, (tra l’altro era la sua prima esibizione come proiettile umano), fu sparato in aria. Matt raggiunse l’altezza di 12 metri ma, nella discesa, perse l’equilibrio ed atterrò di testa. Morì all’istante.

Nonostante i pericoli, ci sono stati parecchi uomini-proiettile famosi e di successo. E, spesso, è stato un affare di famiglia. Come per la famiglia Zacchini, che solitamente lavorava per il Ringling Circus. Zacchini divenne, per la maggior parte del XX secolo, sinonimo di uomo-proiettile. A partire dal 1920, cinque dei sette fratelli della famiglia, si esibirono come proiettili umani. Tali esibizioni continuarono fino al 1990. I fratelli Victor e Hugo svilupparono una versione doppia (di coppia) dell’uomo cannone. Il fratello Mario, una volta, volò con una bicicletta.

Oggi, è la famiglia Smith, quella che detiene la maggiore celebrità riguardo alle esibizioni dell’uomo-proiettile. Principalmente, si parla di David Smith e di suo figlio, David Smith Jr. David senior detenne il primato mondiale del volo più lungo come proiettile umano, fino a maggio 2011, quando fu battuto da suo figlio che, ovviamente, divenne il nuovo campione mondiale. Verrebbe da dire, una battaglia tutta in famiglia!

Cosa c’è di più traumatico nell’infanzia che svegliarsi una mattina e trovare l’amato pesce rosso galleggiare, morto capovolto, nell’acquario? Un innocente, minuscolo essere vivente, crudelmente estinto anzitempo!
Ma perché i pesci quando muoiono galleggiano capovolti?

La risposta a questa domanda ha a che fare col modo in base al quale mantengono il corretto assetto nell’acqua quando sono vivi. Occorre sapere che, la maggior parte dei pesci, possiede un organo, comunemente noto come “vescica natatoria”, il quale può essere riempito o svuotato volontariamente, tramite le branchie, consentendo, al pesce, di galleggiante a pelo d’acqua, oppure immergersi, rimanendo in profondità, senza alcuno sforzo. Questo principio fisico è utilizzato anche nel “Compensatore di profondità” (chiamato anche “dispositivo per il controllo di assetto”) dei subacquei.

Le vesciche natatorie, come detto, sono fondamentali per la capacità di un pesce di muoversi facilmente nell’acqua, senza spendere molte energie; tuttavia, c’è un effetto collaterale: l’instabilità. Infatti, la ricerca ha dimostrato che la posizione del “centro di galleggiamento” di un pesce è, tra quelli con vescica natatoria, situata sotto il loro centro di massa, vicino allo stomaco. Questo fatto li rende inclini al “rotolamento idrostatico” che è solo un modo elegante per dire che sono propensi a rivoltarsi con la pancia all’insù. Questo spiega perché il pesce spesso muove le pinne, anche quando è fermo.

Anche quando il pesce è malato o ferito, spesso non ha più il giusto assetto, ma nuota inclinato o, addirittura, capovolto. Semplicemente, essi perdono la capacità di mantenere l’equilibrio idrostatico e la parte più leggera del loro corpo cercherà di galleggiare sulla superficie dell’acqua. Quando i pesci muoiono, ovviamente, perdono qualsiasi possibilità di fermare il proprio ribaltamento, e la galleggiabilità della vescica natatoria prende il sopravvento.

Va anche notato che, i pesci, non necessariamente sempre galleggiano quando muoiono. Ad esempio, se un pesce muore con poca o senza aria nella vescica natatoria, questa non permetterà la galleggiabilità e, il pesce, affonderà ed inizierà a decomporsi. Ciò detto, il processo di decomposizione può, a volte, provocare la produzione di molto gas che, intrappolato dentro il pesce, può produrre un nuovo galleggiamento del pesce sulla superficie dell’acqua.

Quindi, riassumendo, il pesce quando muore galleggia con la pancia all’insù perché esso possiede un organo pieno di aria che è posizionato nella parte bassa del proprio ventre. Tale organo provoca uno sbilanciamento verso l’alto, che deve essere compensato col movimento delle pinne natatorie.

Se causata da un tumore, un ictus, un colpo alla testa o sono nate in questo modo, le persone con acromatopsia hanno una limitata o nessuna capacità di vedere il colore.

Ognuna delle possibili cause fisiche della condizione, come un tumore invasivo o un’emorragia cerebrale, danni al talamo (un insieme di “relè” nel cervello che coordina i segnali sensoriali) o alla corteccia cerebrale, possono produrre danni permanenti ed irreversibili alla capacità di percepire i colori.

D’altra parte, la acromatopsia può risultare anche ereditaria, in funzioni di mutazioni genetiche correlate, che impediscono all’occhio di rispondere correttamente alla luce e al colore.

All’interno della retina, nella parte posteriore dell’occhio, ci sono i coni ed i bastoncelli, che hanno proporzioni notevolmente diverse (120 milioni di bastoncelli contro 6 milioni di coni). I bastoncelli non sono influenzati dalla quantità di luce: essenzialmente, hanno lo stesso comportamento sia in assenza che in presenza di luce. Essi, oltrechè numerosi, sono molto sensibili e consentono alle persone di vedere anche in condizioni di scarsa illuminazione. Tuttavia, essi non sono di nessun aiuto quando si tratta di vedere i colori.
È qui che entrano in azione i coni. Divisi in tre gruppi, per percepire il verde, il blu e il rosso, i coni distinguono il colore e riescono a mettere a fuoco i dettagli.

Sia che si tratti di un bastoncello che di un cono, queste celle fotoricettrici hanno una carica. L’area che circonda la cella ha livelli più elevati di ioni di sodio, caricati positivamente (Na +), rispetto all’interno. Quando è buio, la membrana della cella è permeabile e alla ricerca di un nuovo equilibrio: gli ioni Na + si spostano all’interno dei fotoricettori, causando la carica positiva della cella. Quando la luce colpisce la cella, la permeabilità della membrana diminuisce, impedendo agli ioni Na + di entrare, consentendo alla cella di passare a carica negativa (questo fenomeno si chiama iperpolarizzazione).

Nei coni, in persone con acromatopsia congenita, la iperpolarizzazione non avviene correttamente e, quindi, non sono trasmessi al cervello i segnali che riguardano i colori. Ci sono quattro cromosomi che sono stati identificati come possibili colpevoli per questa menomazione: i cromosomi 14, 8q21, q22, 2q11 e 10q24.

Oltre a non distinguere i colori, le persone affette da acromatopsia ereditaria hanno anche una diminuzione della visione complessiva. Le cellule fotoricettrici della fovea, la regione centrale della retina da dove deriva la massima acuità visiva, hanno i coni acromati, cioè non distinguono i colori. Ciò comporta, oltre che vedere in bianco e nero, una meno chiara visione dei dettagli, particolarmente con luce diurna accentuata.

Le persone affette da acromatopsia spesso sono anche sensibili alla luce.

L’acromatopsia ereditaria colpisce circa una persona su 40.000, ma si trova in proporzioni maggiori nelle società che permettono i matrimoni tra consanguinei. Ad esempio, sull’isola di Pingelap in Micronesia, nel 1775, dopo un tifone e la successiva carestia, la popolazione si ridusse a sole 20 persone: una delle quali aveva la acromatopsia. Con il successivo aumento della popolazione, dovuta alle nuove nascite, molte persone di questa comunità ereditarono la menomazione che aveva uno dei superstiti del tifone e continuarono a passarla alle future generazioni.

Mentre non vi è alcuna cura per la menomazione, un trattamento efficace è disponibile per attenuare i sintomi. Si tratta di usare particolari occhiali correttivi. Questi occhiali hanno lenti rosse per ridurre la sensibilità alla luce ed una forma avvolgente per diminuire le interferenze luminose.

AROUND THE WORLD

Le 5 citta piu antiche di Italia TOP5

Classificare le città italiane in base alla data di fondazione ufficiale ed i ritrovamenti archeologici non è un’impresa così semplice come potrebbe apparentemente sembrare,...

ARTICOLI RECENTI