mercoledì 28 marzo 2012

TESTE INCOLLATE

La ricostruzione effettuata da Tobias Houlton
Fino a poco tempo fa, gli Shuar, una popolazione dell'Amazzonia occidentale, fra Ecuador e Perù, andavano in giro portando al collo le teste miniaturizzate dei loro nemici uccisi. Era, nelle loro credenze, un modo per placare lo spirito di vendetta dell'ucciso. Ma ora  - si legge su Focus - una delle vittime è... tornata in vita. Tobias Houlton, dell'Università di Dundee, ha infatti ricostruito il volto di un giovane guerriero ucciso, partendo dalla sua testa rimpicciolita, utilizzando tecniche forensi, come in un caso di omicidio. Lo studioso ha anche ricostruito il processo di miniaturizzazione utilizzando teste di maiale. Gli Shuar mantengono viva la pratica usando teste di animali per fare repliche delle teste rimpicciolite. Ecco come si esegue il trattamento. Si separa innanzitutto la pelle dal cranio e la si immerge in acqua bollente. Si asporta il grasso e si inseriscono sassi per ridare forma al capo. Dopo i sassi si mette sabbia calda; raffreddandosi la pelle della testa si restringe, mentre il viso viene lisciato con pietre bollenti e carbone. Infine la testa assume le dimensioni di un pugno, e viene affumicata perché si conservi meglio. Quindi si appende al collo con una corda: il completamento dell'ornamento. 

Un "ornamento" originale

giovedì 22 marzo 2012

Pearl Harbor, le verità nascoste


«Abbiamo sottovalutato la potenza militare giapponese». Sono le lapidarie parole utilizzate dal generale americano, Sherman Miles, a capo della Military Intelligence Division, immediatamente dopo il devastante attacco di Pearl Harbor. Sono passati settant'anni da allora, ma ancora non è stata fatta chiarezza sull'episodio bellico. La tesi di Miles torna in auge dopo la pubblicazione originale di un suo scritto su Atlantic, storico magazine americano che si occupa di economia e di politica dal 1857. «Parlavamo tutti i giorni di guerra, senza, però, renderci veramente conto di ciò che stava per succedere», dice Miles. Secondo il generale USA, la disfatta statunitense – fra le più leggendarie pagine della Seconda guerra mondiale – s'è verificata a causa della superficialità e del pressapochismo degli americani, forse troppo sicuri di sé, e della inefficienza dell'impero nipponico. Le cose, invece, non stavano così. I giapponesi sapevano come destreggiarsi in guerra, e andavano studiati meglio, partendo dal loro background militare. Erano stati per anni in guerra con la Russia nei primi del secolo, e gli attriti con i cinesi non erano ancora sopiti. C'erano parecchi spunti su cui ragionare per capire le modalità di intervento dei nemici, circostanza che avrebbe portato a una maggiore consapevolezza e forse ai presupposti per controbattere efficacemente il loro improvviso intervento. «Tutti i dati che avevamo a disposizione sono risultati falsi», prosegue Miles, puntando la sua disanima sull'inefficienza delle informazioni relative agli spostamenti delle forze navali e aeree nipponiche, precedenti l'incursione. Secondo Miles le tesi dell'intelligence erano fuorvianti e contradditorie e per nulla in grado di offrire un chiaro disegno delle possibili iniziative nemiche. I giapponesi erano tutt'altro che lenti. I loro spostamenti, giudicati «felpati» dagli americani, erano semmai celeri, puntuali e destabilizzanti. Sicché, al contrario delle aspettative, non era lontana l'ipotesi che, da un momento all'altro, potessero sfondare la corazzata statunitense. Il problema è che i primi a credere ciecamente nella supremazia americana e nella flemma giapponese erano i principali comandanti della marina americana. Molti leader escludevano a priori la possibilità di subire un attacco a Pearl Harbor, in certi casi arrivando perfino a sorridere di questa eventualità. «L'ammiraglio Kimmel sosteneva chiaramente che non ci sarebbe mai stato un attacco a Pearl Harbor per via aerea, perché i giapponesi non erano attrezzati per farlo», precisa Miles. Husband E. Kimmel, il comandante della flotta del Pacifico al momento dell'incursione nemica, aveva seguito da terra lo sfacelo della sua armata, rimanendo anche ferito al petto. Al termine dello scontro, con l'indignazione dell'opinione pubblica, fu destituito dal suo ruolo e retrocesso a quello di contrammiraglio. Sulle sue opinabili posizioni fu, in seguito, aperta un'inchiesta, mentre il suo posto veniva preso dall'ammiraglio Chester Nimitz. Ma non fu il solo a minimizzare il pericolo. Sulla stessa linea c'era l'ammiraglio Richard Kelly Turner. Nel corso di una conferenza stampa americana, aveva espresso la convinzione che le forze navali statunitensi sarebbero riuscite a «tenere la marina giapponese in acque di casa», contando semplicemente sulla potenza navale USA, dislocata nel cuore del Pacifico. Per lui, però, le cose andarono meglio, tanto che, se non ci fossero state le bombe su Hiroshima e Nagasaki, lo Stato avrebbe affidato a lui il comando delle truppe per l'invasione del Giappone, una delle tante strategie messe in campo dopo la catastrofe di Pearl Harbor. E c'era, infine, l'ufficiale di guardia Kermit Tyler, convinto che i giapponesi, semplicemente, non avessero i numeri per fare paura alla potenza USA. «Ma», rettifica Miles, «evidentemente tutti quanti si sbagliavano». C'era tuttavia una spiegazione a questa salda e un po' incosciente presa di posizione. Gli americani, infatti, non escludevano del tutto la possibilità che i giapponesi potessero attaccare, ma credevano che avrebbero eventualmente agito lontano dalle Hawaii. Lo conferma il fatto che agli inizi del 1941, il presidente Roosevelt, ossessionato dall'avanzata tedesca, aveva ordinato di trasferire parte della flotta del Pacifico nell'oceano Atlantico, per appoggiare l'azione della Royal Navy, marina navale della flotta britannica. E invece c'erano molte ragioni economiche e politiche perché i nipponici colpissero proprio in quel punto dell'oceano, dove richiedevano libertà di azione e conquista.


Le mire espansionistiche del Sol Levante erano un altro aspetto da tenere presente per capire come sarebbero andate le cose, particolare che non è mai stato preso in considerazione. La politica espansionistica del Sol Levante risaliva al 1931, con l'occupazione della Manciuria. La crisi del 1929 aveva spinto i giapponesi ad allargare il loro areale imprenditoriale, portandosi anche in Cina, dove avevano occupato il Huabeiguo, comprendente cinque province cinesi; nel dicembre 1937 le truppe giapponesi avevano posato le loro bandiere nel cuore della capitale Nanchino, massacrando senza pietà 200mila persone. Gli USA erano neutrali, ma non vedevano di buon occhio questo atteggiamento dispotico da parte della superpotenza orientale. Le discordie presero ufficialmente piede fra i due paesi, tanto da indurre il presidente americano Roosevelt a imporre un embargo sui rifornimenti di materie prime dirette in Giappone. Ci fu uno scambio fruttuoso fra vecchie cacciatorpediniere e la possibilità di installare una flotta navale nel sud-est asiatico, in territorio britannico, ma la diplomazia era solo di facciata, sotto sotto si stavano affilando i coltelli per suonarsele di santa ragione. Al Giappone andava bene così. Tutto proseguiva secondo i suoi piani. Entro la metà del 1941 i giapponesi erano al comando di Manciuria, Corea, Mongolia e Indocina francese. Per questo motivo gli USA erano passati all'embargo petrolifero. Sicché, con questi presupposti, era diventata un'operazione inevitabilmente strategica quella di istituire una flotta nel Pacifico, così da ammaestrare le mire espansionistiche del Giappone. La base di Pearl Harbor venne battezzata nel 1940, suscitando le ire dei giapponesi, che la interpretarono fin da subito come una grave minaccia, entrando in preallarme. I tempi stringevano e a novembre il vice-ammiraglio Isoruku Yamamoto era già pronto per l'attacco, definendo la base di partenza: la baia di Hitokappu, di fronte all'isola di Iturup, nelle Curili del Sud. «Per i giapponesi era diventato di fondamentale importanza attaccare la nostra flotta e riprendere liberamente la loro politica di conquista», afferma Miles. «Pearl Harbor era una minaccia totale per le loro intenzioni e, dunque, la sua eliminazione era diventata una priorità per i vertici militari». Miles considerava cruciale anche il fatto che, tempo prima, fossero andate a vuoto le trattative fra l'ambasciatore giapponese Kichisaburo Nomura e il segretario di Stato americano Cordell Hull. I due s'erano incontrati a Washington il 6 novembre, senza giungere ad alcun risultato che potesse rimettere in sesto le dinamiche socio-politiche fra i due paesi. In realtà era una mezza farsa, tenuto conto del fatto che i servizi segreti statunitensi conoscevano già ciò che i giapponesi avevano in serbo, avendo scoperto il procedimento per decrittare i messaggi in codice spediti fra il ministero degli esteri nipponico e le varie ambasciate sparse per il mondo. I giapponesi volevano una sola cosa: la guerra. Anche la seconda trattativa di qualche giorno dopo non era così andata buon fine. Sicché i giapponesi avevano preso la decisione definitiva: bombardare gli USA. L'attacco venne sferrato alle 7.55 (ora locale) del 7 dicembre 1941. La prima ondata fu rappresentata dall'azione aerea di tre gruppi distinti, per un impiego complessivo di 183 aerei, fra bombardieri e caccia; al comando della flotta c'era il capitano di fregata Mitsuo Fuchida. La seconda ondata, per un totale di 167 velivoli, attaccò alle 8.55. La prima nave ad essere colpita fu la Oklahoma: saltò l'impianto elettrico e si bloccarono i cannoni, nel giro di pochi minuti lo scafo si squarciò in tre affondando inesorabilmente. La seconda nave a soccombere all'attacco giapponese fu la California: una bomba di 250 chili distrusse la corazzata con una potentissima esplosione. Una sorte simile toccò all'Arizona. I risultati dell'attacco diventarono, dunque, materia prima per i sussidiari scolastici: tre navi distrutte, sei affondate, sette gravemente danneggiate, due parzialmente danneggiate, quattro lievemente danneggiate, 188 aerei distrutti e 159 danneggiati, 2.403 morti. Al confronto le perdite giapponesi – 64 uomini e qualche aereo – furono un'inezia. È la prova che la supremazia giapponese fu totale. Dopo la doccia fredda venne immediatamente chiamato in causa il presidente americano che si dimostrò incredulo. Propose un discorso di cinquecento parole che rilasciò in sei minuti. L'arringa si aprì in questi termini: «Ieri, 7 dicembre, data che resterà simbolo di infamia, gli Stati Uniti d'America sono stati improvvisamente e deliberatamente attaccati da forze aeree e navali dell'impero giapponese...». E qui gli americani in toto, l'opinione pubblica, gli opinion leader e i militari stessi, cominciarono a sollevare dubbi a non finire per cercare di dare una spiegazione razionale all'accaduto. «Inutile negare che la nostra forza aerea non era pronta all'attacco e che le stazioni radio non funzionavano a dovere», commenta Miles. E sempre il capo della Military Intelligence Division è il primo a dire che la colpa fu, in realtà, doppia se si pensa che ci fu chi, a differenza di Kimmel e altre stelle militari, riteneva possibilissimo e addirittura imminente l'incursione a Pearl Harbor. Lo stesso presidente aveva proclamato che i nipponici erano soliti compiere attacchi senza preavviso. E gli avvertimenti non finivano qui. 


Nel passato erano state compiute varie simulazioni a Pearl Harbor, proprio per trovarsi pronti in caso di offensiva nemica e da queste prove qualcuno aveva ammesso una certa fragilità difensiva. Era, inoltre, stato redatto un documento nel quale si elencavano i maggiori rischi che potevano essere corsi in base all'avanzata giapponese. Al primo posto si parlava di “bombardamento aereo”, mentre boicottaggio e attacco via terra non erano quasi nemmeno ponderati. Ci furono anche molti avvertimenti espliciti che, evidentemente, vennero trascurati: a seguito di varie spedizioni investigative era stato stilato un documento nel quale si leggeva che «le future azioni giapponesi sarebbero state imprevedibili, ma sicuramente fortemente ostili». Ma ormai la frittata era fatta e piangere sul latte versato serviva ben poco. Sicché, a questo punto, non tardò molto a delinearsi l'ipotesi che fosse già stato tutto programmato, e che i primi a volere lo scontro fossero, paradossalmente, proprio gli USA per avere un motivo valido per entrare in guerra. Robert Stinnet fu il primo a cavalcare questa ipotesi rivelando che, volendo, gli States avrebbero potuto tranquillamente impedire l'azione, ma che non l'avevano fatto proprio per poter intervenire e convincere l'opinione pubblica, per la maggioranza anti-interventista, a schierarsi in favore dell'apertura delle ostilità. Dal suo punto di vista furono dunque gli americani a creare i presupposti per lo scoppio della guerra, attuando l'embargo petrolifero e quello delle materie prime dirette in Giappone. Fa inoltre notare che più volte, nei pressi dei mari giapponesi, le navi americane s'erano fatte avanti in assetto da guerra, quasi a voler intenzionalmente accendere una miccia. Perciò i giapponesi avevano protestato inviando “democraticamente” una missiva all'ambasciatore degli USA, senza ottenere grandi risultati. Roosevelt aveva, dunque, almeno un motivo valido per buttarsi nella mischia sollecitando gli americani ad appoggiarlo. Si profilava infatti l'ipotesi che le potenze dell'Asse – Germania, Giappone ed Italia – potessero vincere in Europa e in Estremo Oriente, predisponendosi alla conquista degli USA da due fronti: quello occidentale e quello orientale. Era un rischio troppo grosso, che senza dubbio, sempre secondo i suoi timori, valeva sicuramente l'entrata in guerra contro il cosiddetto asse “RoBerTo” (Roma-Berlino-Tokyo); peraltro c'erano anche vari leader sudamericani che vedevano di buon occhio la politica di Hitler, rintuzzando l'idea che l'intero mondo si sarebbe presto potuto schierare contro gli USA. Sicché le tesi di Sherman Miles vengono definitivamente marginalizzate da Liddell Hart, fra i maggiori storici della Seconda guerra mondiale: «Il colpo di Pearl Harbor nel 1941 costituì un tale shock da suscitare non solo quasi unanimi critiche verso le autorità capeggiate dal presidente Roosevelt, ma anche il profondo sospetto che il disastro fosse da attribuire a fattori più gravi della cecità e della confusione». 

Gli attacchi a sorpresa nella storia: 

 
TROIA
La guerra fra greci e troiani prosegue da circa nove anni, senza vere soluzioni. Ma le cose cambiano quando gli ellenici decidono di fronteggiare il nemico con il celebre Cavallo di Troia, emblema dell'attacco a sorpresa. Fingono di andarsene e abbandonano il Cavallo, pieno di soldati greci, in prossimità della città. I troiani lo credono un dono agli dei e lo portano all'interno delle proprie mura. Ma calata la notte gli achei fuoriescono indisturbati, mettendo a ferro e fuoco la città, e suggellando la vittoria.

ROMA
Storica azione di guerra attuata dai visigoti contro l'esercito romano. È il mese di aprile del 410 quando il popolo barbaro approda alle porte di Roma per conquistare il cuore dell'Impero. La città Eterna soccombe alla furia straniera nella notte del 24 agosto con l'arrivo di 50mila soldati armati fino ai denti. Durante l'operazione Alarico cattura come ostaggio Galla Placida, sorella dell'imperatore Onorio, con la quale in seguito si sposerà, governando la Gallia narbonese.

YPRES
Il 20 aprile 1915 i tedeschi preparano un attacco a sorpresa ai danni delle truppe anglo-francesi ad Ypres. Le condizioni atmosferiche fanno, però, slittare le operazioni al 22 aprile. L'attacco scatta alle 17.00. Gli inglesi vedono avanzare verso la propria linea una nuvola che sembra l'onda di un maremoto. I soldati si stringono le mani alla gola strabuzzando gli occhi: è un agguato con armi chimiche che provoca l'intossicazione di 15mila persone e la morte di 5mila soldati. 

 
TRENTON
Leggendaria battaglia svoltasi senza preavviso il 26 dicembre 1776, in piena Guerra di indipendenza americana. Gli statunitensi guidati da George Washington sorprendono le guarnigioni dell'Assia, dopo aver attraversato il gelido fiume Delaware nella notte di Natale. 2400 uomini al soldo del presidente americano attaccano in tre gruppi i militari tedeschi, uccidendone 23 e catturandone 913. Da questo momento la forza militare statunitense sarà un dato di fatto.

PARIGI
La capitale francese viene conquistata dai tedeschi il 14 giugno 1940, mentre l'intera Francia capitola il 25 giugno. La vittoria nazista è determinata da un perfetto assetto tattico e dal successo della cosiddetta manovra Sichelschnitt (“colpo d falce”). Con essa i tedesca aggirano la Linea Maginot – complesso di fortificazioni e sistemi difensivi - cogliendo del tutto impreparati gli Alleati. In seguito a questo risultato la Francia rimane occupata per quattro anni, fino alla liberazione successiva allo sbarco in Normandia.

SINAI
Alle 7:30 del 5 giugno 1967 l’intera aviazione israeliana, eccetto 12 aerei, è in volo verso l’Egitto. L'obiettivo? Distruggere l’aviazione facente capo al Cairo. Il piano è un’idea di Moshe Dayan, da poco ministro della Difesa, maturata in seguito ai numerosi attacchi palestinesi succedutesi in territorio israeliano durante l'anno in corso. Gli israeliani distruggono 340 dei 400 areri militari in dote al nemico. Con questa operazione si apre quella che diverrà famosa come “la guerra dei sei giorni”.

KHE SANH
L'Offensiva del Tet viene considerato un attacco a sorpresa avvenuto durante la guerra del Vietnam. L'azione è attuata dall'esercito vietnamita e dai vietcong che, nella notte fra il 30 e il 31 gennaio 1968, attacca la base statunitense di Khe Sanh, sede storica dei marines. I militari USA resistono per 60 giorni isolati dagli altri avamposti militari. L'assedio viene interrotto dall'intervento della Prima divisione di Cavalleria Aerea, nel corso della cosiddetta Operazione Pegasus. 

 
NEW YORK
È la mattina dell'11 settembre 2001, quando due aerei modello Boeing 767 si schiantano contro le Torri nord e sud del World Trade Center, nel cuore di New York. Nello stesso tempo viene attaccato il Pentagono e si cerca di far saltare la Casa Bianca. Dietro l'improvvisa azione bellica si cela Al-Qa'ida, organizzazione guidata da Osama bin Laden. In seguito a ciò l'amministrazione Bush ordina l'intervento militare in Afghanistan, per smascherare i responsabili del disastro e rovesciare il governo talebano.

martedì 20 marzo 2012

Lunga vita all'American cheese


È disponibile a fette, in cubetti, e addirittura in forma liquida o in bombolette spray. L'american cheese – un formaggio fuso a base di cheddar – ha una grande varietà di aspetti, ma è quasi sempre arancione. E deve gran parte delle sue caratteristiche all'Inghilterra, nome compreso. A metà Ottocento la popolazione britannica era in grande espansione. E poiché era abituata al cheddar dal colore intenso, gli esportatori americani decisero di tingere il loro formaggio bianco con l'annatto, un colorante estratto dai semi della pianta Bixa orellana. Nel 1863 – si legge sull'ultimo numero di National Geographic - gli inglesi acquistarono ben 22,6 milioni di chili del cheddar colorato e lo battezzarono “american cheese”. Il nomignolo prese piede e, con l'incremento della popolazione statunitense, i consumi del formaggio raggiunsero  livelli mai visti prima. Durante la Prima guerra mondiale James L. Kraft inventò nuove versioni del prodotto, sempre a base di cheddar, sempre arancioni, che andarono a finire persino nelle razioni dei soldati americani, stimolando una richiesta di mercato, che perdura ancora oggi, di alimenti dal colore a dir poco intenso. Il sapore del cheddar? È dolce quando è giovane, e piccante con sentori di nocciola e di tostatura quando è stagionato, e la sua forma è cilindrica o a parallelepipedo di dimensioni variabili (dai 4,5 ai 30kg). 

Tipici formaggi italiani... 


mercoledì 14 marzo 2012

Formiche all'attacco


Le formiche combattono le guerre tra colonie con strategie belliche simili a quelle degli esseri umani. In alcuni casi però possono andare addirittura oltre, con una corsa agli armamenti che può rispondere a stimoli ambientali. Per esempio – si legge sull'ultimo numero delle Science - otto specie di formiche del genere Pheidole su un totale di 1100 possono contare su supersoldati, cioè esemplari di dimensioni gigantesche. Ora uno studio pubblicato su Science da ricercatori della McGill Universuty ha dimostrato che potenzialmente ogni esemplare di qualsiasi specie di Pheidole potrebbe diventare un supersoldato, basta trattarlo con la molecola giusta. Gli scienziati hanno scoperto che l'apparato genetico per il fenotipo supersoldato si trova in tutte le specie di Pheidole e si è evoluto da un antenato comune del genere. Inoltre i ricercatori hanno indotto lo sviluppo di supersoldati in una specie di Pheidole in cui sono assenti trattando le larve con un ormone, la neotenina. Gli stimoli ambientali quindi possono guidare la corsa agli armamenti delle formiche.

martedì 13 marzo 2012

La legge universale

Fiore di girasole
Ce lo insegnano fin dai primi anni di scuola: non esistono due fiocchi di neve identici. È una definizione banale, ma assolutamente veritiera: pur avendo una simmetria esagonale, per via della medesima struttura microscopica di base, essi danno luogo a un numero infinito di forme, per cui in una nevicata è praticamente impossibile trovare due fiocchi di neve gemelli. Nonostante l'affermazione convenzionale, l'argomento è tutt'altro che semplice e arriva a coinvolgere discipline assai diverse fra loro come la matematica, la meteorologia, la storia e addirittura la botanica. Il primo a occuparsi scientificamente dei fiocchi di neve è stato Keplero, nel 1611, realizzando un libretto curioso dal titolo Strena seu de nive sexangula (Sul fiocco di neve a sei angoli). In esso affrontava l'argomento dando per scontata la difformità dei fiocchi nevosi - già da allora intuibilmente dovuta a fattori inerenti temperatura, pressione e umidità - e ponendosi, piuttosto, l'enigmatico quesito: perché tutti i fiocchi di neve presentano una tipica struttura esagonale? Da questo dubbio nasce la cosiddetta “congettura di Keplero”, elaborata proprio per risolvere il mistero della loro geometria. Il matematico non formulò da solo le sue teorie, ma si avvalse del contributo di figure carismatiche dell'intellighenzia dell'epoca, come il matematico Thomas Harriot, impegnato per anni a spiegare quale fosse il modo migliore per sistemare le palle di cannone sui ponti delle navi. Nel testo arrivò pertanto a spiegare che i fiocchi di neve si organizzano su base esagonale, perché – proprio come accade alle palle di cannone su una nave posizionate per occupare meno spazio – è questo l'ordinamento ideale per raggiungere il medesimo scopo a livello molecolare (tenendo conto del fatto che l'aggregazione dei cristalli di ghiaccio nell'atmosfera è governata da dinamiche chimiche legate alla natura atomica della materia). Ma pensandoci bene, l'occupazione esagonale degli spazi è assai produttiva anche in altri ambiti, a noi ben più congeniali. Quando andiamo dal fruttivendolo, per esempio, dando un'occhiata alla cassetta delle mele o delle arance, noteremo che i frutti non sono distribuiti casualmente, né di solito in file verticali e orizzontali, ma secondo una disposizione diagonale, tale per cui ogni frutto viene accolto nella “ascella” che si forma fra altri due adiacenti. «È facile constatare che nella tipica disposizione della frutta nelle cassette ciascun frutto è circondato da altri sei», spiega Giorgio Bardelli, naturalista del Museo Civico di Storia Naturale di Milano. «Se si immagina che i singoli frutti si attraggano reciprocamente in modo da occupare il minimo spazio, è proprio questa la disposizione geometrica che ne deriva, la migliore dal punto di vista dell’efficienza di immagazzinamento». 

Tipi di fiocchi di neve
 A questo punto, però, è lecito porsi un ulteriore quesito: perché è necessario che i fiocchi di neve occupino meno spazio, considerando che fra le nuvole c'è tutto lo spazio che si vuole? E qui, ancora una volta, si torna alla lungimiranza di Keplero che, pur non avendo grandi mezzi a disposizione, riuscì a comprendere che, evidentemente, vi fossero delle “entità” (che oggi sappiamo chiamarsi molecole) che interagivano fra loro, trovando il giusto equilibrio solo osservando disegni geometrici ben precisi, in questo caso particolare di natura esagonale. Si affronta, peraltro, un discorso simile in mineralogia, nell'ambito del cosiddetto sistema esagonale, forgiato per distinguere uno dei sette sistemi cristallini alla base di minerali arcinoti come il berillo, la grafite, e l'apatite. Di nuovo matematica e prodotti naturali vanno, dunque, a braccetto, confortando le tante tesi elaborate nei secoli da scienziati, naturalisti e filosofi della scienza: «La natura presenta regolarità matematiche, perché le leggi fisiche che le producono sono leggi matematiche», spiega ancora oggi Ian Stewart, professore di matematica presso la Warwick University e famoso divulgatore scientifico. Sicché Keplero aveva chiaramente fatto centro, tuttavia non fu mai in grado di raggiungere una dimostrazione matematica rigorosa. Ecco perché ci si limita a parlare di congettura. Ma sono stati fatti passi da gigante dalla sua epopea e benché non si possa ancora dire di aver risolto il dilemma, la formulazione di una teoria che spieghi la geometria dei fiocchi di neve potrebbe davvero essere dietro l'angolo. Hanno approfondito l'argomento il matematico tedesco Carl Friedrich Gauss, rifacendosi a una “griglia regolare” intarsiata da particolari sfere, e David Hilbert, anch'egli di origine germanica, che, però, alla fine getta la spugna includendo la congettura di Keplero nella sua lista dei ventitré problemi matematici irrisolti. Un aiuto arriva anche da Laszlo Fejes Toth, matematico ungherese, e Wu-Yi-Hsiang dell'University of California di Berkeley che nel 1993 sviluppa un procedimento non ancora confutato, ma giudicato dall'establishment accademico mondiale “incompleto”. Per “esaustione” sarebbe, però, giunto davvero a un passo dalla soluzione Thomas Hales dell'University of Michigan. Hales propone fin dal 1998 un procedimento computeristico che secondo gli Annals of Mathematics rispetterebbe al 99% le esigenze della dimostrazione. Ma la corsa non è ancora finita e la natura geometrica delle cose pare suggerire l'ennesima sarcastica e provocante domanda: «La matematica si inventa o si scopre?». 

Un fiocco di neve al microscopio
Di fatto l'occupazione strategica degli spazi non è esclusivo appannaggio dei fiocchi di neve, essendo tipica anche di molte altre realtà del mondo naturale. Basta guardarci intorno e osservare, per esempio, un ananas, la pigna di una conifera, i petali di una rosa, il capolino di un girasole. Cosa hanno in comune tutti questi rappresentanti del mondo vegetale oltre al fatto di appartenere a un preciso ordine botanico? Apparentemente nulla, ma un'indagine più accorta mostrerebbe, invece, che, come nei fiocchi di neve, anche qui sussiste l'innato tentativo di riempire gli spazi con precisione certosina: i capolini del girasole, seguendo linee curve perfettamente tracciate; le pigne, dando vita a brattee legnose giustapposte; i petali di una rosa, abbarbicandosi l'uno all'altro; l'ananas, realizzando rosette carnose che si rincorrono serrando ogni spiraglio. In questo caso, però, il significato del fenomeno (almeno macroscopicamente) trascende la chimica delle molecole, coinvolgendo una ben più prosaica realtà: la selezione naturale. Tutte queste prerogative vegetali, infatti, volgono in una sola direzione: permettere alle piante di produrre il maggior numero di semi possibili, occupando il minor spazio. È, in pratica, una strategia assimilata nel tempo per facilitare la trasmissione della specie, così come lo è il progressivo allungamento del collo di una giraffa, tale da permettere agli esemplari più dotati di alimentarsi meglio e riprodursi, di conseguenza, con maggiore successo. Non tutti i vegetali adottano questo stratagemma, ma molti sì. E anche qui, quindi, la matematica e la geometria cooperano nel conferire forme precise alle tante espressioni naturali, non solo biologiche. Frattanto è impossibile trascendere da un altro aspetto matematico preponderante: i numeri di Fibonacci. 

Le spirali di un Nautilus
È una sequenza matematica basata sul presupposto che ogni elemento è uguale alla somma dei due precedenti: sicché i primi numeri della sequenza sono 1, 1, 2, 3, 5, 8, 13, 21, mentre gli ultimi non esistono, poiché la sequenza prosegue all'infinito. La curiosità consiste nel fatto che in molte specie vegetali, prima fra tutte le composite (la famiglia del girasole), il numero dei fiori, dei petali o delle delle foglie, corrisponde a un numero di Fibonacci: si va dal cinque al 377, passando per tutti gli altri numeri intermedi che tipicizzano le tante specie soggette al fenomeno. I gigli hanno tre petali, i ranuncoli cinque, la calendula tredici, le margherite trentaquattro (ma anche 55 e 89) e così via. Per le brattee delle pigne è la stessa cosa. Uno studio effettuato su 4mila pigne appartenenti a varie pinacee ha provato che oltre il 98% di esse contiene un numero di Fibonacci. Analogo il discorso per le scaglie di ananas: una ricerca compiuta su 2mila frutti ha, infatti, dimostrato una corrispondenza del 100% fra le scaglie e i numeri di Fibonacci. Come ricorda Bardelli, «questi numeri prendono nome dal matematico Leonardo da Pisa, detto Fibonacci, che li introdusse nel 1202. Le interessanti proprietà di questa successione numerica interessarono anche Keplero, che li citò nel suo Strena seu de nive sexangula. Soltanto molto tempo più tardi i numeri di Fibonacci furono inaspettatamente ritrovati in alcune strutture biologiche, come quelle di molti fiori e frutti». E non finisce qui, perché a questo incredibile ordine matematico obbedisce anche la disposizione di determinate foglie intorno al proprio fusto: un altro pretesto evolutivo, per consentire ai vegetali di godere al meglio dell'irraggiamento solare, fondamentale per la buona salute di una pianta, e quindi per una efficace produzione di frutti e semi.

Il video: 

venerdì 9 marzo 2012

Splatter medievali


Nel Medioevo, in Europa, lo studio degli organi interni del corpo umano era proibito e doveva quindi avvenire in segreto. La situazione portò al furto di cadaveri, e talvolta perfino all'omicidio, con l'obiettivo di procurare i corpi per le sedute di anatomia. Nel 1832 fu introdotto in Inghilterra l'Anatomy Act, per regolare la domanda di cadaveri per scopi scientifici, che prevedeva per esempio che i criminali condannati a morte potessero essere obbligati alla donazione del corpo, da sezionare in pubblico. Trenta cadaveri di ogni età furono sezionati, catalogati e disegnati anche da Leonardo da Vinci – si legge su Science Illustrated - dopo che lo studioso aveva ottenuto un permesso speciale intorno al 1500. Leonardo disegnò dettagli che nessuno aveva mai visto prima. Vari condannati a morte finirono, invece, sotto la lama del medico e anatomista fiammingo Andreas Vesalius, che nel 1539 ottenne da un giudice di Padova il permesso di sezionarne i corpi. Nella foto è riportata un'incisione in rame del 1751 di William Hogarth: descrive la dissezione del corpo di un condannato davanti a un pubblico di curiosi. 

martedì 6 marzo 2012

RAGNI SUBACQUEI


Un nuovo studio pubblicato dal Journal of Experimental Biology ha messo in luce che il ragno palombaro, che vive abitualmente sott'acqua, è in grado di restare immerso fino a 24 ore senza prendere aria dalla superficie. Questi aracnidi respirano ossigeno, che intrappolano in una bolla d'aria superficiale e che poi immagazzinano in una “campana di immersione” fatta di seta. Gli entomologi pensavano che il ragno fosse costretto a rifornirsi di aria pulita ogni mezz'ora, massimo 40 minuti. Ma ora un team di ricercatori tedeschi e australiani ha dimostrato che la loro resistenza è ben maggiore e che un solo ricambio di aria dura per 24 ore, praticamente un giorno intero. Secondo gli studiosi la struttura della bolla funziona come la branchia di un pesce, essendo in grado di ricaricarsi direttamente con l'ossigeno presente nell'acqua quando la quantità dell'elemento al suo interno è scarsa.

Il video: 

lunedì 5 marzo 2012

Con la coscienza a posto


Stato di veglia e consapevolezza. È in questi termini che va affrontato il difficile compito di chiarire se un cervello sia o meno in stato vegetativo. Poiché un cervello può essere sveglio, ma non consapevole, così come sveglio e consapevole, oppure né sveglio e né consapevole. Parlare di semi-incoscienza rischia, dunque, di essere fuorviante, partendo dal presupposto che ancora oggi non si ha un quadro preciso del concetto di “coscienza”. Detto ciò si è visto che alcune persone definite in stato vegetativo – vale a dire sveglie ma non consapevoli - sono in realtà parzialmente consapevoli. È un dato di notevole importanza, tenuto conto del fatto che costoro hanno, almeno in teoria, molte più chance di ripresa rispetto agli altri. Oggi per verificare lo stato di coscienza di un individuo ci si avvale di due opportunità. La prima è quella di rivolgere banalmente al paziente traumatizzato delle domande: se il malato risponde è evidente che la sua coscienza è integra. In caso contrario è necessario approfondire la diagnosi usufruendo di un macchinario specifico: la risonanza magnetica. È uno strumento in grado di “fotografare” il cervello per capire se e come funziona. Il problema principale è riferito alla sua scarsa maneggevolezza e al suo alto costo. «Quasi tutti gli ospedali la posseggono», rivela Stefano Cappa, professore di neuropsicologia presso l'Università Vita Salute del San Raffaele di Milano, «ma il vero problema è riuscire a interpretare correttamente i dati provenienti dalle analisi. Sono tutt'altro che semplici da decifrare, necessitano di un'adeguata competenza, molto più approfondita di quella richiesta, per esempio, dallo studio di un ginocchio». Ora, però, si sta facendo largo un nuovo mezzo, molto semplice da utilizzare e potenzialmente in grado di dare buone risposte sull'attività cerebrale. È stato approntato dai tecnici del Coma Science Group dell'Università di Liegi, in collaborazione con i ricercatori della London University of Western Ontario e della Cambridge University; e si basa sul fatto che, se un paziente non risponde alle domande, potrebbe non essere per incoscienza, ma perché le lesioni subite non gli consentono di parlare o esprimersi gestualmente. «Nel nostro nuovo test, chiediamo ai pazienti di muovere la mano o il piede, ma non ci affidiamo più alla risposta muscolare», si legge sull'ultimo numero della rivista The Lancet, «misuriamo direttamente l'attività della corteccia motoria usando l'elettroencefalografia (EEG), un metodo più economico, utilizzabile in tutti i centri ospedalieri». 


Ma come si è arrivati a stabilire che alcune persone in stato vegetativo sono in realtà parzialmente coscienti? Uno degli studi più interessanti è stato da poco diffuso dalle pagine del New England Journal of Medicine. Si riferisce a una serie di test compiuti su 54 persone vittime di lesioni cerebrali traumatiche, meningiti, encefaliti o danni per per anossia, 23 in stato vegetativo e 31 in uno stato giudicato di “minima coscienza”. La risonanza magnetica ha consentito di scoprire che quattro pazienti in coma vegetativo erano in realtà parzialmente consapevoli. Un caso particolare ha destato l'attenzione dei medici: quello di un ragazzo di 22 anni che in seguito a un incidente era stato dichiarato in stato vegetativo. In realtà s'è visto che poteva confermare il nome del padre e rispondere a cinque domande corrette su sei. L'iter seguito, invece, dagli studiosi belgi e angloamericani per comprendere la potenzialità dell'elettroencefalografia, ha coinvolto sedici pazienti in coma vegetativo e dodici soggetti sani. È emerso che tre (il 19%) dei sedici ammalati presentava una risposta positiva al test, provando che lo stato mentale era diverso da quello sospettato e che il nuovo protocollo di intervento, quindi, poteva essere giudicato attendibile. «In molti casi lo stato vegetativo è mal diagnosticato», raccontano gli scienziati sulla prestigiosa rivista medica. «Con ciò proponiamo un innovativo mezzo che consenta di analizzare il vero stato mentale dei pazienti con gravi traumi cerebrali». Nonostante questo importante traguardo, però, gli scienziati invitano alla cautela. Non tutte le persone in coma vegetativo possono essere ritenute semi-consapevoli e alcune non lo diverranno mai. Ciò si verifica solo in una minima percentuale di casi, e più che altro si riferisce a chi ha subito lesioni cerebrali traumatiche. Lo stesso, pertanto, non accade in chi ha accusato stati di anossia. «Il problema è, dunque, quello di non alimentare false speranze nei pazienti giudicati in coma vegetativo», spiega Cappa. «Il traguardo ottenuto dai belgi e dagli angloamericani è sicuramente interessante, ma più che un punto di arrivo, intende essere un punto di partenza. Da qui, infatti, si potrà partire per capire al meglio la fisiologia di cervelli gravemente compromessi». Il risultato ottenuto riporta, in ogni caso, l'attenzione su uno dei misteri più grandi della neurologia umana: la coscienza.  Con lo stato vegetativo si parla, dunque, di incoscienza, ma di fatto, ancora nessuno è stato in grado di definire il vero significato di questo termine, né il punto in cui la coscienza possa trovarsi. Un piccolo aiuto, però, viene da una ricerca pubblicata recentemente sul New Scientist, dalla quale emerge che non esisterebbe un solo punto dell'area cerebrale preposto ad accoglierla, bensì l'intero cervello coopererebbe per conferirle un'identità. 


Il neuroscienziato Raphaël Gaillard dell'INSERM di Gif sur Yvette, in Francia, ha condotto i suoi studi su dieci pazienti malati di epilessia, resistenti ai farmaci, e per questo in trattamento con 176 elettrodi impiantati nel cervello. Con un monitor ha mostrato una serie di parole “mascherate” e non mascherate - emotivamente disturbanti come “uccidere” o neutre come “cugino” - misurando contemporaneamente i cambiamenti dell'attività cerebrale e il livello di consapevolezza della visione di tali lemmi. In questo modo è stato possibile risalire a quattro risposte elettrofisiologiche fra loro convergenti e complementari, innescatesi 300 millisecondi dopo la percezione dello stimolo. S'è, dunque, verificato che un'informazione proveniente dall'esterno diviene cosciente nel momento in cui entra in gioco un'intera area neuronale, riconducibile alla corteccia visiva primaria, e non un solo punto del cervello. Inoltre s'è riscontrata una spiccata reciprocità fra diversi angoli cerebrali: per esempio è emerso che l'attività del lobo occipitale può causare l'attività nel lobo frontale. «Questo lavoro suggerisce che una più matura concezione del processo di coscienza dovrebbe considerare, invece di un unico marcatore, uno schema di attivazione distribuito e coerente dell'attività cerebrale», spiega Lionel Naccache, neurofisiologo presso l'Hospital Pitié-Salpetriére. È il risultato che in molti si aspettavano, riflettendo sul fatto che la coscienza non può essere circoscritta a un ambito specifico della massa cerebrale, ma va colta in un contesto molto più ampio che abbraccia diversi distretti dell'organo cerebrale. La coscienza, pertanto, non ha una sede. «È più una questione di dinamica, per nulla assimilabile a un' attività locale», dice Gaillard, spalleggiato dal collega Barnard J. Baars dell'Istituto di Neuroscienze di San Diego, in California, che da sempre cavalca questa tesi. «Sono entusiasta di questi risultati», ha felicemente rivelato, «perché offrono la prima prova diretta di una teoria che considero da molti anni». In realtà questa opinione non è condivisa da tutti gli scienziati. Il biologo Christof Koch, del California Institute of Technology, per esempio, parla dell'“alta specificità di certe aree” cerebrali, riferendosi al fatto che, per esempio, in seguito a determinati traumi, alcune persone non sono più in grado di versarsi il tè, attraversare la strada, o dare un significato corretto agli oggetti distribuiti nello spazio. Ascrive, pertanto, la “sua” coscienza ad aree ben precise del cervello come corteccia e talamo. Benché, in ultima analisi, arrivi a sostenere che, per una completa funzionalità della stessa, si debba ricorrere a un'«integrazione delle regioni disseminate nel cervello». Sicché finisce col rimettersi in gioco e dare adito alla provocazione del traduttore Silvio Ferraresi che, presentando un libro di Koch, è arrivato a supporre che in fondo le due famiglie di pensiero, potrebbero essere molto più simili di quanto non si creda: partono da presupposti diversi, per giungere allo stesso risultato.

venerdì 2 marzo 2012

I pericoli dell'endogamia


Le esperienze ottocentesche di Charles Darwin presso le isole Galapagos hanno rivoluzionato la storia, permettendo l'introduzione di una nuova affascinante teoria evoluzionistica: la selezione naturale. Di ciò si è a lungo parlato, ma non altrettanto si è fatto per ciò che riguarda il minuscolo arcipelago nel cuore dell'oceano Pacifico che ha ospitato l'equipaggio del Beagle dal 15 settembre 1835. Perché proprio in questo punto geografico e non altrove Darwin è arrivato a dare una spiegazione esaustiva alle sue supposizioni? La risposta risiede nel fatto che le isole Galapagos rappresentano il “laboratorio” ideale per risolvere ogni enigma evoluzionistico. Possono, infatti, essere ricondotte a un microcosmo naturalistico, nel quale piccole popolazioni si avvicendano offrendo interessanti ragguagli in merito alla loro sopravvivenza e, quindi, alla loro evoluzione. Non è un caso, dunque, che i due scienziati Peter e Rosemary Grant, in occasione della vincita del Premio Balzan, abbiano deciso di visitare proprio l'arcipelago del Pacifico per studiare da vicino in che modo la variabilità genetica risulti essere una prerogativa sostanziale nella sopravvivenza di una specie. Con questo termine si intende l'eterogeneità genetica che deriva da due processi chiave della biologia: la mutazione genetica e la ricombinazione genetica. Le mutazioni riguardano modificazioni del DNA o dell'RNA, i cosiddetti acidi nucleici e portano alla formazione di nuovi alleli, ossia varianti di uno specifico gene. Nel secondo caso ci si riferisce a un processo che induce al mischiamento degli alleli, dando luogo a nuove combinazioni alleliche visibili nelle generazioni future. Da tempo si sa che una buona diversità genetica è un parametro indispensabile al prosieguo di una specie e alla sua sopravvivenza, dunque i Grant hanno voluto approfondire l'argomento indagando proprio nel “laboratorio naturale” per eccellenza: il paradiso darwiniano delle Galapagos. 


Su queste isole dimorano molte specie di uccelli, ogni isola, in particolare, è rappresentata da una specie diversa di tordo beffeggiatore. Significa che in questo contesto ambientale i processi di endogamia sono all'ordine del giorno. Ma l'endogamia – ossia la riproduzione sessuale fra individui geneticamente simili – è inversamente proporzionale alla qualità genetica di una specie. Quando una popolazione è scarsa, i suoi rappresentanti si accoppiano fra loro, “omogeneizzando” il DNA che diviene più suscettibile alle malattie e alle infezioni. Al contrario una specie resiste di più a morbi e pestilenze se il suo corredo genetico mostra un'alta variabilità. «La diversità genetica è alla base di tutte le altre forme di diversità biologica», rivelano gli esperti del'ISPRA, «consente la persistenza delle popolazione, grazie ai processi di selezione naturale e adattamento alle continue variazioni ambientali. La perdita di variabilità genetica aumenta le probabilità di estinzione di popolazioni e di specie, contribuendo a disintegrare la complessità degli ecosistemi». I risultati ottenuti dai Grant sono stati diffusi in un simposio tenutosi recentemente presso la Princeton University, in USA. Nei dettagli gli studiosi si sono occupati di verificare le caratteristiche genetiche di quattro specie allopatriche: una specie viene così detta nel momento in cui una barriera geografica (catena montuosa, fiume, lago) si interpone alla diffusione della stessa, riducendo sensibilmente la sua “qualità” cromosomica. Sono stati utilizzati dei marcatori genetici definiti “microsatelliti”, per mettere in luce che la popolazione, in assoluto, più a rischio delle Galapagos è rappresentata dal tordo beffeggiatore dell'isola Floreana: la specie è attualmente costituita da due sole popolazioni, una quarantina di individui sull'isolotto Champion e un centinaio fra Baia Gardner e Floreana. 


A questo punto si è intervenuti sull'isola di Floreana per creare una terza popolazione e in questo modo “rinverdire” il corredo genetico delle due già presenti: i contatti fra le varie popolazioni consentiranno un mischiamento dei vari corredi genetici, assicurando una variabilità più spiccata e dunque maggiori chance di sopravvivenza; in pratica s'è ripristinata la situazione già in voga 120 anni fa, tracollata in seguito ai processi di antropizzazione. Il compito è stato assolto con la collaborazione del Parco Nazionale delle Galapagos e la Stazione di ricerca Charles Darwin, e la supervisione di Lukas Keller dell'Università di Zurigo. Lo studio offre spunti di riflessione anche per ciò che riguarda la diversità genetica di molte altre specie, comprese quelle botaniche, tenuto conto del fatto che anche in tutti gli altri organismi, l'eterogeneità di un genoma è direttamente proporzionale a una maggiore resistenza ai malanni. Lo provano vari eventi storici, come quello risalente all'Irlanda dell'Ottocento, in cui la maggior parte delle piante di patate morirono provocando una grave carestia alimentare. In seguito si scoprì il perché: le patate presentavano una variabilità genetica molto ridotta, tale per cui, all'attacco di un organismo fungino particolarmente resistente, quasi tutte soccombettero alla sua azione.

Potere al glucosio

Che la scienza sia astrusa ai più, è noto. Tuttavia suona strano sapere che quasi nessuno sia al corrente della molecola per antonomasia, q...