Le 5 cose che (forse) non sapete sulla Meccanica Quantistica

La Meccanica Quantistica (d’ora in avanti abbreviata in MQ) è una delle branche della Fisica che più ha suscitato interesse nella popolazione dei “non addetta ai lavori” accendendo una infinità di riflessioni, spunti di discussione, dubbi e critiche fin dalla sua nascita che possiamo far risalire al 1900, quando Max Planck ipotizzò che qualsiasi sistema atomico che emette energia può teoricamente essere diviso in un esatto numero di “elementi energetici” discreti (i “quanti”) in modo tale che ciascuno di questi elementi energetici sia proporzionale alla frequenza con cui ciascuno di essi irradia energia individualmente.

Immagine pubblicata originariamete da Claes Johnson. Tradotta dall’autore.

Perchè la MQ è diventata così famosa? Perchè ha catalizzato l’attenzione di praticamente tutto il mondo, sia in bene che, purtroppo come vedremo, in male?

Perchè è maledettamente controintuitiva e al contrario della Meccanica Classica che permette di prevedere il risultato di un determinato evento conoscendone gli stati iniziali, la MQ è probabilistica: alcuni eventi, quantità e informazioni non vengono definiti con risultati precisi e univoci ma sono una probabilità che un evento possa capitare in un determinato spazio e in un determinato tempo.

Facciamo un esempio pratico: la Meccanica Classica ha permesso di lanciare una sonda grande più o meno come una lavatrice (1 x 1 x 0,8 metri di volume per 100 kg di massa) a cavallo di un’altra sonda altrettanto minuscola (2,8 × 2,1 × 2 metri di volume per 1.230 kg di massa) su una cometa di forma a dir poco bizzarra (18,7 km3 di volume totale distribuiti su due lobi di 4,1 × 3,3 × 1,8 km e di 2,6 × 2,3 × 1,8 km: praticamente una cometa a forma di paperella da bagno!) che si spostava alla velocità di 15,38 km/s. Tutto questo dopo un volo di 10 anni e dopo aver accumulato una distanza dalla Terra di 726.180.123 km e un viaggio totale di 7.978.714.971 km.

Abbiamo parlato della storica missione ESA per l’esplorazione della cometa 67P/Churyumov–Gerasimenko (67P). Un vero trionfo per la Meccanica Classica che permette di studiare e predire eventi incredibilmente lontani nello spazio e nel tempo! Con la Meccanica Classica tutto viene univocamente determinato dalle condizioni iniziali.

Con la MQ tutto questo non è possibile.

Cerchiamo di capire perché non è possibile fare questo tipo di predizioni e nel contempo capiamo cosa è possibile fare, invece, di altrettanto stupefacente e assolutamente indispensabile per la nostra vita quotidiana!

Partiamo quindi dando alcune definizioni indispensabili.

1 – COSA É LA MECCANICA QUANTISTICA?

É la Fisica degli oggetti più piccoli in Natura. Così piccoli che non vengono più considerati “oggetti” come li intendiamo noi.

A qualcuno potrebbe suonare strano che si parli di “Meccanica” e di “Fisica” indistintamente ed è giusto provare a dare una definizione quanto più accurata possibile: all’atto pratico non c’è differenza tra Meccanica Quantistica e Fisica Quantistica (da qui in poi abbreviata con FQ). Sono la stessa branca della Fisica con nomi diversi.

É vero però che sono state evidenziate alcune definizioni raffinate che distinguono le due cose. Una di queste, la più razionale a nostro parere, descrive la MQ come un insieme di regole matematiche ben definite che descrivono esclusivamente le interazioni tra particelle subatomiche e la FQ come lo studio di quelle regole applicato a strutture più grandi e complesse come le molecole e le strutture cristalline di determinate sostanze.

In altre parole la FQ comprende, ad esempio, lo studio della fotosintesi clorofilliana che funziona splendidamente grazie ad un principio della MQ ma mentre questa studia il fenomeno indipendentemente da dove questo avviene (nella fotosintesi avviene nei clorosomi dei vegetali ma lo stesso identico fenomeno avviene nel nucleo del sole), la FQ studia il fenomeno correlato all’ambiente macroscopico dove questo avviene.

Esiste anche la Teoria Quantistica dei Campi conosciuta con l’acronimo QFT (Quantum Field Theory) che, in base alla definizione appena data, può essere considerata Fisica Quantistica dato che applica la MQ al concetto di campo.

A noi serve sapere che MQ e FQ sono la stessa cosa. Il termine “Meccanica” è più comune visto che i libri di testo a questo riguardo parlano costantemente di MQ (Messiah, Griffith, Sakurai giusto per citare i tre più famosi) e quindi verrà usato anche in questa sede.

La definizone che è stata data all’inizio di questo capitolo richiede anche di affrontare la questione su cosa siano le particelle subatomiche e perché non vengono considerate oggetti come li intendiamo noi.

Qui le cose iniziano a farsi entusiasmanti! Siamo stati abituati fin dalla scuola dell’obbligo a considerare le componenti fondamentali della materia come minuscole palline che formano strutture molto somiglianti ad un sistema planetario: un “sole” al centro di questa struttura e un numero variabile di “pianeti” che orbitano attorno al sole.

Stiamo parlando del nucleo dell’atomo e degli elettroni che orbitano attorno ad esso.

Questo è il “modello atomico planetario” sviluppato da Ernest Rutherford nel 1911 che però è scientificamente sbagliato: secondo le leggi dell’Elettromagnetismo, una carica elettrica in movimento irradia energia sottoforma di radiazione elettromagnetica e l’elettrone dotato di carica elettrica avrebbe dovuto perdere energia nelle sue orbite e alla fine collassare sul nucleo. Il che non è palesemente vero visto che siamo qui!

Questa cosa era nota già all’epoca ma il modello planetario era quello che al tempo forniva la risposta migliore ad una serie di domande ancora senza risposta.

Fu nel 1924 che Erwin Schrödinger propose il modello quantistico di atomo risolvendo il paradosso del modello di Rutherford.

Però questo modello obbligava ad accettare dei dati piuttosto bizzarri. Ad oggi questi dati sono universalmente accettati e scientificamente dimostrati ma per chi è abituato a pensare all’atomo come ad un minuscolo sistema solare la cosa farà venire qualche brivido giù per la schiena:

L’elettrone e più in generale le particelle subatomiche non sono particelle. Non sono minuscoli granelli fatti di chissà cosa che si muovono a velocità impensabili nello spazio.

Sono “campi quantistici” che godono di determinate proprietà; distribuzioni di probabilità all’interno delle quali nulla è conosciuto (a parte alcune proprietà costanti come la massa) fintanto che questi campi non interagiscono tra di loro.

Possiamo immaginarli come “nuvole di energia”: gli elettroni saranno nuvole avvolte attorno ad altre nuvole che assumeranno determinate caratteristiche interagendo con altre nuvole, comportandosi come particelle puntiformi in alcuni tipi di interazioni oppure comportandosi come onde in altri tipi di interazioni.

Una immagine della nuvola elettronica di un atomo di idrogeno

Paul Dirac prima e Richard Feynman più tardi formalizzarono alcuni dei concetti più bizzarri riguardo il comportamento di questi campi quantistici: possono avere soltanto alcuni valori e non altri; non è possibile stabilire con precisione il percorso di una campo ma solo una distribuzione di probabilità che indica dove questo potrebbe trovarsi.

Schrödinger stesso ebbe a dire che “Onda e particella sono immagini che ci vediamo obbligati a mantenere perché non sappiamo come liberarcene”. In realtà ce ne siamo liberati da tempo ma è anche vero che il modello di Rutherford è decisamente più intuitivo e di facile metabolizzazione, anche se scientificamente del tutto sbagliato.

Notevole, vero? Però questa ridefinizione del concetto di particella subatomica è indispensabile per comprendere meglio alcuni fenomeni della MQ che hanno reso questo campo della Fisica enormemente popolare!

2 – ALCUNI DEI CONCETTI DI BASE DELLA MQ

Esistono dei fenomeni all’interno della MQ che ancora oggi lasciano perplessi, nel migliore dei casi o sono addirittura in odor di magia.

Tutto questo è comprensibile ma noi siamo armati del concetto di “elettrone = nuvola di probabilità” e questo ci aiuterà sia a scardinare qualsiasi ipotesi magica sulla MQ che ad apprezzare ancora di più la magnificenza di questi fenomeni!

EFFETTO TUNNEL: l’esempio più canonico per spiegare come un elettrone possa passare attraverso un “muro” di energia è quello di una pallina lanciata su una finestra che rimbalza, tutti ci aspetteremmo dalla Fisica Classica e dal buonsenso che questa rimbalzi indietro, fino al momento in cui questa pallina passa attraverso la finestra materializzandosi istantaneamente dall’altra parte senza danneggiare in alcun modo la finestra.

L’effetto tunnel esemplificato

É normale che un comportamento come questo lasci interdetti e faccia pensare a qualche intervento soprannaturale ma stiamo usando la definizione sbagliata di particella, ricordate?

Proviamo a guardare allo stesso “gedankenexperiment” (esperimento mentale, come lo aveva definito Albert Einstein) sapendo che le particelle subatomiche sono nuvole piuttosto che palline.

Appare ancora così misterioso il fatto che una “nuvola” passi attraverso un muro di… Nuvole? Scommettiamo di no. Certo, è comunque bizzarro ma decisamente meno bizzarro di una pallina che attraversa un muro come fece il mago David Copperfield quando attraversò la Grande Muraglia Cinese!

SOVRAPPOSIZIONE DEGLI STATI: è un’altro fenomeno che ha stranito ben più di un paio di generazioni di scienziati e non. Proviamo a capirlo con un fidget spinner: questo giocattolo può ruotare facilmente in senso orario o antiorario ma di sicuro non potrà mai in alcun modo ruotare in senso orario E in senso antiorario contemporaneamente. Vi sfido a provarci!

Le particelle subatomiche invece lo fanno. Possiedono una caratteristica chiamata “spin” che identifica il loro verso di rotazione e fintanto che questo verso non viene analizzato esso avviene contemporaneamente in ambedue i sensi.

Vogliamo provare ad immaginare, invece della solita vecchia pallina (o del più moderno fidget spinner) una nuvola come abbiamo fatto prima? Con meno sforzo cognitivo possiamo vederla che ruota in due sensi contemporaneamente! Non appare più come una mostruosità!

ENTAGLEMENT: questa parola significa “ingarbugliamento”, “groviglio”, “intrico”. Ed è esattamente quello che ha creato nelle menti di noi profani. Una serie incredibilmente ingarbugliata di idee e ipotesi altrettanto ingrabugliate!

In realtà anche se Einstein stesso lo definì “spooky” (ovvero spettrale, inquietante) oggi è perfettamente compreso soprattutto grazie al lavoro del fisico nordirlandese John Stewart Bell1 e grazie a rigorosi esperimenti che lo hanno definitivamente acclarato2.

Una pittoresca rappresentazione dell’entanglement

L’entanglement è quel fenomeno secondo il quale, date due particelle che hanno determinate caratteristiche (dovute a interazioni reciproche o generate da uno stesso evento come il decadimento radioattivo) e che costituiscono uno stato quantico globale definito (pur mantenendo caratteristiche singole indefinite), nel momento in cui queste vengono separate e si misura una delle caratteristiche indefinite di una delle due particelle (rendendo definito lo stato precedentemente sconosciuto), la gemella assumerà istantaneamente uno stato definito anch’essa.

Indipendentemente dalla distanza, sia essa pochi micron o milioni di anni luce.

Purtroppo in questo caso, pensare ad una particella come nuvola non serve per rendere più comprensibile questo fenomeno che nondimeno esiste e funziona.

La fantasia galoppa sfrenata in questo caso e subito ci sono stati e ci sono tuttora “arditi pensatori” che affermano come l’entaglement sia la spiegazione per, ad esempio, la telepatia o il teletrasporto “alla Star Trek”. Sarebbe bello se fosse così ma ad oggi mancano qualsiasi dimostrazione scientifica sia dell’una che dell’altro.

3 – “COSA FA” LA MQ PER NOI?

Fino ad ora abbiamo affrontato un argomento affascinante ma tutta questa bellezza quali ripercussioni ha su di noi? La proverbiale “casalinga di Voghera” cosa se ne può fare, quotidianamente, di tutta questa meraviglia?

Verrebbe da dire “allacciate le cinture di sicurezza” perché state per entrare in un argomento che vi lascerà senza fiato! Quasi letteralmente!

La vita, per come la conosciamo, non potrebbe esserci senza la MQ: la fotosintesi clorofilliana funziona grazie all’effetto tunnel il che significa che respiriamo ossigeno e possiamo mangiare una gustosa insalata con succulenta bistecca grazie alla MQ.

Il nostro sole e quindi tutte le stelle sfruttano lo stesso effetto per generare fotoni all’interno dei nuclei stellari e quindi permettere la formazione delle condizioni favorevoli per lo sviluppo della vita.

La casalinga di Voghera, nella sfortunata ipotesi che stia male, potrà fare una tomografia a risonanza magnetica che invece sfrutta il principio di sovrapposizione di stati.

Magari verrà usato un microscopio ad effetto tunnel per capire meglio di cosa soffra la nostra casalinga.

E potrà assumere dei farmaci sintetizzati grazie alle tecnologie che sfruttano gli effetti della MQ.

Ci auguriamo che dopo la cura, questa casalinga potrà godersi una vacanza all’estero, facendo un volo in aereoplano che è controllato da un sistema GPS che a sua volta utilizza le oscillazioni degli atomi di cesio per tarare e sincronizzare gli orologi ultraprecisi necessari per il buon funzionamento dei dispositivi.

Ci auguriamo anche che possa guardare un bel film, durante il volo, proiettato su uno schermo LCD i cui componenti fondamentali, i LED, sono basati esclusivamente sugli effetti fotoelettrici della MQ.

Le porte d’ingresso dell’albergo dove alloggerà la nostra casalinga si apriranno automaticamente grazie a sensori ottici, i fotodiodi, che funzionano brillantemente grazie all’effetto fotoelettrico (che fece guadagnare un premio Nobel ad Albert Einstein).

Speriamo anche che l’albergo sia abbastanza sensibile alle tematiche ambientali da aver installato dei pannelli fotovoltaici, che sfruttano lo stesso principio appena menzionato.

E se questa nostra ormai guarita e scientificamente felice casalinga ha un gatto… Non è improbabile che lo faccia giocare con un puntatore laser. Che è forse la più appariscente applicazione della MQ, utilizzata dovunque!

Dove però assistiamo al trionfo indiscusso di questa disciplina è l’Informatica.

I transistor, che hanno permesso la diffusione capillare e la miniaturizzazione dei computer funzionano grazie all’effetto tunnel. Le fibre ottiche che trasportano migliaia di PB al giorno.

Noi siamo circondati da computer: laptop, desktop, smartphone senza contare un esercito di server che ci permettono di usare Facebook, Instagram, Whatsapp, Twitter e di giocare online, di fare ricerche e di contribuire alla crescita del database mondiale che è il World Wide Web.

Ogni volta che mettiamo un like, che carichiamo una foto, che telefoniamo, lo possiamo fare solo ed esclusivamente grazie alla MQ.

Non è finita qui: si sta studiando la computazione quantistica che sfrutta ancora una volta la sovrapposizione di stati per creare una nuova generazione di elaboratori ultraveloci le cui applicazioni trascendono letteralmente le barriere della Fantascienza.

Beh, la nostra cara casalinga ha a che fare con la MQ piuttosto spesso, no? Come tutti noi, d’altronde. E con estrema soddisfazione!

La nostra vita, dalle sue fondamenta agli apici più estremi è dovuta, mantenuta e abbellita da bizzarri fenomeni che stridono con il nostro senso comune ma che a dispetto di tutto quello che possiamo pensare, funzionano.

4 – É VERO CHE NESSUNO CI CAPISCE NIENTE A RIGUARDO?

Siamo arrivati al punto che è doveroso fare alcune considerazioni: la più importante è che non è vero che nessuno capisce niente della MQ, come fin troppo spesso si sente dire.

La MQ è perfettamente compresa e perfettamente descritta dalla Matematica; tant’è che affidiamo addirittura la nostra salute a macchinari e sostanze che funzionano e sono realizzati proprio grazie a questa branca della Fisica.

Certo, è difficile da capire perché si scontra su una quotidianità gestita da leggi deterministiche e non probabilistiche, dove sappiamo che un fidget spinner può girare solo in un senso e una pallina da ping pong non attraverserà mai un muro di alcun tipo ma, ripetiamo:

Non è vero che è incomprensibile e misteriosa. É vero l’opposto.

Tutti gli aforismi che si citano spesso a sproposito e in maniera capziosa sono comprensibilissimi se teniamo a mente che i padri fondatori di questa Scienza hanno dovuto fare i conti con il ribaltamento radicale delle loro convinzioni e del loro mondo scientifico ed hanno dovuto accettare, chi con più facilità e chi con più riluttanza i dati che si paravano dinanzi a loro, impietosamente.

Ma la Scienza non è democratica. E se ne frega di quello che uno “crede”. Ma soprattutto funziona.

Possiamo solo immaginare quali enormi dilemmi abbiano dovuto attraversare quegli uomini e quelle donne che si sono trovati sul bordo di un mondo nuovo, sconosciuto e alieno. Vogliamo avere un pensiero benevolo per loro: è normale e teneramente umano che abbiano detto o scritto frasi che potrebbero sembrare roboanti o tranchant.

5 – DRAMMI E BARZELLETTE INTORNO ALLA MQ

Meno normale e meno tenero invece è il comportamento di alcuni personaggi che hanno preso queste particolarità del nostro mondo per costruire dei castelli di carte (false, è il caso di dirlo) improbabili, buffi e in alcuni casi apertamente truffaldini.

Parlando di Meccanica Quantistica è indispensabile parlare della corrente del misticismo quantistico inaugurato “ufficialmente” nel 1975 da Gary Zukav e il suo “The Dancing Wu Li Masters”, Alex Comfort e il suo “Reality and Empathy” e Fritjof Capra con il “tao della fisica”.

Ma precedente al dottor Capra, esisteva un gruppo di fisici californiani che fecero della “fisica creativa” uno strumento in bilico tra una sincera ricerca di risposte e un guazzabuglio lisergico con poche parvenze di scienza: è rimasta leggendaria l’interpretazione della canzone dei Beatles, “Being for the Benefit of Mr. Kite” in cui Mr. K. (che «sfiderà il mondo») rappresentava la costante di Boltzmann (k, legata all’entropia) mentre Mr. H. (che fa i salti mortali) simboleggiava la costante di Plank (h). Tale gruppo fu il Fundamental Fysiks Group che comunque ha fatto qualcosa di giusto (anche se Capra proviene in linea diretta proprio dal quel gruppo).

Una analisi storica ci ricorda come il dott. Zukav non è che fosse proprio stabile e sano da un punto di vista psicofisico (come da lui stesso ammesso in una sua autobiografia) e che aveva dei contatti negli anni ’70 proprio con Fritjof Capra e con Jack Sarfatti cofondatore del Fundamental Fysiks Group e che nessuno in quel periodo era esente dall’assumere sostanze di ogni tipo e che guarda caso tutti si sono incontrati nella west coast degli anni ’70, leggendario centro di consumo di sostanze psicotrope e di circolazione di idee che mescolavano filosofie orientali, fantascienza, confusione lisergica e tante belle speranze.

Inoltre il Fundamental Fysiks Group riuniva sicuramente laureati in Fisica Teorica (anche se erano i laureati usciti dal boom delle “lauree facili” in quella materia del periodo 1968-1972 ed erano praticamente tutti disoccupati) ma nessuno di loro aveva la benchè minima cognizione di filosofia, metafisica o altre materie analoghe che invece erano il 50% delle argomentazioni del gruppo.

Per affrontare discorsi truffaldini parliamo ad esempio di Grigory Petrovich Grabovoy, un ben noto imbroglione che si è fatto notare più volte per le sue incredibili affermazioni sul riportare in vita i morti, curare il cancro e l’AIDS con modalità totalmente stregonesche e totalmente inefficaci e senza il benchè minimo riscontro.

Costui ha presentato a Marsala, in provincia di Trapani, lo scorso 25 Settembre 2017, un macchinario ovviamente quantistico con delle proprietà strabilianti: il “Quantum device for eternal life”.

Ulteriori informazioni reperite al numero di telefono disponibile hanno anche fornito il prezzo di tale macchinario che è esattamente € 9.600,00 divisibili in 8 quote in multiproprietà da € 1.200,00. Più IVA, naturalmente.

Non credo sia necessario specificare che tale macchinario è un accozzaglia ben confezionata di chissà cosa che non fa nulla di quello che promette e che tutte le spiegazioni che vengono offerte a riguardo sono un meraviglioso esempio di fruitloopery in azione.

Altra operazione truffaldina è quella compiuta dai sostenitori dell’omeopatia che spesso invocano il fenomeno (reale) dell’entaglmenet per giustificare il fenomeno (da baraccone) della “memoria dell’acqua”, principio magico che costò al professor Jacques Benveniste un Ig Nobel (che non andò a ritirare) e l’ostilità di tutta la comunità scientifica mondiale (sono epiche le risposte che ricevette dalla rivista Nature riguardo i suoi articoli sulla memoria dell’acqua).

Un esempio meno drammatico è quello dell’azienda vinicola siciliana di proprietà di Pietro Di Giovanni, Giovanni Raiti e Saro Pennisi. Costoro hanno prodotto il vino quantistico, ovvero un vino che, citiamo il sig. Di Giovanni, è prodotto “con le regole della fisica quantistica”: questo si realizza praticamente tramite “il controllo delle frequenze elettromagnetiche nel grappolo, attraverso uno strumento […] con lo stesso misuratore siamo intervenuti per cambiare alcune frequenze […] Il sistema evoluto della fisica quantistica in campo enologico fa sì che il prodotto della vite, l’uva, sia messo nelle condizioni migliori per non ammalarsi”.

Ci sono poi affermazioni del tutto innocue e divertenti che affermano che antiche cività sul nostro pianeta conoscevano i principi della MQ molto prima che venisse “riscoperta” nel secolo scorso. Basta fare una ricerca nel Web per scoprire teoreti e guru con le più pittoresche e divertenti ipotesi su questi argomenti e sull’altro dibattutissimo argomento che giustifica gli eventi soprannaturali come i fantasmi e la parapsicologia in genere con la MQ.

Prendete un qualsiasi sostantivo e provate ad abbinare l’aggettivo in questione. Fatelo ad una festa e probabilmente il vostro tasso di popolarità inizierà a salire. A meno che non incontriate un fisico, o una fisica.

In quel caso è meglio andare a casa a studiare e di buona lena.

É utile ricordare che nonostante “la Scienza non sia democratica” e “se ne frega di quello che uno crede” è anche la disciplina che più allena ad avere una mente sufficentemente aperta ma non così aperta da permettere che il cervello caschi per terra.

l principio di base è che qualsiasi cosa può essere vera solo se passa il vaglio del metodo scientifico e questo vaglio prevede che un dato sia oggettivo, affidabile, verificabile e condivisibile. Ciò che non passa questo vaglio è, scientificamente parlando, fuffa.

Le «sensate esperienze» di galileiana memoria non sono più valide con i raffinatissimi strumenti che abbiamo a disposizione perché la realtà nella quale viviamo si è dimostrata bizzarra oltre ogni fantasiosa previsione.

Abbiamo bisogno, oggi più che mai, di avere una mentalità aperta e ricettiva ma questo non significa, in alcun modo, accettare supinamente bislacche e stravaganti ipotesi riguardo quello che ancora non conosciamo solo perché ad oggi non abbiamo la giusta domanda da porci.

 

[Andrea Grossi]

Fonti consultate:

  • Spiritual Partnership, Gary Zukav, 2010, Harper One. p. 121. ISBN 978-0-06-145850-7
  • https://www.sciencedirect.com/science/article/abs/pii/S0022286015303525
  • https://it.wikipedia.org/wiki/John_Stewart_Bell
    http://www.lescienze.it/news/2014/09/27/news/un_nuovo_stato_della_materia_creato_con_l_entanglement_quantistico-2308668/
  • http://science.sciencemag.org/content/356/6343/1140
  • http://www.lescienze.it/news/2011/12/02/news/quanti_meccanica_quantistica_entanglement-710527/
  • “L’uomo più strano del mondo. Vita segreta di Paul Dirac, il genio dei quanti”, Graham Farmelo, 2013
  • http://sci.esa.int/where_is_rosetta/
  • http://www.esa.int/Our_Activities/Space_Science/Rosetta
  • https://en.wikipedia.org/wiki/Rosetta_(spacecraft)
  • https://en.wikipedia.org/wiki/Philae_(spacecraft)

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale.

L’età dell’oro per l’Astronomia. Letteralmente!

Da quando il progetto LIGO/Virgo sulla rilevazione delle onde gravitazionali ha iniziato a funzionare, non ha mai smesso di stupire gli astronomi con continue scoperte di grandissima importanza.
 
Quest’ultima però, annunciata il 16 Ottobre 2017, le supera davvero tutte! Alessandra Corsi, radioastronoma al Texas Tech University di Lubbock e cofirmataria del primo documento ufficiale rilasciato dal team di LIGO/Virgo ha definito questo evento come un “grande regalo da parte della natura […] Un evento che cambia la vita.”
 
Vediamo cosa è successo: il 17 Agosto alle ore 12:41 tempo universale, i due rilevatori LIGO di Hanford, Washington e Livingston, Louisiana insieme al rilevatore Virgo di Pisa, Italia hanno rilevato un segnale assolutamente anomalo e stupefacente.
Image credit: Karan Jani/Georgia Tech
 
Mentre i quattro eventi gravitazionali precedentemente rilevati avevano una durata di massimo pochi secondi, questo è durato 100 secondi!
Le frequenze delle onde gravitazionali degli eventi precedenti si misuravano in decine di cicli al secondo mentre per questo si sono rilevate frequenze che arrivavano a migliaia di cicli al secondo!
Si tratta quindi di un evento molto “squillante” dal punto di vista gravitazionale con in più qualcosa di completamente nuovo che ora capiremo insieme!
 
Questa abbondanza di dati da analizzare ha permesso di desumere che in questo caso non si trattava di buchi neri che spiraleggiavano uno verso l’altro ma bensì di più “leggere” stelle di neutroni di 1,1 e 1,6 masse solari.
Per avere un idea delle grandezze in gioco, il primo evento gravitazionale rilevato da LIGO il 14 Settembre 2015, GW150914, aveva coinvolto due buchi neri ambedue di circa 30 masse solari.
 
Come se tutto questo non fosse abbastanza straordinario, essendo le stelle di neutroni composte dalla massa barionica (ovvero massa materiale, fisica) più densa in assoluto nell’universo (talmente densa che le stelle che si sono fuse avevano un diametro stimato di circa 20 chilometri), lo scontro è stato osservabile come un lampo luminoso durato per giorni in un evento chiamato “kilonova”, nome che indica la superiore potenza esplosiva rispetto ad una nova.
 
Questo evento, che porta il nome di GW170817 è passato alla storia per diverse ragioni:
 
La più importante è che con questa scoperta, la quinta epocale nel giro di due anni dall’inizio del progetto, si può tranquillamente affermare che l’era dell’astronomia “multimessaggero” è partita eccezionalmente bene, confermando come il metodo scientifico è ancora l’unico valido (con estremo sollievo dei finanziatori!). Ha confermato previsioni che risalivano a 100 anni fa e siamo sicuri che le sorprese non sono certo finite qui. Si tratta di una astronomia che sfrutta osservazioni elettromagnetiche come quelle dei telescopi ottici, delle antenne radio dei satelliti a raggi x con le rilevazioni delle onde gravitazionali. Oggi possiamo vedere e ascoltare il nostro Universo come mai ci è stato possibile e siamo pronti a scommettere che ci saranno sorprese incredibili ad attenderci la fuori.
 
Brian Metzger

É stata confermata l’esistenza delle kilonova, oggetti teorizzati sin dal 1990 ma mai osservati direttamente. Brian Metzger, un fisico teorico della Columbia University ha giustamente parlato di una tenda che all’improvviso si alza e mostra quanto il gruppo di fisici si erano avvicinati alla realtà dei fatti, dopo questa scoperta.

 
L’esistenza delle kilonova è fondamentale nella fisica nucleare per confermare o smentire le ipotesi sulla formazione di metalli più pesanti del ferro nell’universo: metalli come l’oro, l’argento, platino, rutezio e neodimio. I fisici nucleari avevano ipotizzato che questi atomi si formassero in eventi chiamati r-process (rapid neutron capture process) all’interno delle stelle più vecchie ma con una mole di dati a disposizione come questa, avranno di che lavorare parecchio, finalmente! Ora sapete da dove viene l’oro del vostro anello! Probabilmente è più vecchio del nostro pianeta!
 

Altro dato importantissimo è che, a differenza della fusione di buchi neri, questo evento è stato osservabile anche nello spettro del visibile e nello spettro delle onde radio, simultaneamente! Il Fermi Gamma Ray Space Telescope e lo Swift Space Telescope hanno rivelato dei lampi gamma di breve durata (short Gamma-Ray Burst, sGRB) mentre, 12 ore dopo la rilevazione delle onde gravitazionali, l’osservatorio cileno di Las Campanas guidato da Charles Kilpatrick, un postdoc dell’università di Santa Cruz, alle ore 23.33 del tempo universale, 10 ore e 52 minuti dopo che l’onda gravitazionale era arrivata sulla terra, prese una immagine della galassia NGC4993 e notò un punto luminoso che non era presente negli archivi fotografici della stessa galassia. In uno scambio di messaggi online scrisse, incredibilmente calmo “ho scoperto qualcosa”: era l’emissione nel visibile dell’evento di fusione delle due stelle di neutroni che poi fu chiamato GW170817.

Voglio sottolineare con ben più di una punta di orgoglio il ruolo dell’Italia in questo progetto di collaborazione scientifica internazionale. L’interferometro Virgo è affiliato al progetto LVC: LIGO Scientific Collaboration and Virgo Collaboration fondato nel 1997 dal fisico sperimentale Barry Clark Barish (che nel 2016 ricevette il premio Enrico Fermi “per i suoi fondamentali contributi alla formazione delle collaborazioni scientifiche LIGO e LIGO-Virgo e per il suo ruolo nell’affrontare aspetti tecnologici e scientifici impegnativi la cui soluzione ha portato alla prima rilevazione delle onde gravitazionali “).

Virgo, oltre ad essere situato nel comune di Cascina, frazione Santo Stefano a Macerata (PI), gode della presenza di 8 tra ingegneri e fisici

L’interferometro VIRGO a Cascina, in provincia di Pisa. (Creative Commons CC0)

dell’Istituto Nazionale di Fisica Nucleare (INFN) oltre che di altri 272 esperti provenienti dal Centre National de la Recherche Scientifique (CNRS) in Francia; dal Nikhef in Olanda; dall’MTA Wigner RCP in Ungheria; dal gruppo POLGRAW in Polonia; dall’Università di Valencia in Spagna; e dall’European Gravitational Observatory.

La presenza italiana nell’LVC si fa sentire anche tramite Adalberto Giazotto, fisico dell’INFN e “padre” di Virgo che nel 2001 propose una rete mondiale di interferometri e di utilizzarli come una single machine operante in sinergia. Altrettanto orgogliosi sono Fernando Ferroni e Antonio Masiero, rispettivamente presidente e vicepresidente dell’INFN, quest’ultimo  anche presidente di ApPEC, il consorzio che coordina la ricerca europea in fisica delle astroparticelle.

Molti sono anche gli italiani sparsi per il mondo che collaborano a questo enorme ed ambizioso progetto del quale vado fiero! Non mi stancherò mai di ribadire che la nostra nazione non è solo fucina di stantii stereotipi ma anche di eccellenze in campo scientifico, di ricerca e innovazione e soprattutto di entusiasmo e incrollabile fiducia nel futuro.

Altre considerazioni preferisco non farne, voglio rimanere in un ottica di realistico ottimismo e guardare alle nostre giovani leve che stanno per sperimentare un nuovo, entusiasmante modo di guardare ed ascoltare il nostro meraviglioso Universo.

Carl Sagan
 
Riecheggiano potenti le parole di Carl Sagan: “Da qualche parte, qualcosa di incredibile è in attesa di essere scoperto”.
 
Possiamo starne certi che la strada è solo agli inizi ma non abbiamo paura!
 
[Andrea Grossi]
 
#stelledineutroni #ondegravitazionali #LIGOVirgo #noidiminerva
 
https://dcc.ligo.org/public/0145/P170817/008/LIGO-P170817.pdf
https://it.wikipedia.org/wiki/Tempo_universale
http://www.sciencemag.org/news/2017/10/merging-neutron-stars-generate-gravitational-waves-and-celestial-light-show
http://science.sciencemag.org/content/early/2017/10/13/science.aap9455.full
 

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale.

Un embrione, due specie: la chimera umana del dott. Wu

In un mondo dove il problema dei trapianti di organi è grave e quotidiano a causa di scarsità di risorse, scorretta informazione e, conseguentemente scarsa o nulla consapevolezza a riguardo, una notizia come questa potrebbe essere la speranza per chi ha bisogno, spesso urgentemente, di un nuovo organo per poter vivere.
 
Un team di scienziati presso il Salk Institute a La Jolla, California hanno inserito delle cellule staminali umane in un embrione suino, in seguito ad accertati studi che hanno dimostrato come le cellule staminali umane nel giusto grado di maturazione possono combinarsi con zigoti di maiale per poi progredire normalmente alla formazione dell’embrione.
 
L’embrione così formato è risultato vivo e vitale, la prima vera e propria chimera realizzata con cellule umane.
 
Facciamo un passo indietro e capiamo meglio cosa sono le cellule staminali, a cosa servono e cosa è una chimera! Questa è un animale mitologico presente nel folklore ellenico che aveva come caratteristica saliente quella di essere un ibrido piuttosto bizzarro: corpo di leone, una testa di capra che spunta dalla schiena e una coda che pareva assomigliare ad una testa di serpente. Altre culture riportano di bestie ibride: in Cina è conosciuto il pixiu ma anche pegaso è considerabile come un animale ibrido!
 
Le cellule staminali, detto molto brevemente, sono cellule definite “indifferenziate” ovvero cellule che ancora non si sono specializzate in una particolare funzione attraverso un processo noto come “differenziamento cellulare”. Queste cellule possono essere prelevate da diverse fonti come il cordone ombelicale, il sacco amniotico, il sangue, il midollo osseo, la placenta, i tessuti adiposi e sono, nelle giuste condizioni naturali o di laboratorio, in grado di ricostruire parti di organi e tessuti. Non è così semplice ma per capire velocemente di cosa stiamo parlando ci bastano queste informazioni.
 
É un argomento piuttosto sensibile in quanto se da un lato queste cellule permettono, in teoria, di poter riparare danni anche gravi in un organismo, dall’altro è stata fatta fin troppa pessima informazione a riguardo e sono stati segnalati casi di cure finte e costosissime che hanno speculato sulla disperazione di chi si è trovato in stato di grave e urgente necessità.
 
Di embrioni chimera ne sono stati realizzati molti, per capire quali sono le potenzialità di questo tipo di ricerca, ma il lavoro svolto dal team del dottor Jun Wu è stato il primo ad averne realizzata una con cellule staminali umane! La scelta del suino è stata dettata dalla vicinanza genetica delle specie visto che l’obiettivo è quello, nel lungo periodo, di poter creare organi umani in embrioni non umani.
 
Prima di gridare “al mostro” però è indispensabile precisare che la percentuale di staminali umane nell’embrione suino è stata dello 0,001% dimostrando che siamo ancora ben lontani da una mix uguale di cellule da specie lontanamente imparentate. Inoltre il feto, normalmente cresciuto fino alla quarta settimana, è stato distrutto in ottemperanza alle rigidissime linee guida etiche che hanno condotto questa ricerca.
 
Perchè questa ricerca? Il team del dottor Wu ha evidenziato dei punti cardini: intanto la possibilità di studiare i processi dello sviluppo e della differenziazione cellulare nella formazione di nuovi organi, sia negli embrioni che nei gruppi cellulari singoli.
 
Inoltre le chimere potrebbero essere utilizzate per studiare e affrontare malattie altrimenti difficilmente analizzabili (ad esempio alcuni tipi di carcinomi) e di conseguenza per poter testare farmaci più efficaci e mirati finalizzati all’uso umano
 
L’esperimento della crescita di un pancreas di ratto all’interno di un topo è stato un primo passo incoraggiante verso lo sviluppo di questa tecnica e accenna alla possibilità di crescere organi umani in altre specie.
 
I suini assomigliano all’homo sapiens in molti aspetti fisiologici e anatomici e sono gli ovvi candidati.
 
Vi è un urgente bisogno di organi per trapianti e purtroppo vi è una scarsissima disponibilità. Gli organi animali coltivati potrebbero fornire la risposta in futuro ed anche se siamo ancora lontani da questo obiettivo la strada intrapresa sembra promettente.

 

http://www.cell.com/cell/fulltext/S0092-8674(16)31752-4
http://news.nationalgeographic.com/2017/01/human-pig-hybrid-embryo-chimera-organs-health-science/
https://it.wikipedia.org/wiki/Cellula_staminale
https://it.wikipedia.org/wiki/Chimera_(biologia)
https://it.wikipedia.org/wiki/Chimera_(mitologia)

[AG]

#cellulestaminali #chimera #embrione #noidiminerva

Addio alla materia oscura grazie alla gravità entropica?

Erik Verlinde è un fisico teorico dell’università di Amsterdam che nel 2010 propose una teoria della gravità completamente nuova e rivoluzionaria: secondo tale teoria, la gravità non è una forza fondamentale della natura ma un “effetto collaterale” o, usando le parole di Verlinde, un fenomeno emergente.

Le forze fondamentali, o più propriamente dette le interazioni fondamentali, sono a oggi quattro: gravitazionale, elettromagnetica, nucleare forte e nucleare debole. Agiscono su diverse scale, da quella cosmica a quella subnucleare e “tengono insieme” letteralmente l’universo.

Image credits: APS/Alan Stonebraker; STScI/AURA, NASA, ESA, Hubble Heritage Team

I fenomeni emergenti invece sono proprietà tipiche di un sistema ma non delle singole parti che lo compongono. Pensiamo per esempio alle cellule nervose: una di esse può ricevere e trasmettere segnali elettrici, ma non può risolvere un’equazione o scrivere un’opera. Ma mettendo insieme miliardi di cellule nervose le cose cambiano ed ecco che compaiono personaggi come Newoton o Mozart. Nello stesso modo la gravità sarebbe una proprietà emergente dello spazio-tempo, che emerge dalle variazioni di quelli che vengono definiti come bit di informazione immagazzinati nella struttura dello spazio-tempo stesso.


Il concetto è piuttosto difficile da intuire ma allo stesso tempo talmente affascinante da surclassare qualsiasi romanzo di fantascienza: lo spazio-tempo conterrebbe informazione. Quest’idea è stata originariamente sviluppata da John Archilbald Wheeler il quale affermò che la struttura geometrica dello spazio-tempo sia un mezzo per “immagazzinare informazione” secondo il concetto magnificamente riassuntivo di “it from bit”, che si può tradurre con “materia dall’informazione”.

Il concetto di informazione ha le sue origini in Ludwig Boltzmann, Claude Shannon e John von Neumann e gli studi sull’entropia ma rischiamo di sviare l’attenzione dal discorso principale!

Essendo la gravità un effetto collaterale e non più un elemento fondamentale e fondamentante dello spazio-tempo, ne risulta che la presenza della materia oscura diventa superflua: Verlinde ha dimostrato in un suo articolo del 7 Novembre 2016 come la sua teoria predica in maniera accurata la velocità orbitale delle stelle che si muovono attorno al centro della Via Lattea, così come il moto delle stelle in altre galassie.

Non è la prima volta che viene proposta una teoria del genere: nel 1983 Mordehai Milgrom enunciò la MOdified Newtonian Dynamics (MOND) che però a differenza della gravità entropica di Verlinde aveva bisogno di essere aggiustata e ritoccata a seconda delle osservazioni eseguite.

La gravità entropica invece parte da presupposti completamente diversi e non ha bisogno di essere limata per adeguarsi alle misurazioni. Al momento sembra essere autosufficente e rispondente alle misurazioni effettuate.

I risultati, pubblicati su Monthly Notices of the Royal Astronomical Society, suggeriscono che la teoria di Verlinde risulta in buon accordo con i dati osservativi.

La validità è stata verificata da Margot Brouwer del Leiden Observatory, in Olanda, insieme al suo gruppo di ricercatori. Gli astronomi hanno utilizzato la deformazione dello spaziotempo, prodotta dal fenomeno della lente gravitazionale, per misurare la distribuzione della gravità attorno a più di 33 mila galassie.

Erik Verlinde

La teoria di Verlinde predice gli effetti dovuti alla gravità basandosi sulla massa associata solamente alla materia visibile.

La gravità curva lo spazio in modo tale che, quando i raggi luminosi vi si propagano, essi vengono deflessi come nel caso di una lente ottica. Le immagini delle galassie di fondo, che sono molto più distanti rispetto ad una galassia vicina (la “lente”), appariranno più o meno distorte.

Questo effetto può essere misurato in modo da determinare come varia la forza di gravità attorno alla galassia che si trova interposta lungo la linea di vista.

I risultati delle misure ottenute dai ricercatori indicano che, fino a distanze dell’ordine di qualche centinaia di volte il raggio della galassia, la gravità risulta molto più forte rispetto a quanto predice la relatività generale. Per far funzionare la teoria di Einstein è stato necessario aggiungere particelle invisibili conosciute come “materia oscura”.

Brouwer e colleghi hanno perciò calcolato la variazione della forza di gravità mediante il metodo della lente gravitazionale e basandosi solo sulla massa visibile delle galassie (tralasciando quindi la materia oscura), in modo da confrontare i dati osservativi con le predizioni fornite dalla teoria di Verlinde.

I risultati sono soddisfacenti e la teoria sembrerebbe funzionare senza alcun aggiustamento (come successo per le teorie di Einstein e di Milgrom): la massa della materia oscura è un parametro libero che deve essere aggiustato rispetto alle osservazioni, la teoria della gravità entropica fornisce una predizione diretta senza richiedere la presenza di parametri liberi.

É importantissimo però evidenziare almeno due considerazioni emerse proprio in seguito ai calcoli di Brouwer: la teoria del fisico olandese è applicabile solamente a sistemi isolati, di forma sferica e statici. L’universo è un sistema incommensurabilmente più complesso e dinamico per cui molte osservazioni rimangono ancora inspiegate e la materia oscura potrebbe ancora essere in gioco.

Questo è perfettamente normale nella ricerca scientifica: ogni teoria deve essere testata minuziosamente e verificata in tutte le condizioni possibili e immaginabili e comunque c’è sempre la possibilità di una ulteriore conferma o smentita. La Scienza, ricordiamo per I più distratti, non offre mai soluzioni definitive; chi crede questa cosa sbaglia e si fa una idea completamente distorta di cosa sia e come funzioni.

La Scienza offre le ipotesi migliori, in un dato tempo e con date informazioni ed è soggetta per sua natura ad essere migliorata costantemente in un processo di raffinazione infinito, scrupoloso e amorevole. E per miglioramento intendiamo anche l’impietosa ma doverosa demolizione di quello che si è verificato essere errato.

Se la gravità entropica si dovesse rivelare incorretta, non si può e non si deve considerare un fallimento (a dispetto dei roboanti titoli dei mass media, sempre pronti a condannare o esaltare ignorantemente le notizie delle quali sono in gran parte all’oscuro) ma un passo in avanti nella conoscenza del nostro universo.

#materiaoscura #gravità #erikverlinde #noidiminerva

[AG]

Picture credits: APS/Alan Stonebraker; STScI/AURA, NASA, ESA, Hubble Heritage Team

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale.

E la scimmia paralizzata tornò a camminare?

Il punto di domanda, in certi frangenti è doveroso. Nonostante i risultati di laboratorio sembrerebbero ben più che incoraggianti riteniamo che una oggettiva osservazione è necessaria per non scivolare in un sensazionalismo del quale non si ha proprio alcun bisogno, visto il tema particolarmente suscettibile di reazioni emotive.

Il dottor Grégoire Courtine, un neuroscienziato che lavora presso lo Swiss Federal Institute of Technology (EPFL) e a capo del team composto da Marco Capogrosso, Tomislav Milekovic, David Borton, Fabien Wagner, Eduardo Martin Moraud, Jean-Baptiste Mignardot, Nicolas Buse, Jerome Gandar, Quentin Barraud, David Xing, Elodie Rey, Simone Duis, Yang Jianzhong, Wai Kin D. Ko, Qin Li, Peter Detemple, Tim Denison, Silvestro Micera, Erwan Bezard, Jocelyne Bloch ha impiantato con successo un dispositivo wireless che ha permesso ad un macaco Rhesus di riacquistare la funzionalità di un arto inferiore dopo sei giorni dall’intervento.

Sembra fantascienza, ne siamo consapevoli, per questo cerchiamo di analizzare lucidamente i fatti con le informazioni a disposizione.

Il macaco in questione aveva una lesione al midollo spinale che aveva precluso qualsiasi comunicazione tra la corteccia cerebrale (i “circuiti” nel cervello che orchestrano e coordinano armonicamente i movimenti degli arti) e i nervi che invece stimolano direttamente i muscoli. Il midollo spinale è quella porzione di sistema nervoso centrale contenuto e protetto dalla colonna vertebrale.

Ricostruire i fasci nervosi è estremamente difficoltoso, al limite dell’impossibile in quanto queste cellule sembrano essere refrattarie anche ai trattamenti con cellule staminali.

La soluzione del dottor Courtine è stata quella di applicare un ponte wireless tra le sezioni danneggiate del midollo spinale in modo da ripristinare la comunicazione. La difficoltà principale è stata quella di tradurre gli impulsi nervosi in segnali digitali e quindi di tradurre ancora i segnali digitali in segnali nervosi.

neural_implant_rhesusOgni volta che decidiamo di muoverci, infatti, il cervello crea una complessa serie di segnali che va a stimolare in maniera armonica i distretti muscolari che intendiamo usare in una interazione di contrazioni e rilassamenti veramente intricata.

Il processo di riabilitazione è passato attraverso l’impianto di una serie di 96 microsensori nell’area motoria intracorticale del cervello del macaco predisposta al movimento della gamba. Questi sensori sono collegati al sistema di stimolazione del midollo spinale (che non si trova nella corteccia cerebrale) composto da un impianto epidurale e un generatore di impulsi con funzionalità di attivazione in tempo reale.

Questo sistema era stato precedentemente validato su un altro macaco senza alcuna lesione per testarne l’efficacia e controllare la coerenza dei segnali inviati. Una volta che sono stati ottenuti dei risultati coerenti tra la trasmissione dei segnali biologici e quelli digitali, è stato effettuato l’impianto sul macaco con la lesione spinale.

Al momento il sistema è ancora controllato esternamente con un computer online. Indipendentemente da questo, dopo sei giorni e senza alcun tipo di terapia riabilitativa, il macaco Rhesus ha riaquistato la funzionalità dell’arto inferiore.

Il dispositivo che invia i segnali al computer di controllo è grande all’incirca come una scatola di fiammiferi e al momento è indispensabile per rilevare eventuali movimenti anomali e ricalibrare quindi i sistemi di stimolazione del midollo spinale, oltre che per tenere costantemente sotto controllo il flusso di dati e quindi per migliorare costantemente il funzionamento di questa interfaccia cervello-macchina (BMI, brian-machine interface).

Tomislav Milekovic, un ricercatore del EPFL ha affermato, in una intervista alla webzine Motherboard, che i primi impianti su esseri umani potrebbero essere realizzabili entro il 2020.

É difficile non lasciarsi andare a facili entusiasmi di fronte a notizie come queste ma proprio di fronte al fascino emotivo di simili cose crediamo che sia imperativo rimanere quanto più possibile lucidi. La paraplegia è una condizione che crea infelicità e disagi sotto tutti punti di vista. Non c’è davvero bisogno né di altri venditori di fumo e men che meno di abbracciare acriticamente qualsiasi “facile” soluzione pseudomiracolosa o pseudoscientifica ci venga sbandierata.

La notizia sembra attendibile e le fonti sono autorevoli e facilmente rintracciabili (a differenza degli imbonitori e dei saltimanchi del web che citano fonti costantemente irreperibili) di ma rimaniamo in cauta e razionale attensa di conferme. O di smentite.

#macacorhesus #neuroimpianti #paraplegia #noidiminerva

Risolto il paradosso delle traiettorie surreali subatomiche

La meccanica quantistica è terribilmente intricata e terribilmente controintuitiva. Su questo crediamo che nessuno abbia mai avuto dubbi a riguardo, tranne forse i tristemente noti spacciatori di finte cure e rimedi definiti in maniera del tutto arbitraria e inopportuna “quantistici”.

La buona notizia è che a piccoli passi, chi invece sta seriamente lavorando in questo campo della conoscenza, sta facendo un po’ più di chiarezza anche su questioni che hanno storicamente dato del filo da torcere a tutti quelli che si sono dedicati alla materia in questione.

maxresdefaultUn esperimento effettuato da Aephraim Steinberg dell’Università di Toronto, in Canada, e colleghi canadesi e australiani (Dylan H. Mahler, Lee Rozema, Kent Fisher, Lydia Vermeyden, Kevin J. Resch, Howard M. Wiseman) che firmano un articolo su “Science Advances” hanno dimostrato che le traiettorie surreali delle particelle subatomiche sono spiegate coinvolgendo un fenomeno unico della meccanica quantistica che è l’entanglement.

Ma cosa sono le traiettorie surreali? E cosa è l’entaglement? E perchè tutto questo è importante?

Facciamo qualche passo indietro e scopriamo un pezzo per volta di cosa si tratta, è un viaggio affascinante nel mondo dei quanti e ci asterremo dalle dimostrazioni matematiche per evitare clamorosi sbadigli, fidatevi sulla parola!

Uno degli argomenti più affascinanti della meccanica quantistica è il principio di indeterminazione enunciato nel 1927 da Werner Karl Heisenberg. Secondo questo principio non è possibile conoscere contemporaneamente la posizione e la velocità di una particella subatomica in quanto la precisione della misurazione di una va a discapito dell’altra e viceversa.

Per giunta, come se questo non bastasse, quando si effettua una misurazione occorre tenere conto dell’interazione fisica con gli strumenti: questo significa che non si può prescindere dalla presenza dell’osservatore (dove per osservatore si intende non necessariamente un essere umano ma anche un raggio che sta scansionando un oggetto subatomico) che è parte integrante del sistema e che inevitabilmente altera il risultato dell’osservazione.

Infine, la descrizione della dinamica di una particella è probabilistica: questo significa che, dato un fotone che si sposti da un punto A ad un punto B, bisogna calcolare (tramite il metodo di calcolo chiamato “integrale di Feynman”) tutte le possibili traiettorie che il fotone può compiere. È come se la particella aprisse una nuvola contenente tutti i percorsi possibili nel punto A e poi convergesse sul punto B.

La versione più classica della meccanica quantistica, chiamata interpretazione di Copenhagen (ispirata ai lavori svolti nella capitale danese da Niels Bohr e da Werner Heisenberg attorno al 1927 e che usa come esempio classico l’esperimento della doppia fenditura), afferma che se si spara un fotone verso un bersaglio, non esiste alcuna traiettoria “reale” tra la sorgente di luce e il bersaglio. Solo la misurazione dice dove si trova, facendo “collassare” lo stato della particella in un punto.

Esiste un’altra interpretazione della meccanica quantistica, quella di Bohm, detta talvolta meccanica bohmiana o da alcuni anche interpretazione di de Broglie-Bohm, è un’interpretazione della meccanica quantistica postulata da David Bohm nel 1952 che riprende l’idea dell’ onda pilota elaborata da Louis de Broglie nel 1927: questa idea fu introdotta per ripristinare una sorta di determinismo della realtà che fosse in grado di risolvere molti dei problemi aperti della meccanica quantistica, quali il paradosso del gatto di Schrödinger, il collasso della funzione d’onda e altri.

Matematicamente tale onda pilota è descritta dalla classica funzione d’onda della meccanica quantistica ovvero dalla descrizione dinamica probabilistica di una particella. I conti sembravano tornare!

Il problema derivato da queste interpretazioni però è che la traiettoria di una singola “particella bohmiana” non può essere osservata in un esperimento perchè ogni misurazione della sua posizione cambia la funzione d’onda sia della particella che della ipotetica funzione d’onda globale che descrive l’interazione della particella d’interesse con lo strumento di misura.

Il problema fu risolto ripetendo numerose volte lo stesso esperimento con una serie di misurazioni definite “deboli” e che riguardassero soltanto la la velocità della particella. Questo garantiva il minimo disturbo possibile del sistema e il successivo calcolo della posizione. Ripetendo l’esperimento un numero adeguato di volte sarebbe stato possibile ottenere il valore medio della velocità in funzione della posizione.

Uno studio del 2007 ha confermato sperimentalmente che ripetendo questo processo in diversi momenti permette di ricostruire un insieme di traiettorie medie coerenti con le traiettorie previste dalla teoria bohmiana.

Sembrerebbe quindi che tutto andasse per il verso giusto ma uno degli esperimenti più classici della meccanica quantistica eludeva questo risultato rassicurante: stiamo parlando dell’esperimento di Young, in cui un fascio di luce, una volta fatto passare attraverso un doppia fenditura, forma una figura d’interferenza su uno schermo. L’interferenza dimostra che la luce ha una natura ondulatoria.

Se però si riduce l’intensità della sorgente fino a emettere un fotone alla volta, sullo schermo schermo si producono puntini, che di volta in volta hanno posizioni diverse, il che depone a favore dell’ipotesi della natura corpuscolare della luce.

L’ironia ha voluto che in una versione modificata dell’esperimento di Young, la teoria bohmiana fornisce delle previsioni contrarie su quali fenditure siano attraversate dai fotoni. Questa discrepanza, oltre ad aver causato qualche seria emicrania, ha portato a coniare il termine di “traiettorie surreali” in contrapposizione alle “traiettorie reali” (e ci sarebbe da riflettere sul termine “reale”, date le considerazioni fatte precedentemente sulla interpretazione di Copenhagen ma lasciamo queste questioni ad altri momenti).

L’entanglement o correlazione quantistica è un fenomeno quantistico, privo di analogo classico, che prevede che due o più particelle siano intrinsecamente collegate in modo tale che le azioni o misure eseguite su una di esse abbiano effetto istantaneo sulle altre. Il fenomeno è stato descritto nel 1935 da Albert Einstein, Boris Podolsky e Nathan Rosen in un articolo dal titolo “La descrizione quantomeccanica della realtà fisica si può considerare completa?” ed è passato alla storia con il nome di paradosso EPR.

Ricordiamo che l’entaglement è stato definitivamente dimostrato in laboratorio da Maria Fuwa, Shuntaro Takeda, Marcin Zwierz, Howard M. Wiseman e Akira Furusawa in un esperimento del 2015 presso il Centre for Quantum Dynamics della Griffith University in Australia.

Nel mondo subatomico una particella può essere in due diverse condizioni nello stesso tempo. Per esempio può ruotare in una direzione o nell’altra (in su o in giù, il cosiddetto spin), ma anche in entrambe le direzioni contemporaneamente. Questo doppio stato, detto anche sovrapposizione quantistica, permane finché non si misura lo spin, momento in cui esso collassa su uno solo dei due stati.

L’entanglement prevede che due particelle possono essere collegate in modo tale che entrambi abbiano la stessa sovrapposizione di stati allo stesso tempo. Se si esegue una misura sulla prima particella, provocandone il collasso, per esempio, nello stato di spin su, la seconda collasserà istantaneamente nello stato di spin giù indipendentemente dalla distanza che separa le due particelle (cosa che fece irritare parecchio Albert Einstein).

Questo può succedere anche con una singola particella: un fotone, per esempio, può essere diviso in due particelle ancora connesse quantisticamente tra loro. La funzione d’onda (ovvero l’equazione matematica che descrive lo stato della particella) si estende infinitamente, ma la particella in sé si trova in tutte gli stati con diverse probabilità: nel momento in cui viene rilevata da uno strumento, lo stato collassa e si realizza una sola delle possibilità preesistenti alla misura.

Quali conclusioni trarre da tutto questo? Intanto che grazie all’entanglement è possibile formulare una previsione corretta delle traiettorie bohmiane anche nell’esperimento modificato di Young.

Inoltre, in un ottica meno pragmatica, possiamo trarre la considerazione che se è vero che siamo talpe semiceche e che sappiamo poco o nulla di quello che ci circonda è altrettanto vero che stiamo incessantemente scavando.

Stiamo incessantemente imparando, piccoli pezzi per volta. Abbiamo iniziato ponendoci domande senza avere alcun mezzo per risponderci e da allora non abbiamo smesso un secondo. Quando ci è stato impedito di farlo, siamo piombati in epoche oscure e terribili dove progresso e civiltà non solo si sono fermati ma sono addirittura riusciti a retrocedere per poi faticosamente riprendere il cammino.

E abbiamo sempre ripreso il cammino della conoscenza.

A cosa serve questa scoperta? Serve a soddisfare Il piacere della cultura, l’unico vero piacere che ci distingue dagli altri animali e che rende la nostra spece davvero unica.

 

#noidiminerva #meccanicaquantistica #esperimentodiyoung #bohm

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale.

Fine della missione Rosetta

Rosetta e Philae sono due nomi che negli ultimi anni hanno assunto un significato molto speciale, a volte tra polemiche per lo più sterili, più spesso perchè hanno suscitato un senso di ammirazione e meraviglia come da moltissimo tempo non si provava più.

E a buone ragioni!

Stiamo parlando, infatti, della più importante missione spaziale dai tempi dello sbarco dell’uomo sulla luna!

La missione Rosetta è inziata nel 2004 e tanto per dare un’idea della distanza temporale, all’epoca Twitter non esisteva ancora. Lo scopo della missione era quello di lanciare, letteralmente, una sonda non più grande di una lavatrice su una cometa di 4,3 chilometri di lato, che viaggia alla velocità di 38 chilometri al secondo e distante 450 milioni di chilometri (al momento dell’atterraggio del lander).

Tutto questo tenendo conto che la sonda è rimasta in uno stato di stand-by (ovvero con quasi tutti i sistemi spenti tranne il computer di bordo e uno speciale orologio che l’ha svegliata all’avvicinamento della cometa) dall’8 Giugno 2011 al 20 Gennaio 2014.

E tutto è andato secondo i piani. Il lander Philae è rimbalzato due volte invece di atterrare stabilmente ma a parte questo incidente, tutto si è svolto come previsto. La missione è stato un successo incredibile.

Anche dal punto di vista mediatico, l’ESA ha creato un fenomeno senza precedenti: sono stati realizzati infatti dei cortometraggi animati che rappresentano la sonda Rosetta e il lander Philae come due simpatici personaggi che intraprendono un viaggio come fratello e sorella e raccontano all’umanità quello che incontrano durante il loro lungo percorso.

Inoltre sono stati creati anche due account su Twitter per permettere ai due robot di comunicare con noi umani, rendendo questa missione incredibilmente accattivante ed emotivamente coinvolgente.

Gli ultimi messaggi della sonda Rosetta sono infatti molto commoventi e poco conta sapere che non sono davvero inviati dalla sonda ma da un bravo dipendente dell’ESA. Il risultato ha suscitato una marea di messaggi di solidarietà, affetto e comunque di attenzione nei confronti della missione.

Che è l’obiettivo che l’Ente Spaziale Europeo voleva ottenere.

Nel corso di questa missione sono orbitati eventi di ogni tipo: a partire dall’assegnazione dei nomi delle due sonde (una delle quali, Philae, venne scelto nel 2004 in base ad una gara vinta dalla milanese Serena Olga Vismara), allo “scandalo” legato alla camicia dello scienziato Matt Taylor che ha fatto inviperire schiere di femministe fino ad arrivare ai numerosi hashtag usati su Twitter per incitare il pubblico (con un evidente e riscontrabile successo) a seguire le vicende delle due sonde.

ESA ha dimostrato ampiamente che si può fare eccellente Scienza ad altissimi livelli e poterla offrire in maniera assolutamente popolare senza scadere nel populismo. Ha messo a disposizione materiale didattico e scientifico per tutti, bambini, amatori e professionisti sul suo sito.

Visto che però stiamo parlando di eccellenza, forse è giusto porsi almeno due domande: la prima delle quali riguarda la motivazione che ha spinto i progettisti a dotare Rosetta di sistemi alimentati ad energia solare piuttost che ad energia nucleare come invece è successo con la missione americana New Horizons. Questo avrebbe permesso di tenere la sonda attiva per tutto il tragitto invece che obbligare i tecnici a metterla in stand-by.

La seconda considerazione riguarda la restrizione che l’ESA impose sulla divulgazione delle immagini riprese dagli strumenti di bordo durante la fase di avvicinamento alla cometa 67/P. È stato veramente arduo reperire delle immagini e non solo per gli appassionati ma anche per le altre agenzie spaziali e per gli scienziati stessi. Questa politica ha creato qualche malcontento che fortunatamente è durato poco, però si è sentito soprattutto durante il 2014 subito dopo il risveglio di Rosetta.

Oltre queste considerazioni, è assolutamente necessario ricordare anche come l’Italia è presente in maniera fondamentale in questa missione: I pannelli solari sono stati realizzati dall’Agenzia Spaziale Italiana (Asi) e da Galileo Avionica di Milano; GIADA (Grain Impact Analyser and Dust Accumulator), VIRTIS (Visible and Infrared Thermal Imaging Spectrometer), OSIRIS (Optical, Spectroscopic, and Infrared Remote Imaging System) e WAC (Wide Angle Camera) sono progettati e realizzati con contributi italiani; SD2 (Sample Drill & Distribution) ovvero la trivella che avrebbe dovuto perforare ed analizzare la superfice della cometa è stata sviluppata dal Politecnico di Milano.

Andrea Accomazzo ha diretto la missione ed è lo Spacecraft Operations Manager presso l’ESA.

Sulla cometa 67/P c’è parecchia Italia: la nostra parte migliore, da quella più creativa a quella più tecnica e innovativa.
Dobbiamo esserne veramente fieri e orgogliosi perchè non c’è riconoscimento migliore che non quello di essere li, davvero dove nessuno è mai giunto prima.

14524533_924017707702198_8192085412632729855_o

#missionerosetta #philae #67P #rosetta #noidiminerva #30settembre

  • http://rosetta.esa.int/
  • http://sci.esa.int/rosetta/
  • http://sci.esa.int/rosetta/14615-comet-67p/
  • https://en.wikipedia.org/…/67P/Churyumov%E2%80%93Gerasimenko
  • http://blogs.esa.int/…/naming-philae-an-interview-with-200…/
  • http://rosetta.jpl.nasa.gov/andrea-accomazzo
  • https://en.wikipedia.org/wi…/Timeline_of_Rosetta_spacecraft…
  • https://en.wikipedia.org/wiki/Rosetta_(spacecraft)

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale.

Nuova Terra, Vecchi Problemi: Proxima b

É stata scoperta una nuova Terra 2.0? A sentire le testate scientifiche sembrerebbe proprio di si e questa volta è anche piuttosto vicina! Solo (astronomicamente parlando) 4,5 anni luce da noi! Questa nuova Terra orbita intorno ad una stella nana rossa chiamata Proxima Centauri. Non per niente, quando fu scoperta nel 1915 da Robert Innes, il direttore dell’Union Observatory, in Sudafrica, le venne dato questo nome. A parte il nostro sole, è la stella più vicina conosciuta.

proxima-centauri-b

“Sembrerebbe” che questo nuovo pianeta sia dotato di atmosfera e di oceani liquidi e si trovi nella Goldilocks zone, ovvero alla distanza ottimale dalla sua stella per mantenere l’acqua nei suoi tre stati: liquido, solido e gassoso, situazione indispensabile per sostenere la vita organica.

I titoli dei giornali sono andati a nozze, gli illustratori anche, lanciando in rete immagini pittoresche e romantiche di panorami alieni.

Ma le cose stanno veramente così? É stata davvero trovata una nuova Terra dove poterci trasferire in massa a breve oppure la realtà è piuttosto diversa?

Proxima b si trova effettivamente nella Goldilocks zone: questa zona cambia per ogni sistema solare e dipende da un numero di fattori, principalmente dalla stella attorno alla quale i pianeti orbitano.

Più la stella è grande, più questa zona è proiettata verso l’esterno del sistema. Viceversa più la stella è piccola, più la zona è vicina alla stella stessa. Proxima b è più vicina al suo sole di quanto Mercurio sia vicino al nostro sole ma dato che Proxima Centauri è relativamente molto fredda, la Goldilocks zone si trova molto vicina ad essa.

Esaminiamo i comunicati ufficiali pubblicati il 24 e il 29 Agosto 2016 e liberamente consultabili e scaricabili.

La prima cosa che risulta evidente è una straordinaria cautela e una lucida e asettica esposizione dei fatti.

Altra cosa che risalta è che, alcune testate come “Der Spiegel” si lanciano in affermazioni piuttosto azzardate: phys.org riporta, in data 12 Agosto che il quotidiano tedesco afferma che il nuovo pianeta potrebbe avere acqua liquida sulla sua superfice. Il paper datato 29 Agosto di Laura Kreidberg e Abraham Loeb parla molto chiaramente e in maniera altrettanto cauta di analisi per rilevare la presenza di “atmosfera” tramite il James Webb Space Telescope (JWST). Da nessuna parte nelle 5 pagine del paper si parla di oceani o acqua liquida.

Capiamo Der Spiegel che non è un giornale scientifico ma phys.org forse avrebbe potuto informarsi un po’ meglio ed evitare di citare pedissequamente una fonte molto poco attendibile.

Il paper del 24 Agosto, “The Habitability of Proxima Centauri b I: Evolutionary Scenarios” è ancora più severo e cauto nelle affermazioni sulla presenza di vita o di acqua liquida su Proxima b, sottolineando i limiti attuali delle tecniche di indagine e ponendole come entusiasmanti sfide per arrivare a sviluppare nuovi metodi di analisi e di esplorazione a lungo raggio. Entusiasmo si ma saggiamente riposto e senza voli di fantasia fantascientifici.

Il sensazionalismi in questi casi è un’arma a doppio taglio. Da un lato “fa vendere” la Scienza e questo va bene, anzi benissimo.

Dall’altro distorce le informazioni. E questo non va bene. Riecheggiano ancora le leggende su Kepler 452b, la famosa Terra 2.0!

Quello che nessuno ha detto, perchè nessuno ha fatto la fatica di leggere il paper ufficiale pubblicato su arXiv il 23 Luglio 2015, è che Kepler 452b ha una probabilità compresa tra il 40% e il 60% di non avere un nucleo ferroso attivo. Il che significa, in parole brevi, che quel pianeta ha una probabilità compresa tra il 40% e il 60% di non avere un campo magnetico che lo protegga dalle tempeste elettromagnetiche della sua stella. Ovvero che sia completamente sterile e inadatto ad ospitare alcuna forma di vita.

Dilemma piuttosto vecchio, questo. Già nel 1924 il filosofo Charlie Broad mise in guardia sul fatto che “le esposizioni divulgative della teoria [della relatività generale] sono decisamente errate, o espresse così malamente da essere pericolosamente fuorvianti. Tutti i pamphlet […] – anche quelli pubblicati da insigni docenti di Oxford – sono basati su banali incomprensioni”.

Nessuno nega l’eccezionalità della scoperta e le implicazioni che questa comporta e comporterà. Ma visto che per ora di Terra ne abbiamo una sola, rimaniamo con i piedi ben piantati su questa ed esultiamo per i risultati concreti ottenuti ed ottenibili e lasciamo la fantascienza agli scrittori.

#proximab #esopianeta #arxiv #divulgazione #noidimierva

  • FONTI
    https://arxiv.org/pdf/1507.06723.pdf (Discovery and Validation of Kepler-452b)
  • https://arxiv.org/pdf/1608.06919.pdf (The Habitability of Proxima Centauri b I: Evolutionary Scenarios)
  • https://arxiv.org/pdf/1608.07345.pdf (PROSPECTS FOR CHARACTERIZING THE ATMOSPHERE OF PROXIMA CENTAURI b)
  • http://phys.org/news/2016-08-scientists-unveil-earth-like-planet.html
  • Graham Farmelo, “L’uomo più strano del mondo: vita segreta di Paul Dirac il genio dei quanti”, pag. 64/65, ISBN 6788860305695

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale.

La Matematica di miliardi di mondi diversi

Siete convinti che la Matematica sia noiosa, grigia e senza scopo? C’è una notizia per voi che vi farà venire un paio di dubbi a riguardo.

Il 12 Agosto 2016 è stato pubblicato un videogioco chiamato “No Man’s Sky” ad opera della software house indipendente Hello Games.

La particolarità di questo videogioco è che permette di esplorare 18.446.744.073.709.551.616 pianeti. Ogniuno con una propria flora, fauna, clima e morfologia.

no-mans-sky-featured-imageIl numero scritto è giusto, non è un errore di battitura. Si tratta di 2^64, o come dicono gli anglosassoni, 18 quintilioni (1,8 moltiplicato 10^19). Comunque un numero al quale non siamo abituati, troppo grande per qualsiasi pratica quotidiana.

Cosa succede di preciso in questo videogioco? Il giocatore impresona un esploratore con il compito di volare su quanti più pianeti possibili e accumulare informazioni da inviare ad un atlante galattico. Nel frattempo deve anche creare avamposti per migliorare il suo veicolo e lasciarsi travolgere dalla bellezza un po’ psichedelica delle innumerevoli specie animali e vegetali che incontrerà sui vari pianeti.

Tutto quello che il giocatore farà su ogni pianeta influenzerà quello che altri giocatori troveranno, perchè No Man’s Sky è un gioco multiplayer: le azioni dei giocatori si riflettono sugli altri anche se, allo stato attuale, non è possibile una interazione diretta (per i giocatori più esperti, non è ancora un MMORPG).

Come hanno fatto i ragazzi alla Hello Games a realizzare l’equivalente di una galassia colma di pianeti straboccanti di vita (a differenza della nostra) e tutto comodamente contenuto in pochi gigabytes?

Ma con la Matematica, ovviamente! Il trucco risiede nella “programmazione procedurale” portata a livelli raffinatissimi e con la geometria frattale che permette la creazione di panorami di complessità incredibile e di realismo mozzafiato con relativa facilità. La Hello Games non ha rilasciato praticamente nulla sui loro algoritmi usati, anche perchè c’è una amichevole guerra con un altra software house, la Frontier Development che un anno e mezzo fa ha rilasciato Elite:Dangerous, un altro videogioco simile ma più focalizzato sulla interazione tra utenti che non solo sulla esplorazione.

La programmazione procedurale è uno stile di programmazione che prevede l’utilizzo di “blocchi” di codice che si scambiano informazioni sottoforma di costanti o di variabili.

Quale è il vantaggio di questo tipo di programmazione rispetto a quella classica?
Il vantaggio risiede nel fatto che questi blocchi, debitamente progettati e programmati, si prendono l’oneroso compito di “programmare” a loro volta pezzi di videogioco man mano che ce ne è bisogno evitando ai programmatori in carne ed ossa di scrivere milioni di linee di codice, risparmiando loro tempo e, nel caso di piccole software house senza troppe risorse, soldi.

I videogiochi procedurali sono quindi più “piccoli” come dimensioni e in genere consumano meno risorse.

E non sono neanche tanto nuovi, come idea. Se vogliamo fare una carrellata storica, dobbiamo ricordare giochi come Rogue (1980), Tetris (1984), Diablo (1996), Dwarf Fortress (2006), Minecraft (2009) fino ad arrivare al più recente Elite:Dangerous (2014) che è l’ultimo capitolo di una quadrilogia della saga Elite iniziata nel 1984 con un videogioco seminale, Elite della Firebird che ha usato un algoritmo procedurale a sua volta. Tutti creati con algoritmi procedurali.

Rogue è talmente famoso per aver usato questo tipo di programmazione che “roguelike element” è diventato sinonimo di “elemento procedurale” nello slang dei programmatori!

No Man’s Sky quindi porta a nuovi livelli l’arte della programmazione. Ogni pianeta, animale, pianta è codificata in un algoritmo e quindi “portato in vita” se un giocatore si avvicina, modificato se il giocatore interagisce con questi, ricodificato e “messo via” quando il giocatore si allontana.
A dir poco stupefacente!

Ma non è finita qui.

No Man’s Sky fa abbondante uso di geometria frattale per generare gli stupendi panorami. E ricordiamoci che ne deve generare qualche miliardo, tutti diversi. Alcuni sottomarini, altri montani, altri collinari.

Un frattale è un oggetto che si ripete nella sua forma allo stesso modo su scale diverse, e dunque ingrandendo una qualunque sua parte si ottiene una figura simile all’originale: perfetto per rappresentare su un computer, ad esempio, un albero. O una montagna.

E con un po’ di elaborazione artistica anche una creatura vivente come una medusa o un insetto. Proprio come nel videogioco di cui stiamo parlando!

Inoltre, questi oggetti matematici sono ottenuti con formule incredibilmente semplici e sono altrettanto semplici da realizzare tant’è che con uno smartphone non troppo potente si possono realizzare immagini di incredibile bellezza e complessità e addirittura si possono animare.

Neanche i frattali sono proprio una novità in ambiente videoludico, la LucasArts pubblicò Rescue On Fractalus e  nel 1984 per l’Atari 5200 e Commodore 64, due videogames che utilizzavano una primitiva forma di generazione frattale di terreni.

Primitiva perchè i computer usati all’epoca avevano delle risorse piuttosto limitate ma l’idea era originale e ben progettata.

In conclusione, No Man’s Sky fa abbondantissimo uso di avanzati concetti matematici, tra programmazione e geometria, per portarci in una galassia da esplorare, pianeta per pianeta.

Letteralmente. Il tutto comodamente seduti sulla nostra poltrona preferita, davanti al nostro PC.

Ancora convinti che la Matematica sia poi così noiosa? Scommettiamo di no…

#nomanssky #algoritmiprocedurali #frattali #noidiminerva

FONTI

  • http://www.no-mans-sky.com
  • http://www.makeuseof.com/tag/procedural-generation-took-gaming-industry
  • http://www.makeuseof.com/tag/no-mans-sky-future-procedural-games
  • https://en.wikipedia.org/wiki/Procedural_programming
  • https://en.wikipedia.org/wiki/Fractal

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale.

Edgar Degas e la fluorescenza a raggi X

Il ritratto nascosto di Emma Dobigny
Il ritratto nascosto di Emma Dobigny

La scienza e l’arte spesso e volentieri si intrecciano in collaborazioni stupefacenti ma l’annuncio online del 4 Agosto 2016 è di quelli che sconfinano felicemente nella fantascienza!

David Thurrowgood e il suo team ha lavorato sul quadro di Edgar Degas “Portrait de Femme” che storicamente era famoso per nascondere un altro ritratto.

Utilizzando un acceleratore di particelle, il team di Thurrowgood ha scansionato il quadro con un “pennello” di fotoni ad alta energia (i raggi X sono una forma di radiazione elettromagnetica con energia superiore rispetto a quella che noi possiamo percepire con i nostri occhi: la luce).

Questo pennello ha “spintonato” gli elettroni degli atomi del dipinto nascosto spostandoli su orbitali più esterni obbligandoli ad emettere altri fotoni ad energie specifiche, quantificabili e rilevabili.

Ogni sostanza chimica usata nei pigmenti, infatti, brilla ad una certa frequenza se sollecitata dal pennello fotonico dell’acceleratore.

Queste luci, analizzate e poi ricomposte insieme da un computer, sono quelle che hanno rivelato finalmente nella sua interezza, il dipinto nascosto che si è rivelato ruotato di 180° rispetto al secondo ritratto.

Riassunto così sembra che il lavoro fatto sia stato semplice, in realtà è stato piuttosto complesso e delicato ma il risultato ne è valsa la pena.

Tutto il processo di ricostruzione ha impiegato 33 ore ed ha prodotto un rendering di 31,6 megapixels.

Un’altra raffinata tecnica di colorazione applicata all’immagine digitale così ottenuta ha permesso di restituirci quello che più probabilmente poteva essere stato il lavoro originale di Degas.

Una perfetta fusione di arte, scienza e bellezza!

‪FONTE
Thurrowgood, D. et al. A Hidden Portrait by Edgar Degas. Sci. Rep. 6, 29594; doi: 10.1038/srep29594 (2016).