L’età dell’oro per l’Astronomia. Letteralmente!

Da quando il progetto LIGO/Virgo sulla rilevazione delle onde gravitazionali ha iniziato a funzionare, non ha mai smesso di stupire gli astronomi con continue scoperte di grandissima importanza.
 
Quest’ultima però, annunciata il 16 Ottobre 2017, le supera davvero tutte! Alessandra Corsi, radioastronoma al Texas Tech University di Lubbock e cofirmataria del primo documento ufficiale rilasciato dal team di LIGO/Virgo ha definito questo evento come un “grande regalo da parte della natura […] Un evento che cambia la vita.”
 
Vediamo cosa è successo: il 17 Agosto alle ore 12:41 tempo universale, i due rilevatori LIGO di Hanford, Washington e Livingston, Louisiana insieme al rilevatore Virgo di Pisa, Italia hanno rilevato un segnale assolutamente anomalo e stupefacente.
Image credit: Karan Jani/Georgia Tech
 
Mentre i quattro eventi gravitazionali precedentemente rilevati avevano una durata di massimo pochi secondi, questo è durato 100 secondi!
Le frequenze delle onde gravitazionali degli eventi precedenti si misuravano in decine di cicli al secondo mentre per questo si sono rilevate frequenze che arrivavano a migliaia di cicli al secondo!
Si tratta quindi di un evento molto “squillante” dal punto di vista gravitazionale con in più qualcosa di completamente nuovo che ora capiremo insieme!
 
Questa abbondanza di dati da analizzare ha permesso di desumere che in questo caso non si trattava di buchi neri che spiraleggiavano uno verso l’altro ma bensì di più “leggere” stelle di neutroni di 1,1 e 1,6 masse solari.
Per avere un idea delle grandezze in gioco, il primo evento gravitazionale rilevato da LIGO il 14 Settembre 2015, GW150914, aveva coinvolto due buchi neri ambedue di circa 30 masse solari.
 
Come se tutto questo non fosse abbastanza straordinario, essendo le stelle di neutroni composte dalla massa barionica (ovvero massa materiale, fisica) più densa in assoluto nell’universo (talmente densa che le stelle che si sono fuse avevano un diametro stimato di circa 20 chilometri), lo scontro è stato osservabile come un lampo luminoso durato per giorni in un evento chiamato “kilonova”, nome che indica la superiore potenza esplosiva rispetto ad una nova.
 
Questo evento, che porta il nome di GW170817 è passato alla storia per diverse ragioni:
 
La più importante è che con questa scoperta, la quinta epocale nel giro di due anni dall’inizio del progetto, si può tranquillamente affermare che l’era dell’astronomia “multimessaggero” è partita eccezionalmente bene, confermando come il metodo scientifico è ancora l’unico valido (con estremo sollievo dei finanziatori!). Ha confermato previsioni che risalivano a 100 anni fa e siamo sicuri che le sorprese non sono certo finite qui. Si tratta di una astronomia che sfrutta osservazioni elettromagnetiche come quelle dei telescopi ottici, delle antenne radio dei satelliti a raggi x con le rilevazioni delle onde gravitazionali. Oggi possiamo vedere e ascoltare il nostro Universo come mai ci è stato possibile e siamo pronti a scommettere che ci saranno sorprese incredibili ad attenderci la fuori.
 
Brian Metzger

É stata confermata l’esistenza delle kilonova, oggetti teorizzati sin dal 1990 ma mai osservati direttamente. Brian Metzger, un fisico teorico della Columbia University ha giustamente parlato di una tenda che all’improvviso si alza e mostra quanto il gruppo di fisici si erano avvicinati alla realtà dei fatti, dopo questa scoperta.

 
L’esistenza delle kilonova è fondamentale nella fisica nucleare per confermare o smentire le ipotesi sulla formazione di metalli più pesanti del ferro nell’universo: metalli come l’oro, l’argento, platino, rutezio e neodimio. I fisici nucleari avevano ipotizzato che questi atomi si formassero in eventi chiamati r-process (rapid neutron capture process) all’interno delle stelle più vecchie ma con una mole di dati a disposizione come questa, avranno di che lavorare parecchio, finalmente! Ora sapete da dove viene l’oro del vostro anello! Probabilmente è più vecchio del nostro pianeta!
 

Altro dato importantissimo è che, a differenza della fusione di buchi neri, questo evento è stato osservabile anche nello spettro del visibile e nello spettro delle onde radio, simultaneamente! Il Fermi Gamma Ray Space Telescope e lo Swift Space Telescope hanno rivelato dei lampi gamma di breve durata (short Gamma-Ray Burst, sGRB) mentre, 12 ore dopo la rilevazione delle onde gravitazionali, l’osservatorio cileno di Las Campanas guidato da Charles Kilpatrick, un postdoc dell’università di Santa Cruz, alle ore 23.33 del tempo universale, 10 ore e 52 minuti dopo che l’onda gravitazionale era arrivata sulla terra, prese una immagine della galassia NGC4993 e notò un punto luminoso che non era presente negli archivi fotografici della stessa galassia. In uno scambio di messaggi online scrisse, incredibilmente calmo “ho scoperto qualcosa”: era l’emissione nel visibile dell’evento di fusione delle due stelle di neutroni che poi fu chiamato GW170817.

Voglio sottolineare con ben più di una punta di orgoglio il ruolo dell’Italia in questo progetto di collaborazione scientifica internazionale. L’interferometro Virgo è affiliato al progetto LVC: LIGO Scientific Collaboration and Virgo Collaboration fondato nel 1997 dal fisico sperimentale Barry Clark Barish (che nel 2016 ricevette il premio Enrico Fermi “per i suoi fondamentali contributi alla formazione delle collaborazioni scientifiche LIGO e LIGO-Virgo e per il suo ruolo nell’affrontare aspetti tecnologici e scientifici impegnativi la cui soluzione ha portato alla prima rilevazione delle onde gravitazionali “).

Virgo, oltre ad essere situato nel comune di Cascina, frazione Santo Stefano a Macerata (PI), gode della presenza di 8 tra ingegneri e fisici

L’interferometro VIRGO a Cascina, in provincia di Pisa. (Creative Commons CC0)

dell’Istituto Nazionale di Fisica Nucleare (INFN) oltre che di altri 272 esperti provenienti dal Centre National de la Recherche Scientifique (CNRS) in Francia; dal Nikhef in Olanda; dall’MTA Wigner RCP in Ungheria; dal gruppo POLGRAW in Polonia; dall’Università di Valencia in Spagna; e dall’European Gravitational Observatory.

La presenza italiana nell’LVC si fa sentire anche tramite Adalberto Giazotto, fisico dell’INFN e “padre” di Virgo che nel 2001 propose una rete mondiale di interferometri e di utilizzarli come una single machine operante in sinergia. Altrettanto orgogliosi sono Fernando Ferroni e Antonio Masiero, rispettivamente presidente e vicepresidente dell’INFN, quest’ultimo  anche presidente di ApPEC, il consorzio che coordina la ricerca europea in fisica delle astroparticelle.

Molti sono anche gli italiani sparsi per il mondo che collaborano a questo enorme ed ambizioso progetto del quale vado fiero! Non mi stancherò mai di ribadire che la nostra nazione non è solo fucina di stantii stereotipi ma anche di eccellenze in campo scientifico, di ricerca e innovazione e soprattutto di entusiasmo e incrollabile fiducia nel futuro.

Altre considerazioni preferisco non farne, voglio rimanere in un ottica di realistico ottimismo e guardare alle nostre giovani leve che stanno per sperimentare un nuovo, entusiasmante modo di guardare ed ascoltare il nostro meraviglioso Universo.

Carl Sagan
 
Riecheggiano potenti le parole di Carl Sagan: “Da qualche parte, qualcosa di incredibile è in attesa di essere scoperto”.
 
Possiamo starne certi che la strada è solo agli inizi ma non abbiamo paura!
 
[Andrea Grossi]
 
#stelledineutroni #ondegravitazionali #LIGOVirgo #noidiminerva
 
https://dcc.ligo.org/public/0145/P170817/008/LIGO-P170817.pdf
https://it.wikipedia.org/wiki/Tempo_universale
http://www.sciencemag.org/news/2017/10/merging-neutron-stars-generate-gravitational-waves-and-celestial-light-show
http://science.sciencemag.org/content/early/2017/10/13/science.aap9455.full
 

Un embrione, due specie: la chimera umana del dott. Wu

In un mondo dove il problema dei trapianti di organi è grave e quotidiano a causa di scarsità di risorse, scorretta informazione e, conseguentemente scarsa o nulla consapevolezza a riguardo, una notizia come questa potrebbe essere la speranza per chi ha bisogno, spesso urgentemente, di un nuovo organo per poter vivere.
 
Un team di scienziati presso il Salk Institute a La Jolla, California hanno inserito delle cellule staminali umane in un embrione suino, in seguito ad accertati studi che hanno dimostrato come le cellule staminali umane nel giusto grado di maturazione possono combinarsi con zigoti di maiale per poi progredire normalmente alla formazione dell’embrione.
 
L’embrione così formato è risultato vivo e vitale, la prima vera e propria chimera realizzata con cellule umane.
 
Facciamo un passo indietro e capiamo meglio cosa sono le cellule staminali, a cosa servono e cosa è una chimera! Questa è un animale mitologico presente nel folklore ellenico che aveva come caratteristica saliente quella di essere un ibrido piuttosto bizzarro: corpo di leone, una testa di capra che spunta dalla schiena e una coda che pareva assomigliare ad una testa di serpente. Altre culture riportano di bestie ibride: in Cina è conosciuto il pixiu ma anche pegaso è considerabile come un animale ibrido!
 
Le cellule staminali, detto molto brevemente, sono cellule definite “indifferenziate” ovvero cellule che ancora non si sono specializzate in una particolare funzione attraverso un processo noto come “differenziamento cellulare”. Queste cellule possono essere prelevate da diverse fonti come il cordone ombelicale, il sacco amniotico, il sangue, il midollo osseo, la placenta, i tessuti adiposi e sono, nelle giuste condizioni naturali o di laboratorio, in grado di ricostruire parti di organi e tessuti. Non è così semplice ma per capire velocemente di cosa stiamo parlando ci bastano queste informazioni.
 
É un argomento piuttosto sensibile in quanto se da un lato queste cellule permettono, in teoria, di poter riparare danni anche gravi in un organismo, dall’altro è stata fatta fin troppa pessima informazione a riguardo e sono stati segnalati casi di cure finte e costosissime che hanno speculato sulla disperazione di chi si è trovato in stato di grave e urgente necessità.
 
Di embrioni chimera ne sono stati realizzati molti, per capire quali sono le potenzialità di questo tipo di ricerca, ma il lavoro svolto dal team del dottor Jun Wu è stato il primo ad averne realizzata una con cellule staminali umane! La scelta del suino è stata dettata dalla vicinanza genetica delle specie visto che l’obiettivo è quello, nel lungo periodo, di poter creare organi umani in embrioni non umani.
 
Prima di gridare “al mostro” però è indispensabile precisare che la percentuale di staminali umane nell’embrione suino è stata dello 0,001% dimostrando che siamo ancora ben lontani da una mix uguale di cellule da specie lontanamente imparentate. Inoltre il feto, normalmente cresciuto fino alla quarta settimana, è stato distrutto in ottemperanza alle rigidissime linee guida etiche che hanno condotto questa ricerca.
 
Perchè questa ricerca? Il team del dottor Wu ha evidenziato dei punti cardini: intanto la possibilità di studiare i processi dello sviluppo e della differenziazione cellulare nella formazione di nuovi organi, sia negli embrioni che nei gruppi cellulari singoli.
 
Inoltre le chimere potrebbero essere utilizzate per studiare e affrontare malattie altrimenti difficilmente analizzabili (ad esempio alcuni tipi di carcinomi) e di conseguenza per poter testare farmaci più efficaci e mirati finalizzati all’uso umano
 
L’esperimento della crescita di un pancreas di ratto all’interno di un topo è stato un primo passo incoraggiante verso lo sviluppo di questa tecnica e accenna alla possibilità di crescere organi umani in altre specie.
 
I suini assomigliano all’homo sapiens in molti aspetti fisiologici e anatomici e sono gli ovvi candidati.
 
Vi è un urgente bisogno di organi per trapianti e purtroppo vi è una scarsissima disponibilità. Gli organi animali coltivati potrebbero fornire la risposta in futuro ed anche se siamo ancora lontani da questo obiettivo la strada intrapresa sembra promettente.

 

http://www.cell.com/cell/fulltext/S0092-8674(16)31752-4
http://news.nationalgeographic.com/2017/01/human-pig-hybrid-embryo-chimera-organs-health-science/
https://it.wikipedia.org/wiki/Cellula_staminale
https://it.wikipedia.org/wiki/Chimera_(biologia)
https://it.wikipedia.org/wiki/Chimera_(mitologia)

[AG]

#cellulestaminali #chimera #embrione #noidiminerva

Addio alla materia oscura grazie alla gravità entropica?

Erik Verlinde è un fisico teorico dell’università di Amsterdam che nel 2010 propose una teoria della gravità completamente nuova e rivoluzionaria: secondo tale teoria, la gravità non è una forza fondamentale della natura ma un “effetto collaterale” o, usando le parole di Verlinde, un fenomeno emergente.

Le forze fondamentali, o più propriamente dette le interazioni fondamentali, sono a oggi quattro: gravitazionale, elettromagnetica, nucleare forte e nucleare debole. Agiscono su diverse scale, da quella cosmica a quella subnucleare e “tengono insieme” letteralmente l’universo.

Image credits: APS/Alan Stonebraker; STScI/AURA, NASA, ESA, Hubble Heritage Team

I fenomeni emergenti invece sono proprietà tipiche di un sistema ma non delle singole parti che lo compongono. Pensiamo per esempio alle cellule nervose: una di esse può ricevere e trasmettere segnali elettrici, ma non può risolvere un’equazione o scrivere un’opera. Ma mettendo insieme miliardi di cellule nervose le cose cambiano ed ecco che compaiono personaggi come Newoton o Mozart. Nello stesso modo la gravità sarebbe una proprietà emergente dello spazio-tempo, che emerge dalle variazioni di quelli che vengono definiti come bit di informazione immagazzinati nella struttura dello spazio-tempo stesso.


Il concetto è piuttosto difficile da intuire ma allo stesso tempo talmente affascinante da surclassare qualsiasi romanzo di fantascienza: lo spazio-tempo conterrebbe informazione. Quest’idea è stata originariamente sviluppata da John Archilbald Wheeler il quale affermò che la struttura geometrica dello spazio-tempo sia un mezzo per “immagazzinare informazione” secondo il concetto magnificamente riassuntivo di “it from bit”, che si può tradurre con “materia dall’informazione”.

Il concetto di informazione ha le sue origini in Ludwig Boltzmann, Claude Shannon e John von Neumann e gli studi sull’entropia ma rischiamo di sviare l’attenzione dal discorso principale!

Essendo la gravità un effetto collaterale e non più un elemento fondamentale e fondamentante dello spazio-tempo, ne risulta che la presenza della materia oscura diventa superflua: Verlinde ha dimostrato in un suo articolo del 7 Novembre 2016 come la sua teoria predica in maniera accurata la velocità orbitale delle stelle che si muovono attorno al centro della Via Lattea, così come il moto delle stelle in altre galassie.

Non è la prima volta che viene proposta una teoria del genere: nel 1983 Mordehai Milgrom enunciò la MOdified Newtonian Dynamics (MOND) che però a differenza della gravità entropica di Verlinde aveva bisogno di essere aggiustata e ritoccata a seconda delle osservazioni eseguite.

La gravità entropica invece parte da presupposti completamente diversi e non ha bisogno di essere limata per adeguarsi alle misurazioni. Al momento sembra essere autosufficente e rispondente alle misurazioni effettuate.

I risultati, pubblicati su Monthly Notices of the Royal Astronomical Society, suggeriscono che la teoria di Verlinde risulta in buon accordo con i dati osservativi.

La validità è stata verificata da Margot Brouwer del Leiden Observatory, in Olanda, insieme al suo gruppo di ricercatori. Gli astronomi hanno utilizzato la deformazione dello spaziotempo, prodotta dal fenomeno della lente gravitazionale, per misurare la distribuzione della gravità attorno a più di 33 mila galassie.

Erik Verlinde

La teoria di Verlinde predice gli effetti dovuti alla gravità basandosi sulla massa associata solamente alla materia visibile.

La gravità curva lo spazio in modo tale che, quando i raggi luminosi vi si propagano, essi vengono deflessi come nel caso di una lente ottica. Le immagini delle galassie di fondo, che sono molto più distanti rispetto ad una galassia vicina (la “lente”), appariranno più o meno distorte.

Questo effetto può essere misurato in modo da determinare come varia la forza di gravità attorno alla galassia che si trova interposta lungo la linea di vista.

I risultati delle misure ottenute dai ricercatori indicano che, fino a distanze dell’ordine di qualche centinaia di volte il raggio della galassia, la gravità risulta molto più forte rispetto a quanto predice la relatività generale. Per far funzionare la teoria di Einstein è stato necessario aggiungere particelle invisibili conosciute come “materia oscura”.

Brouwer e colleghi hanno perciò calcolato la variazione della forza di gravità mediante il metodo della lente gravitazionale e basandosi solo sulla massa visibile delle galassie (tralasciando quindi la materia oscura), in modo da confrontare i dati osservativi con le predizioni fornite dalla teoria di Verlinde.

I risultati sono soddisfacenti e la teoria sembrerebbe funzionare senza alcun aggiustamento (come successo per le teorie di Einstein e di Milgrom): la massa della materia oscura è un parametro libero che deve essere aggiustato rispetto alle osservazioni, la teoria della gravità entropica fornisce una predizione diretta senza richiedere la presenza di parametri liberi.

É importantissimo però evidenziare almeno due considerazioni emerse proprio in seguito ai calcoli di Brouwer: la teoria del fisico olandese è applicabile solamente a sistemi isolati, di forma sferica e statici. L’universo è un sistema incommensurabilmente più complesso e dinamico per cui molte osservazioni rimangono ancora inspiegate e la materia oscura potrebbe ancora essere in gioco.

Questo è perfettamente normale nella ricerca scientifica: ogni teoria deve essere testata minuziosamente e verificata in tutte le condizioni possibili e immaginabili e comunque c’è sempre la possibilità di una ulteriore conferma o smentita. La Scienza, ricordiamo per I più distratti, non offre mai soluzioni definitive; chi crede questa cosa sbaglia e si fa una idea completamente distorta di cosa sia e come funzioni.

La Scienza offre le ipotesi migliori, in un dato tempo e con date informazioni ed è soggetta per sua natura ad essere migliorata costantemente in un processo di raffinazione infinito, scrupoloso e amorevole. E per miglioramento intendiamo anche l’impietosa ma doverosa demolizione di quello che si è verificato essere errato.

Se la gravità entropica si dovesse rivelare incorretta, non si può e non si deve considerare un fallimento (a dispetto dei roboanti titoli dei mass media, sempre pronti a condannare o esaltare ignorantemente le notizie delle quali sono in gran parte all’oscuro) ma un passo in avanti nella conoscenza del nostro universo.

#materiaoscura #gravità #erikverlinde #noidiminerva

[AG]

Picture credits: APS/Alan Stonebraker; STScI/AURA, NASA, ESA, Hubble Heritage Team

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale.

E la scimmia paralizzata tornò a camminare?

Il punto di domanda, in certi frangenti è doveroso. Nonostante i risultati di laboratorio sembrerebbero ben più che incoraggianti riteniamo che una oggettiva osservazione è necessaria per non scivolare in un sensazionalismo del quale non si ha proprio alcun bisogno, visto il tema particolarmente suscettibile di reazioni emotive.

Il dottor Grégoire Courtine, un neuroscienziato che lavora presso lo Swiss Federal Institute of Technology (EPFL) e a capo del team composto da Marco Capogrosso, Tomislav Milekovic, David Borton, Fabien Wagner, Eduardo Martin Moraud, Jean-Baptiste Mignardot, Nicolas Buse, Jerome Gandar, Quentin Barraud, David Xing, Elodie Rey, Simone Duis, Yang Jianzhong, Wai Kin D. Ko, Qin Li, Peter Detemple, Tim Denison, Silvestro Micera, Erwan Bezard, Jocelyne Bloch ha impiantato con successo un dispositivo wireless che ha permesso ad un macaco Rhesus di riacquistare la funzionalità di un arto inferiore dopo sei giorni dall’intervento.

Sembra fantascienza, ne siamo consapevoli, per questo cerchiamo di analizzare lucidamente i fatti con le informazioni a disposizione.

Il macaco in questione aveva una lesione al midollo spinale che aveva precluso qualsiasi comunicazione tra la corteccia cerebrale (i “circuiti” nel cervello che orchestrano e coordinano armonicamente i movimenti degli arti) e i nervi che invece stimolano direttamente i muscoli. Il midollo spinale è quella porzione di sistema nervoso centrale contenuto e protetto dalla colonna vertebrale.

Ricostruire i fasci nervosi è estremamente difficoltoso, al limite dell’impossibile in quanto queste cellule sembrano essere refrattarie anche ai trattamenti con cellule staminali.

La soluzione del dottor Courtine è stata quella di applicare un ponte wireless tra le sezioni danneggiate del midollo spinale in modo da ripristinare la comunicazione. La difficoltà principale è stata quella di tradurre gli impulsi nervosi in segnali digitali e quindi di tradurre ancora i segnali digitali in segnali nervosi.

neural_implant_rhesusOgni volta che decidiamo di muoverci, infatti, il cervello crea una complessa serie di segnali che va a stimolare in maniera armonica i distretti muscolari che intendiamo usare in una interazione di contrazioni e rilassamenti veramente intricata.

Il processo di riabilitazione è passato attraverso l’impianto di una serie di 96 microsensori nell’area motoria intracorticale del cervello del macaco predisposta al movimento della gamba. Questi sensori sono collegati al sistema di stimolazione del midollo spinale (che non si trova nella corteccia cerebrale) composto da un impianto epidurale e un generatore di impulsi con funzionalità di attivazione in tempo reale.

Questo sistema era stato precedentemente validato su un altro macaco senza alcuna lesione per testarne l’efficacia e controllare la coerenza dei segnali inviati. Una volta che sono stati ottenuti dei risultati coerenti tra la trasmissione dei segnali biologici e quelli digitali, è stato effettuato l’impianto sul macaco con la lesione spinale.

Al momento il sistema è ancora controllato esternamente con un computer online. Indipendentemente da questo, dopo sei giorni e senza alcun tipo di terapia riabilitativa, il macaco Rhesus ha riaquistato la funzionalità dell’arto inferiore.

Il dispositivo che invia i segnali al computer di controllo è grande all’incirca come una scatola di fiammiferi e al momento è indispensabile per rilevare eventuali movimenti anomali e ricalibrare quindi i sistemi di stimolazione del midollo spinale, oltre che per tenere costantemente sotto controllo il flusso di dati e quindi per migliorare costantemente il funzionamento di questa interfaccia cervello-macchina (BMI, brian-machine interface).

Tomislav Milekovic, un ricercatore del EPFL ha affermato, in una intervista alla webzine Motherboard, che i primi impianti su esseri umani potrebbero essere realizzabili entro il 2020.

É difficile non lasciarsi andare a facili entusiasmi di fronte a notizie come queste ma proprio di fronte al fascino emotivo di simili cose crediamo che sia imperativo rimanere quanto più possibile lucidi. La paraplegia è una condizione che crea infelicità e disagi sotto tutti punti di vista. Non c’è davvero bisogno né di altri venditori di fumo e men che meno di abbracciare acriticamente qualsiasi “facile” soluzione pseudomiracolosa o pseudoscientifica ci venga sbandierata.

La notizia sembra attendibile e le fonti sono autorevoli e facilmente rintracciabili (a differenza degli imbonitori e dei saltimanchi del web che citano fonti costantemente irreperibili) di ma rimaniamo in cauta e razionale attensa di conferme. O di smentite.

#macacorhesus #neuroimpianti #paraplegia #noidiminerva

Risolto il paradosso delle traiettorie surreali subatomiche

La meccanica quantistica è terribilmente intricata e terribilmente controintuitiva. Su questo crediamo che nessuno abbia mai avuto dubbi a riguardo, tranne forse i tristemente noti spacciatori di finte cure e rimedi definiti in maniera del tutto arbitraria e inopportuna “quantistici”.

La buona notizia è che a piccoli passi, chi invece sta seriamente lavorando in questo campo della conoscenza, sta facendo un po’ più di chiarezza anche su questioni che hanno storicamente dato del filo da torcere a tutti quelli che si sono dedicati alla materia in questione.

maxresdefaultUn esperimento effettuato da Aephraim Steinberg dell’Università di Toronto, in Canada, e colleghi canadesi e australiani (Dylan H. Mahler, Lee Rozema, Kent Fisher, Lydia Vermeyden, Kevin J. Resch, Howard M. Wiseman) che firmano un articolo su “Science Advances” hanno dimostrato che le traiettorie surreali delle particelle subatomiche sono spiegate coinvolgendo un fenomeno unico della meccanica quantistica che è l’entanglement.

Ma cosa sono le traiettorie surreali? E cosa è l’entaglement? E perchè tutto questo è importante?

Facciamo qualche passo indietro e scopriamo un pezzo per volta di cosa si tratta, è un viaggio affascinante nel mondo dei quanti e ci asterremo dalle dimostrazioni matematiche per evitare clamorosi sbadigli, fidatevi sulla parola!

Uno degli argomenti più affascinanti della meccanica quantistica è il principio di indeterminazione enunciato nel 1927 da Werner Karl Heisenberg. Secondo questo principio non è possibile conoscere contemporaneamente la posizione e la velocità di una particella subatomica in quanto la precisione della misurazione di una va a discapito dell’altra e viceversa.

Per giunta, come se questo non bastasse, quando si effettua una misurazione occorre tenere conto dell’interazione fisica con gli strumenti: questo significa che non si può prescindere dalla presenza dell’osservatore (dove per osservatore si intende non necessariamente un essere umano ma anche un raggio che sta scansionando un oggetto subatomico) che è parte integrante del sistema e che inevitabilmente altera il risultato dell’osservazione.

Infine, la descrizione della dinamica di una particella è probabilistica: questo significa che, dato un fotone che si sposti da un punto A ad un punto B, bisogna calcolare (tramite il metodo di calcolo chiamato “integrale di Feynman”) tutte le possibili traiettorie che il fotone può compiere. È come se la particella aprisse una nuvola contenente tutti i percorsi possibili nel punto A e poi convergesse sul punto B.

La versione più classica della meccanica quantistica, chiamata interpretazione di Copenhagen (ispirata ai lavori svolti nella capitale danese da Niels Bohr e da Werner Heisenberg attorno al 1927 e che usa come esempio classico l’esperimento della doppia fenditura), afferma che se si spara un fotone verso un bersaglio, non esiste alcuna traiettoria “reale” tra la sorgente di luce e il bersaglio. Solo la misurazione dice dove si trova, facendo “collassare” lo stato della particella in un punto.

Esiste un’altra interpretazione della meccanica quantistica, quella di Bohm, detta talvolta meccanica bohmiana o da alcuni anche interpretazione di de Broglie-Bohm, è un’interpretazione della meccanica quantistica postulata da David Bohm nel 1952 che riprende l’idea dell’ onda pilota elaborata da Louis de Broglie nel 1927: questa idea fu introdotta per ripristinare una sorta di determinismo della realtà che fosse in grado di risolvere molti dei problemi aperti della meccanica quantistica, quali il paradosso del gatto di Schrödinger, il collasso della funzione d’onda e altri.

Matematicamente tale onda pilota è descritta dalla classica funzione d’onda della meccanica quantistica ovvero dalla descrizione dinamica probabilistica di una particella. I conti sembravano tornare!

Il problema derivato da queste interpretazioni però è che la traiettoria di una singola “particella bohmiana” non può essere osservata in un esperimento perchè ogni misurazione della sua posizione cambia la funzione d’onda sia della particella che della ipotetica funzione d’onda globale che descrive l’interazione della particella d’interesse con lo strumento di misura.

Il problema fu risolto ripetendo numerose volte lo stesso esperimento con una serie di misurazioni definite “deboli” e che riguardassero soltanto la la velocità della particella. Questo garantiva il minimo disturbo possibile del sistema e il successivo calcolo della posizione. Ripetendo l’esperimento un numero adeguato di volte sarebbe stato possibile ottenere il valore medio della velocità in funzione della posizione.

Uno studio del 2007 ha confermato sperimentalmente che ripetendo questo processo in diversi momenti permette di ricostruire un insieme di traiettorie medie coerenti con le traiettorie previste dalla teoria bohmiana.

Sembrerebbe quindi che tutto andasse per il verso giusto ma uno degli esperimenti più classici della meccanica quantistica eludeva questo risultato rassicurante: stiamo parlando dell’esperimento di Young, in cui un fascio di luce, una volta fatto passare attraverso un doppia fenditura, forma una figura d’interferenza su uno schermo. L’interferenza dimostra che la luce ha una natura ondulatoria.

Se però si riduce l’intensità della sorgente fino a emettere un fotone alla volta, sullo schermo schermo si producono puntini, che di volta in volta hanno posizioni diverse, il che depone a favore dell’ipotesi della natura corpuscolare della luce.

L’ironia ha voluto che in una versione modificata dell’esperimento di Young, la teoria bohmiana fornisce delle previsioni contrarie su quali fenditure siano attraversate dai fotoni. Questa discrepanza, oltre ad aver causato qualche seria emicrania, ha portato a coniare il termine di “traiettorie surreali” in contrapposizione alle “traiettorie reali” (e ci sarebbe da riflettere sul termine “reale”, date le considerazioni fatte precedentemente sulla interpretazione di Copenhagen ma lasciamo queste questioni ad altri momenti).

L’entanglement o correlazione quantistica è un fenomeno quantistico, privo di analogo classico, che prevede che due o più particelle siano intrinsecamente collegate in modo tale che le azioni o misure eseguite su una di esse abbiano effetto istantaneo sulle altre. Il fenomeno è stato descritto nel 1935 da Albert Einstein, Boris Podolsky e Nathan Rosen in un articolo dal titolo “La descrizione quantomeccanica della realtà fisica si può considerare completa?” ed è passato alla storia con il nome di paradosso EPR.

Ricordiamo che l’entaglement è stato definitivamente dimostrato in laboratorio da Maria Fuwa, Shuntaro Takeda, Marcin Zwierz, Howard M. Wiseman e Akira Furusawa in un esperimento del 2015 presso il Centre for Quantum Dynamics della Griffith University in Australia.

Nel mondo subatomico una particella può essere in due diverse condizioni nello stesso tempo. Per esempio può ruotare in una direzione o nell’altra (in su o in giù, il cosiddetto spin), ma anche in entrambe le direzioni contemporaneamente. Questo doppio stato, detto anche sovrapposizione quantistica, permane finché non si misura lo spin, momento in cui esso collassa su uno solo dei due stati.

L’entanglement prevede che due particelle possono essere collegate in modo tale che entrambi abbiano la stessa sovrapposizione di stati allo stesso tempo. Se si esegue una misura sulla prima particella, provocandone il collasso, per esempio, nello stato di spin su, la seconda collasserà istantaneamente nello stato di spin giù indipendentemente dalla distanza che separa le due particelle (cosa che fece irritare parecchio Albert Einstein).

Questo può succedere anche con una singola particella: un fotone, per esempio, può essere diviso in due particelle ancora connesse quantisticamente tra loro. La funzione d’onda (ovvero l’equazione matematica che descrive lo stato della particella) si estende infinitamente, ma la particella in sé si trova in tutte gli stati con diverse probabilità: nel momento in cui viene rilevata da uno strumento, lo stato collassa e si realizza una sola delle possibilità preesistenti alla misura.

Quali conclusioni trarre da tutto questo? Intanto che grazie all’entanglement è possibile formulare una previsione corretta delle traiettorie bohmiane anche nell’esperimento modificato di Young.

Inoltre, in un ottica meno pragmatica, possiamo trarre la considerazione che se è vero che siamo talpe semiceche e che sappiamo poco o nulla di quello che ci circonda è altrettanto vero che stiamo incessantemente scavando.

Stiamo incessantemente imparando, piccoli pezzi per volta. Abbiamo iniziato ponendoci domande senza avere alcun mezzo per risponderci e da allora non abbiamo smesso un secondo. Quando ci è stato impedito di farlo, siamo piombati in epoche oscure e terribili dove progresso e civiltà non solo si sono fermati ma sono addirittura riusciti a retrocedere per poi faticosamente riprendere il cammino.

E abbiamo sempre ripreso il cammino della conoscenza.

A cosa serve questa scoperta? Serve a soddisfare Il piacere della cultura, l’unico vero piacere che ci distingue dagli altri animali e che rende la nostra spece davvero unica.

 

#noidiminerva #meccanicaquantistica #esperimentodiyoung #bohm

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale.

Fine della missione Rosetta

Rosetta e Philae sono due nomi che negli ultimi anni hanno assunto un significato molto speciale, a volte tra polemiche per lo più sterili, più spesso perchè hanno suscitato un senso di ammirazione e meraviglia come da moltissimo tempo non si provava più.

E a buone ragioni!

Stiamo parlando, infatti, della più importante missione spaziale dai tempi dello sbarco dell’uomo sulla luna!

La missione Rosetta è inziata nel 2004 e tanto per dare un’idea della distanza temporale, all’epoca Twitter non esisteva ancora. Lo scopo della missione era quello di lanciare, letteralmente, una sonda non più grande di una lavatrice su una cometa di 4,3 chilometri di lato, che viaggia alla velocità di 38 chilometri al secondo e distante 450 milioni di chilometri (al momento dell’atterraggio del lander).

Tutto questo tenendo conto che la sonda è rimasta in uno stato di stand-by (ovvero con quasi tutti i sistemi spenti tranne il computer di bordo e uno speciale orologio che l’ha svegliata all’avvicinamento della cometa) dall’8 Giugno 2011 al 20 Gennaio 2014.

E tutto è andato secondo i piani. Il lander Philae è rimbalzato due volte invece di atterrare stabilmente ma a parte questo incidente, tutto si è svolto come previsto. La missione è stato un successo incredibile.

Anche dal punto di vista mediatico, l’ESA ha creato un fenomeno senza precedenti: sono stati realizzati infatti dei cortometraggi animati che rappresentano la sonda Rosetta e il lander Philae come due simpatici personaggi che intraprendono un viaggio come fratello e sorella e raccontano all’umanità quello che incontrano durante il loro lungo percorso.

Inoltre sono stati creati anche due account su Twitter per permettere ai due robot di comunicare con noi umani, rendendo questa missione incredibilmente accattivante ed emotivamente coinvolgente.

Gli ultimi messaggi della sonda Rosetta sono infatti molto commoventi e poco conta sapere che non sono davvero inviati dalla sonda ma da un bravo dipendente dell’ESA. Il risultato ha suscitato una marea di messaggi di solidarietà, affetto e comunque di attenzione nei confronti della missione.

Che è l’obiettivo che l’Ente Spaziale Europeo voleva ottenere.

Nel corso di questa missione sono orbitati eventi di ogni tipo: a partire dall’assegnazione dei nomi delle due sonde (una delle quali, Philae, venne scelto nel 2004 in base ad una gara vinta dalla milanese Serena Olga Vismara), allo “scandalo” legato alla camicia dello scienziato Matt Taylor che ha fatto inviperire schiere di femministe fino ad arrivare ai numerosi hashtag usati su Twitter per incitare il pubblico (con un evidente e riscontrabile successo) a seguire le vicende delle due sonde.

ESA ha dimostrato ampiamente che si può fare eccellente Scienza ad altissimi livelli e poterla offrire in maniera assolutamente popolare senza scadere nel populismo. Ha messo a disposizione materiale didattico e scientifico per tutti, bambini, amatori e professionisti sul suo sito.

Visto che però stiamo parlando di eccellenza, forse è giusto porsi almeno due domande: la prima delle quali riguarda la motivazione che ha spinto i progettisti a dotare Rosetta di sistemi alimentati ad energia solare piuttost che ad energia nucleare come invece è successo con la missione americana New Horizons. Questo avrebbe permesso di tenere la sonda attiva per tutto il tragitto invece che obbligare i tecnici a metterla in stand-by.

La seconda considerazione riguarda la restrizione che l’ESA impose sulla divulgazione delle immagini riprese dagli strumenti di bordo durante la fase di avvicinamento alla cometa 67/P. È stato veramente arduo reperire delle immagini e non solo per gli appassionati ma anche per le altre agenzie spaziali e per gli scienziati stessi. Questa politica ha creato qualche malcontento che fortunatamente è durato poco, però si è sentito soprattutto durante il 2014 subito dopo il risveglio di Rosetta.

Oltre queste considerazioni, è assolutamente necessario ricordare anche come l’Italia è presente in maniera fondamentale in questa missione: I pannelli solari sono stati realizzati dall’Agenzia Spaziale Italiana (Asi) e da Galileo Avionica di Milano; GIADA (Grain Impact Analyser and Dust Accumulator), VIRTIS (Visible and Infrared Thermal Imaging Spectrometer), OSIRIS (Optical, Spectroscopic, and Infrared Remote Imaging System) e WAC (Wide Angle Camera) sono progettati e realizzati con contributi italiani; SD2 (Sample Drill & Distribution) ovvero la trivella che avrebbe dovuto perforare ed analizzare la superfice della cometa è stata sviluppata dal Politecnico di Milano.

Andrea Accomazzo ha diretto la missione ed è lo Spacecraft Operations Manager presso l’ESA.

Sulla cometa 67/P c’è parecchia Italia: la nostra parte migliore, da quella più creativa a quella più tecnica e innovativa.
Dobbiamo esserne veramente fieri e orgogliosi perchè non c’è riconoscimento migliore che non quello di essere li, davvero dove nessuno è mai giunto prima.

14524533_924017707702198_8192085412632729855_o

#missionerosetta #philae #67P #rosetta #noidiminerva #30settembre

  • http://rosetta.esa.int/
  • http://sci.esa.int/rosetta/
  • http://sci.esa.int/rosetta/14615-comet-67p/
  • https://en.wikipedia.org/…/67P/Churyumov%E2%80%93Gerasimenko
  • http://blogs.esa.int/…/naming-philae-an-interview-with-200…/
  • http://rosetta.jpl.nasa.gov/andrea-accomazzo
  • https://en.wikipedia.org/wi…/Timeline_of_Rosetta_spacecraft…
  • https://en.wikipedia.org/wiki/Rosetta_(spacecraft)

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale.

Nuova Terra, Vecchi Problemi: Proxima b

É stata scoperta una nuova Terra 2.0? A sentire le testate scientifiche sembrerebbe proprio di si e questa volta è anche piuttosto vicina! Solo (astronomicamente parlando) 4,5 anni luce da noi! Questa nuova Terra orbita intorno ad una stella nana rossa chiamata Proxima Centauri. Non per niente, quando fu scoperta nel 1915 da Robert Innes, il direttore dell’Union Observatory, in Sudafrica, le venne dato questo nome. A parte il nostro sole, è la stella più vicina conosciuta.

proxima-centauri-b

“Sembrerebbe” che questo nuovo pianeta sia dotato di atmosfera e di oceani liquidi e si trovi nella Goldilocks zone, ovvero alla distanza ottimale dalla sua stella per mantenere l’acqua nei suoi tre stati: liquido, solido e gassoso, situazione indispensabile per sostenere la vita organica.

I titoli dei giornali sono andati a nozze, gli illustratori anche, lanciando in rete immagini pittoresche e romantiche di panorami alieni.

Ma le cose stanno veramente così? É stata davvero trovata una nuova Terra dove poterci trasferire in massa a breve oppure la realtà è piuttosto diversa?

Proxima b si trova effettivamente nella Goldilocks zone: questa zona cambia per ogni sistema solare e dipende da un numero di fattori, principalmente dalla stella attorno alla quale i pianeti orbitano.

Più la stella è grande, più questa zona è proiettata verso l’esterno del sistema. Viceversa più la stella è piccola, più la zona è vicina alla stella stessa. Proxima b è più vicina al suo sole di quanto Mercurio sia vicino al nostro sole ma dato che Proxima Centauri è relativamente molto fredda, la Goldilocks zone si trova molto vicina ad essa.

Esaminiamo i comunicati ufficiali pubblicati il 24 e il 29 Agosto 2016 e liberamente consultabili e scaricabili.

La prima cosa che risulta evidente è una straordinaria cautela e una lucida e asettica esposizione dei fatti.

Altra cosa che risalta è che, alcune testate come “Der Spiegel” si lanciano in affermazioni piuttosto azzardate: phys.org riporta, in data 12 Agosto che il quotidiano tedesco afferma che il nuovo pianeta potrebbe avere acqua liquida sulla sua superfice. Il paper datato 29 Agosto di Laura Kreidberg e Abraham Loeb parla molto chiaramente e in maniera altrettanto cauta di analisi per rilevare la presenza di “atmosfera” tramite il James Webb Space Telescope (JWST). Da nessuna parte nelle 5 pagine del paper si parla di oceani o acqua liquida.

Capiamo Der Spiegel che non è un giornale scientifico ma phys.org forse avrebbe potuto informarsi un po’ meglio ed evitare di citare pedissequamente una fonte molto poco attendibile.

Il paper del 24 Agosto, “The Habitability of Proxima Centauri b I: Evolutionary Scenarios” è ancora più severo e cauto nelle affermazioni sulla presenza di vita o di acqua liquida su Proxima b, sottolineando i limiti attuali delle tecniche di indagine e ponendole come entusiasmanti sfide per arrivare a sviluppare nuovi metodi di analisi e di esplorazione a lungo raggio. Entusiasmo si ma saggiamente riposto e senza voli di fantasia fantascientifici.

Il sensazionalismi in questi casi è un’arma a doppio taglio. Da un lato “fa vendere” la Scienza e questo va bene, anzi benissimo.

Dall’altro distorce le informazioni. E questo non va bene. Riecheggiano ancora le leggende su Kepler 452b, la famosa Terra 2.0!

Quello che nessuno ha detto, perchè nessuno ha fatto la fatica di leggere il paper ufficiale pubblicato su arXiv il 23 Luglio 2015, è che Kepler 452b ha una probabilità compresa tra il 40% e il 60% di non avere un nucleo ferroso attivo. Il che significa, in parole brevi, che quel pianeta ha una probabilità compresa tra il 40% e il 60% di non avere un campo magnetico che lo protegga dalle tempeste elettromagnetiche della sua stella. Ovvero che sia completamente sterile e inadatto ad ospitare alcuna forma di vita.

Dilemma piuttosto vecchio, questo. Già nel 1924 il filosofo Charlie Broad mise in guardia sul fatto che “le esposizioni divulgative della teoria [della relatività generale] sono decisamente errate, o espresse così malamente da essere pericolosamente fuorvianti. Tutti i pamphlet […] – anche quelli pubblicati da insigni docenti di Oxford – sono basati su banali incomprensioni”.

Nessuno nega l’eccezionalità della scoperta e le implicazioni che questa comporta e comporterà. Ma visto che per ora di Terra ne abbiamo una sola, rimaniamo con i piedi ben piantati su questa ed esultiamo per i risultati concreti ottenuti ed ottenibili e lasciamo la fantascienza agli scrittori.

#proximab #esopianeta #arxiv #divulgazione #noidimierva

  • FONTI
    https://arxiv.org/pdf/1507.06723.pdf (Discovery and Validation of Kepler-452b)
  • https://arxiv.org/pdf/1608.06919.pdf (The Habitability of Proxima Centauri b I: Evolutionary Scenarios)
  • https://arxiv.org/pdf/1608.07345.pdf (PROSPECTS FOR CHARACTERIZING THE ATMOSPHERE OF PROXIMA CENTAURI b)
  • http://phys.org/news/2016-08-scientists-unveil-earth-like-planet.html
  • Graham Farmelo, “L’uomo più strano del mondo: vita segreta di Paul Dirac il genio dei quanti”, pag. 64/65, ISBN 6788860305695

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale.

La Matematica di miliardi di mondi diversi

Siete convinti che la Matematica sia noiosa, grigia e senza scopo? C’è una notizia per voi che vi farà venire un paio di dubbi a riguardo.

Il 12 Agosto 2016 è stato pubblicato un videogioco chiamato “No Man’s Sky” ad opera della software house indipendente Hello Games.

La particolarità di questo videogioco è che permette di esplorare 18.446.744.073.709.551.616 pianeti. Ogniuno con una propria flora, fauna, clima e morfologia.

no-mans-sky-featured-imageIl numero scritto è giusto, non è un errore di battitura. Si tratta di 2^64, o come dicono gli anglosassoni, 18 quintilioni (1,8 moltiplicato 10^19). Comunque un numero al quale non siamo abituati, troppo grande per qualsiasi pratica quotidiana.

Cosa succede di preciso in questo videogioco? Il giocatore impresona un esploratore con il compito di volare su quanti più pianeti possibili e accumulare informazioni da inviare ad un atlante galattico. Nel frattempo deve anche creare avamposti per migliorare il suo veicolo e lasciarsi travolgere dalla bellezza un po’ psichedelica delle innumerevoli specie animali e vegetali che incontrerà sui vari pianeti.

Tutto quello che il giocatore farà su ogni pianeta influenzerà quello che altri giocatori troveranno, perchè No Man’s Sky è un gioco multiplayer: le azioni dei giocatori si riflettono sugli altri anche se, allo stato attuale, non è possibile una interazione diretta (per i giocatori più esperti, non è ancora un MMORPG).

Come hanno fatto i ragazzi alla Hello Games a realizzare l’equivalente di una galassia colma di pianeti straboccanti di vita (a differenza della nostra) e tutto comodamente contenuto in pochi gigabytes?

Ma con la Matematica, ovviamente! Il trucco risiede nella “programmazione procedurale” portata a livelli raffinatissimi e con la geometria frattale che permette la creazione di panorami di complessità incredibile e di realismo mozzafiato con relativa facilità. La Hello Games non ha rilasciato praticamente nulla sui loro algoritmi usati, anche perchè c’è una amichevole guerra con un altra software house, la Frontier Development che un anno e mezzo fa ha rilasciato Elite:Dangerous, un altro videogioco simile ma più focalizzato sulla interazione tra utenti che non solo sulla esplorazione.

La programmazione procedurale è uno stile di programmazione che prevede l’utilizzo di “blocchi” di codice che si scambiano informazioni sottoforma di costanti o di variabili.

Quale è il vantaggio di questo tipo di programmazione rispetto a quella classica?
Il vantaggio risiede nel fatto che questi blocchi, debitamente progettati e programmati, si prendono l’oneroso compito di “programmare” a loro volta pezzi di videogioco man mano che ce ne è bisogno evitando ai programmatori in carne ed ossa di scrivere milioni di linee di codice, risparmiando loro tempo e, nel caso di piccole software house senza troppe risorse, soldi.

I videogiochi procedurali sono quindi più “piccoli” come dimensioni e in genere consumano meno risorse.

E non sono neanche tanto nuovi, come idea. Se vogliamo fare una carrellata storica, dobbiamo ricordare giochi come Rogue (1980), Tetris (1984), Diablo (1996), Dwarf Fortress (2006), Minecraft (2009) fino ad arrivare al più recente Elite:Dangerous (2014) che è l’ultimo capitolo di una quadrilogia della saga Elite iniziata nel 1984 con un videogioco seminale, Elite della Firebird che ha usato un algoritmo procedurale a sua volta. Tutti creati con algoritmi procedurali.

Rogue è talmente famoso per aver usato questo tipo di programmazione che “roguelike element” è diventato sinonimo di “elemento procedurale” nello slang dei programmatori!

No Man’s Sky quindi porta a nuovi livelli l’arte della programmazione. Ogni pianeta, animale, pianta è codificata in un algoritmo e quindi “portato in vita” se un giocatore si avvicina, modificato se il giocatore interagisce con questi, ricodificato e “messo via” quando il giocatore si allontana.
A dir poco stupefacente!

Ma non è finita qui.

No Man’s Sky fa abbondante uso di geometria frattale per generare gli stupendi panorami. E ricordiamoci che ne deve generare qualche miliardo, tutti diversi. Alcuni sottomarini, altri montani, altri collinari.

Un frattale è un oggetto che si ripete nella sua forma allo stesso modo su scale diverse, e dunque ingrandendo una qualunque sua parte si ottiene una figura simile all’originale: perfetto per rappresentare su un computer, ad esempio, un albero. O una montagna.

E con un po’ di elaborazione artistica anche una creatura vivente come una medusa o un insetto. Proprio come nel videogioco di cui stiamo parlando!

Inoltre, questi oggetti matematici sono ottenuti con formule incredibilmente semplici e sono altrettanto semplici da realizzare tant’è che con uno smartphone non troppo potente si possono realizzare immagini di incredibile bellezza e complessità e addirittura si possono animare.

Neanche i frattali sono proprio una novità in ambiente videoludico, la LucasArts pubblicò Rescue On Fractalus e  nel 1984 per l’Atari 5200 e Commodore 64, due videogames che utilizzavano una primitiva forma di generazione frattale di terreni.

Primitiva perchè i computer usati all’epoca avevano delle risorse piuttosto limitate ma l’idea era originale e ben progettata.

In conclusione, No Man’s Sky fa abbondantissimo uso di avanzati concetti matematici, tra programmazione e geometria, per portarci in una galassia da esplorare, pianeta per pianeta.

Letteralmente. Il tutto comodamente seduti sulla nostra poltrona preferita, davanti al nostro PC.

Ancora convinti che la Matematica sia poi così noiosa? Scommettiamo di no…

#nomanssky #algoritmiprocedurali #frattali #noidiminerva

FONTI

  • http://www.no-mans-sky.com
  • http://www.makeuseof.com/tag/procedural-generation-took-gaming-industry
  • http://www.makeuseof.com/tag/no-mans-sky-future-procedural-games
  • https://en.wikipedia.org/wiki/Procedural_programming
  • https://en.wikipedia.org/wiki/Fractal

Licenza Creative Commons
Quest’opera è distribuita con Licenza Creative Commons Attribuzione 4.0 Internazionale.

Edgar Degas e la fluorescenza a raggi X

Il ritratto nascosto di Emma Dobigny
Il ritratto nascosto di Emma Dobigny

La scienza e l’arte spesso e volentieri si intrecciano in collaborazioni stupefacenti ma l’annuncio online del 4 Agosto 2016 è di quelli che sconfinano felicemente nella fantascienza!

David Thurrowgood e il suo team ha lavorato sul quadro di Edgar Degas “Portrait de Femme” che storicamente era famoso per nascondere un altro ritratto.

Utilizzando un acceleratore di particelle, il team di Thurrowgood ha scansionato il quadro con un “pennello” di fotoni ad alta energia (i raggi X sono una forma di radiazione elettromagnetica con energia superiore rispetto a quella che noi possiamo percepire con i nostri occhi: la luce).

Questo pennello ha “spintonato” gli elettroni degli atomi del dipinto nascosto spostandoli su orbitali più esterni obbligandoli ad emettere altri fotoni ad energie specifiche, quantificabili e rilevabili.

Ogni sostanza chimica usata nei pigmenti, infatti, brilla ad una certa frequenza se sollecitata dal pennello fotonico dell’acceleratore.

Queste luci, analizzate e poi ricomposte insieme da un computer, sono quelle che hanno rivelato finalmente nella sua interezza, il dipinto nascosto che si è rivelato ruotato di 180° rispetto al secondo ritratto.

Riassunto così sembra che il lavoro fatto sia stato semplice, in realtà è stato piuttosto complesso e delicato ma il risultato ne è valsa la pena.

Tutto il processo di ricostruzione ha impiegato 33 ore ed ha prodotto un rendering di 31,6 megapixels.

Un’altra raffinata tecnica di colorazione applicata all’immagine digitale così ottenuta ha permesso di restituirci quello che più probabilmente poteva essere stato il lavoro originale di Degas.

Una perfetta fusione di arte, scienza e bellezza!

‪FONTE
Thurrowgood, D. et al. A Hidden Portrait by Edgar Degas. Sci. Rep. 6, 29594; doi: 10.1038/srep29594 (2016).

QC Bot

Negli anni ’90 il JPL della NASA finanzia un laboratorio di intelligenza artificiale (AI Lab) al Massachusetts Institute of Technology, chiedendo agli studenti di realizzare la tecnologia per un rover con autonomia di movimento e capacità di acquisire obiettivi. Tra questi c’è Daniel Theobald, che realizza il sistema di Rocky 7, il primo prototipo di mini-rover che venne poi testato per la prima volta nel 1996 e preparò la strada per i rover successivi, dal Sojourner a Spirit e Opportunity.

Quegli studenti del MIT fondarono poi nel 1999 la Vecna Techonologies, l’azienda che commercializza oggi il QC Bot, il robot che vedete in foto e che racchiude tutta l’esperienza acquisita da quel gruppo. Secondo Theobald, il QC Bot è un rover marziano dentro un ospedale: può essere usato per qualsiasi compito, come portare i farmaci ai pazienti o accompagnarli alle visite specialistiche, portare via lavanderia sporca e rifiuti sanitari o consegnare le vivande, ma anche registrare i segni vitali via wireless una volta al letto del paziente e inviarli in tempo reale ad un tablet o uno smartphone utilizzato dai medici. Gli infermieri possono usare il lettore di codici a barre per registrare i farmaci e tenere sempre sotto controllo interazioni e scadenze, oppure utilizzare lo schermo touch per videochiamare un sanitario in un altro reparto. Il tutto mentre si muove autonomamente nel difficile ambiente ospedaliero, evitando ostacoli grazie al sistema di telecamere stereoscopiche disposte sul suo perimetro. E adesso la Vecna è di nuovo al lavoro assieme alla NASA, per realizzare un sistema che monitori i parametri vitali e le performance degli astronauti.

Image Credits: Vecna Technologies
Source: https://spinoff.nasa.gov/Spinoff2012/hm_3.html

Articolo originale di Massimiliano Bellisario dal gruppo Facebook “Chi ha paura del buio“?