Astroinformatica – La scienza dei "big data" astronomici e non solo…

Immagine relativa al contenuto Astroinformatica – La scienza dei

Dal 20 al 26 ottobre, a Sorrento, si terrà un convegno organizzato dall'Ateneo federiciano e dell'Unione Astronomica Internazionale. Il convegno avrà per tema la cosiddetta "Astro-Informatica", una nuova disciplina che – da circa un decennio -  si pone al confine tra astrofisica, cosmologia, matematica, scienze statistiche e computer science e che ha per obbiettivo lo sfruttamento scientifico dell'enorme mole di dati prodotti dagli strumenti di ultima generazione.

Non molto tempo fa – e chi scrive se ne ricorda ancora – una notte di osservazione con un grande telescopio produceva al più alcune decine di immagini registrate su lastra fotografica, immagini con cui al termine di una complessa procedura di calibrazione ed analisi, si riuscivano a misurare le proprietà di uno o due oggetti celesti. Tutta una vita di osservazioni poteva essere raccolta in un armadio di lastre fotografiche. Era un modo di lavorare di grande fascino, molto romantico, ma sicuramente poco efficiente.

L'avvento dei nuovi telescopi a grande campo e dei rivelatori digitali (una versione molto perfezionata dei sensori che si trovano nelle telecamere dei telefonini) ha rivoluzionato questo modo di fare. Oggi, una sola notte di osservazione può produrre informazioni di grande accuratezza e qualità per decine o centinaia di migliaia di oggetti; Terabyte di dati che, notte dopo notte, devono essere indicizzati, archiviati, analizzati e interpretati. E' evidente che un siffatto flusso di dati non può essere trattato con tecniche o strumenti software tradizionali e che è necessario far ricorso a strumenti automatici che delegano ai computer la maggior parte del lavoro che in passato era svolto dagli astronomi. Ma questo è solo un aspetto di un problema molto complesso che può essere riassunto in tre concetti chiave. "Interoperabilità dei dati", "survey pancromatiche" e "Time domain".

Le "survey" altro non sono che dei grandi atlanti ottenuti fotografando il cielo con alta risoluzione e attraverso filtri che isolano ben precisi intervalli della radiazione luminosa emessa dagli oggetti celesti. I telescopi terrestri lavorano a lunghezze d'onda corrispondenti alla radiazione visibile e all'infrarosso vicino, mentre i satelliti astronomici osservano il cielo ad altre lunghezze d'onda (raggi gamma, raggi X, ultravioletto, infrarosso lontano). I radiotelescopi, infine, completano la copertura spettrale osservando a varie lunghezze d'onda nel radio. Tutti questi dati sono conservati in archivi digitali che, in genere, si trovano presso i centri che gestiscono gli strumenti.  Le informazioni relative alla luce emessa alle varie lunghezze d'onda da uno stesso oggetto celeste sono dunque distribuite in centri spesso molto lontani l'uno dall'altro. Oggi, chiunque abbia un computer, può accedere con poco più del click di un mouse all'intera conoscenza astronomica attraverso il cosiddetto Osservatorio Astronomico Virtuale o Virtual Observatory. Il VO è un progetto che ha visto 27 nazioni e oltre 500 scienziati   spendersi per oltre un decennio per rendere i dati di tutti gli archivi astronomici omogenei ed "interoperabili".

E' nato così il concetto di "survey pancromatica": una visione d'assieme del cielo dove lunghezze d'onda diverse e radiazioni emesse da processi fisici molto diversi possono essere fuse a formare un quadro unico e molto complesso.

I nuovi strumenti di osservazione permettono di operare una "survey" del cielo accessibile da una certa latitudine in tempi relativamente brevi e, quindi, ogni oggetto può essere osservato alle varie lunghezze d'onda più e più volte in epoche diverse. Si ha quindi per la prima volta la possibilità di studiare l'evoluzione temporale di molti fenomeni che fino ad oggi erano poco noti se non addirittura sconosciuti: buchi neri binari, nuclei galattici attivi, pulsar e stelle in condizioni di instabilità. Le survey pancromatiche diventano così "survey sinottiche" che sono al cuore della cosiddetta "time domain astronomy" uno dei settori in più rapida evoluzione dell'intera astrofisica.

Fin qui, tutto sembrerebbe facile. In realtà i problemi da risolvere per estrarre l'informazione contenuta in questi enormi database sono molti e molto complessi e richiedono da un lato l'uso esasperato di tutte le tecnologie informatiche più avanzate, dal calcolo distribuito all'High performance Computing, e dall'altro impongono l'utilizzo di nuovi strumenti software in grado di operare con migliaia di variabili e su centinaia di milioni se non addirittura miliardi di oggetti.

Non a caso, al cuore dell'astroinformatica, ci sono le tecnologie dette di machine learning: algoritmi in grado di emulare il comportamento del cervello umano in alcuni tipi di operazione e di farlo con un'accuratezza e una rapidità che un essere umano non potrebbe mai raggiungere. Questi algoritmi intervengono oggi in tutte le fasi del processo di scoperta: dall'acquisizione alla valutazione della qualità dei dati grezzi, alla loro riduzione e calibrazione, al riconoscimento degli oggetti presenti nelle immagini ed alla loro classificazione, all'estrazione delle informazioni utili, alla visualizzazione di spazi di alta dimensionalità, fino alla verifica dei risultati.

La posta in gioco è alta ed è un gioco che sta cambiando il modo di fare ricerca non solo in astronomia ma anche in altre discipline. Per convincersene basterà un semplice esempio. La stragrande maggioranza delle leggi fisiche, biologiche, etc…. rappresenta relazioni di al più tre parametri indipendenti. Ad esempio la legge dei gas perfetti lega il volume, alla pressione e alla temperatura di un gas; la legge di Hooke lega la deformazione di  un corpo elastico alla forza, etc.

Quest'inconfutabile constatazione potrebbe essere il risultato del fatto che viviamo in un universo molto semplice, ma molto più probabilmente è solo un artefatto del cervello umano che – essendo stato ottimizzato dall'evoluzione a lavorare in un ambiente tridimensionale - non riesce a percepire o a visualizzare correlazioni tra più di tre variabili. I grandi data base dell'astronomia moderna, dove ogni oggetto è rappresentato da centinaia di parametri spesso indipendenti, uniti alla capacità di astrazione della matematica e alla potenza di calcolo delle moderne infrastrutture informatiche offrono per la prima volta la possibilità di andare oltre i limiti della tradizionale conoscenza umana.

Di queste cose e di molte altre si parlerà a Sorrento, dove per alcuni giorni si riuniranno i fondatori della nuova disciplina per fare il punto sullo stato attuale delle cose e per pianificare alcuni degli sviluppi futuri. Tra i pionieri di questo settore c'è anche un gruppo di ricercatori del Dipartimento di Fisica Ettore Pancini e dell'Osservatorio Astronomico di Capodimonte dell'INAF che sin dal 2001 hanno iniziato a occuparsi di big data astronomici. Ed è per questo motivo che l'Unione Astronomica Internazionale ha deciso di organizzare a Napoli il suo primo convegno di sempre sull'Astroinformatica.

Giuseppe Longo – Dipartimento di Fisica Ettore Pancini
Massimo Brescia – INAF Osservatorio Astronomico di Capodimonte


Redazione

c/o COINOR: redazionenews@unina.it