Astrofotografia - Capitolo 3: L'Elaborazione delle immagini
Inviato: giovedì 8 settembre 2022, 18:47
Entriamo nella parte più complessa e soddisfacente dell'astrofotografia. Qui si vedono i risultati della fatica e delle ore di sonno perse.
Per tutta l'elaborazione normalmente mi avvalgo di Pixinsight (software specialistico creato appositamente per l'elaborazione delle immagini astronomiche) e del più comune Photoshop. Entrambi i software necessitano di licenza, se dovessi risparmiare farei comunque in modo di poter usare Pixinsight, fondamentale per il lavoro sporco
0) il PreProcessing
Dobbiamo iniziare con il calibrare le immagini ottenute dalla sessione (o da sessioni multiple) notturna. Successivamente queste dovranno essere allineate (puntando a occhio è facile sbagliarsi di qualche pixel nell'inquadratura) e integrate. Per far capire l'importanza di questa parte userò come esempio le immagini della nebulosa Calamaro riprese durante la scorsa settimana in Toscana in 3 notti consecutive (totale 21h di riprese)
Dopo ben mezz'ora di esposizione, il singolo scatto si presenta in formato grezzo non compresso e certamente totalmente sottoesposto. Questa si chiama in gergo "FASE LINEARE" poiché non è stato alterato il rapporto di luminosità tra parti della foto (non è stato compresso l'istogramma illuminando i mezzitoni e clippando le ombre).
Pixinsight permette di applicare questa compressione di istogramma, che gli inglesi chiamano "stretch" (si sa che gli inglesi fanno sempre tutto al contrario...), in modo da poter lavorare la foto anche senza alterare il senso scientifico dell'immagine, per quanto possa averne. La calibrazione dei 42 scatti ripresi nelle 3 nottate richiede quasi quattro minuti, ma ci restituirà immagini molto più pulite e lavorabili. Come si può vedere, della nebulosa si può appena intuire la presenza al centro dell'immagine. A seguire, si sceglie lo scatto che meglio ha centrato l'inquadratura desiderata e gli si allineano tutti gli altri (gli scatti fatti dopo il salto del meridiano saranno ruotati di 180° e quelli della seconda e terza notte potrebbero essere decentrati leggermente) e finalmente arriviamo a poter fare l'integrazione vera e propria. L'allineamento è un'operazione più complicata, basata sul riconoscimento delle stelle che si trovano nella foto e che spesso superano le migliaia. Abbiamo anche chiesto al software di analizzare la distorsione prodotta dall'obiettivo e correggerla. Il processo per allineare 42 immagini richiede quasi 18 minuti. Nel passaggio di integrazione avvengono 2 operazioni ben distinte ed estremamente importanti: i 42 scatti vengono analizzati pixel per pixel e viene creata una nuova immagine che è la media delle 42 (ogni pixel avrà il valore medio dei 42 valori rilevati per quel pixel) e verranno considerati non validi quei valori che si discostano troppo dalla media. Questa operazione, chiamata "Pixel Rejection", è utilissima per salvare immagini rovinate dal passaggio di un aereo p di un satellite che facendo la sola media continuerebbero a vedersi semplicemente attenuate. La media matematica permette invece di venire a capo del rumore (imprecisione di lettura dei vari pixel del sensore, inevitabile dal momento che la luce è un fenomeno quantistico).
Prendendo ad esempio una stringa di valori (inventati) per il singolo come 141,143,145,144,144,1865,160,147,140,138,148,144 avremo che la media matematica è 288 (innalzata notevolmente da quel 1865). Il software riconosce che un valore è assolutamente inopportuno e immotivato (sarà passato un aereo) e lo scarta tenendo buoni gli altri 11. Anche il 160 è più alto della media, ma non così tanto da influenzare la media in modo decisivo. La media matematica ora è 144,9 (arrotondata a 145). Facendo questo lavoro su ogni pixel, si finirà per uniformare bene tutta l'immagine, togliendo quella brutta grana visibile negli scatti singoli. Per migliorare ulteriormente la riuscita della foto, il software analizza il rapporto segnale/rumore e fa una media pesata in base a quello (toglierà valore agli scatti più "brutti", magari rovinati da un po' di foschia, da una nuvoletta o leggermente mossi per una raffica di vento, per dare più peso a quelli usciti meglio). Integrazione e Pixel Rejection richiedono poco meno di 6 minuti.
Ecco il singolo scatto comparato con il "master_light" appena uscito dall'integrazione e il motivo per spendere ore e ore a fare foto di notte. Visto che in questa nuova immagine il rapporto segnale/rumore è molto molto minore, possiamo chiedere uno stretch più deciso e ottenere questo Il Master Light è la foto che andremo a elaborare. Per ottenere un'immagine a colori, come detto già nel Capitolo 2, è necessario avere almeno 2 Master Light ottenuti con 2 filtri diversi per assegnare diverse immagini ai canali RGB, solo così sarà possibile "mappare" i colori, ovvero capire quali zone saranno più rosse, quali blu, ecc.
Per la parte di elaborazione vera e propria dell'immagine, non sono riuscito a riprendere il canale H-Alfa nella zona del Calamaro (mannaggia al maltempo!), quindi tornerò ai dati della Crescent Nebula ripresa nella sessione fotografica precedentemente descritta. In realtà, in quella sessione avevo ripreso con il solo filtro OIII, da cui deriva un solo Master Light; le riprese con il filtro H-Alfa risalgono a una nottata identica del 2019. Ecco i due Master Light pronti per iniziare. 1) La Fase Lineare
Per tutta la prima parte dell'elaborazione ci manterremo in fase lineare avvalendoci dello stretch a video. Lo stretch vero e proprio verrà fatto alla fine di questa fase per poter mantenere i dati nella loro migliore versione non compressa più a lungo possibile. Molte operazioni riescono meglio in questa fase che dopo lo stretch proprio perché i dati non sono compressi e contengono una maggiore gamma di informazioni, dando alla correzione un aspetto più sfumato e meno grossolano (è lo stesso concetto di post produrre una foto diurna partendo da RAW o JPG).
Normalmente la prima operazione dovrebbe essere quella di rimuovere i gradienti luminosi presenti nell'immagine (dovuti all'inquinamento luminoso o alla presenza della Luna Piena). Prendo un esempio dal web della Nebulosa Pellicano fotografata in OIII con Luna piena particolarmente alta che ha generato un'illuminazione di tutta la parte superiore destra della foto. Lo strumento che permette di correggere questo genere di gradienti chiede di apporre un segnalino sulle zone di fondo cielo visibili nella foto (zone non interessate da nebulose o altri oggetti che dovrebbero essere nere) e, supponendo che il cielo di sfondo sia tutto luminoso alla stessa maniera, calcola la differenza di luminosità nelle varie zone, le sfuma e genera l'immagine "background" (quella più a destra) in cui si vede il problema estrapolato dall'immagine. Chiedendo di sottrarlo all'immagine, genererà anche una versione più pulita e corretta della foto. Purtroppo i filtro OIII è particolarmente sensibile alla presenza della Luna, visto che la nostra atmosfera è costituita al 21% da Ossigeno. La rifrazione della luce lunare ad opera dell'atmosfera assume anche il colore dell'ossigeno che non sarà scartato dal filtro, ma preso per segnale buono. Questa immagine rappresenta un caso limite con un gradiente perfettamente lineare e unico (probabilmente la foto è stata fatta in zone di cielo pulito dove la Luna era l'unica fonte di problemi). In questi casi la rimozione dei gradienti funziona in modo eccellente e ci si può permettere il lusso di ignorare il problema Luna, sapendo che la correzione sarà ottima. Normalmente ci sono altre fonti di problemi: il vicino che accende la luce per uscire sul balcone, la luce delle città che si alza dall'orizzonte (Milano illumina in modo impossibilitante il mio orizzonte Sud-Est fino ai 35-40° di altezza!), un lampione che influisce solo prima del salto del meridiano e un altro che dà fastidio in altro modo solo dopo il salto... La soluzione migliore è evitare di complicarsi la vita: nelle 2 settimane in cui la Luna è illuminata più del 50% non si fanno le foto e i filtri a banda stretta devono essere quelli più stretti che possiamo permetterci di acquistare, così da evitare il più possibile di avere gradienti. I due master light H e O che vedete qui sopra sono puliti nonostante siano stati ripresi dal cielo molto inquinato di casa.
La cosa più evidente che si nota è che in O ci sono molte più stelle rispetto ad H, ma non è realmente così. Le stelle sono le stesse, avendo fotografato la stessa porzione di cielo, solo che in O sono tutte più grandi. Combinare così le immagini significa che tutte le stelle di H più piccole verrebbero completamente coperte e colorate del colore che decideremo di assegnare a O. Procediamo quindi alla riduzione della dimensione delle stelle.
La prima cosa da fare è una maschera per applicare l'operazione solo alle stelle e non a tutta l'immagine. Con StarMask si ottiene questo. Ora, con Morphological Transformation, scegliamo di "erodere" le zone interessate ottenendo questo effetto
Per tutta l'elaborazione normalmente mi avvalgo di Pixinsight (software specialistico creato appositamente per l'elaborazione delle immagini astronomiche) e del più comune Photoshop. Entrambi i software necessitano di licenza, se dovessi risparmiare farei comunque in modo di poter usare Pixinsight, fondamentale per il lavoro sporco
0) il PreProcessing
Dobbiamo iniziare con il calibrare le immagini ottenute dalla sessione (o da sessioni multiple) notturna. Successivamente queste dovranno essere allineate (puntando a occhio è facile sbagliarsi di qualche pixel nell'inquadratura) e integrate. Per far capire l'importanza di questa parte userò come esempio le immagini della nebulosa Calamaro riprese durante la scorsa settimana in Toscana in 3 notti consecutive (totale 21h di riprese)
Dopo ben mezz'ora di esposizione, il singolo scatto si presenta in formato grezzo non compresso e certamente totalmente sottoesposto. Questa si chiama in gergo "FASE LINEARE" poiché non è stato alterato il rapporto di luminosità tra parti della foto (non è stato compresso l'istogramma illuminando i mezzitoni e clippando le ombre).
Pixinsight permette di applicare questa compressione di istogramma, che gli inglesi chiamano "stretch" (si sa che gli inglesi fanno sempre tutto al contrario...), in modo da poter lavorare la foto anche senza alterare il senso scientifico dell'immagine, per quanto possa averne. La calibrazione dei 42 scatti ripresi nelle 3 nottate richiede quasi quattro minuti, ma ci restituirà immagini molto più pulite e lavorabili. Come si può vedere, della nebulosa si può appena intuire la presenza al centro dell'immagine. A seguire, si sceglie lo scatto che meglio ha centrato l'inquadratura desiderata e gli si allineano tutti gli altri (gli scatti fatti dopo il salto del meridiano saranno ruotati di 180° e quelli della seconda e terza notte potrebbero essere decentrati leggermente) e finalmente arriviamo a poter fare l'integrazione vera e propria. L'allineamento è un'operazione più complicata, basata sul riconoscimento delle stelle che si trovano nella foto e che spesso superano le migliaia. Abbiamo anche chiesto al software di analizzare la distorsione prodotta dall'obiettivo e correggerla. Il processo per allineare 42 immagini richiede quasi 18 minuti. Nel passaggio di integrazione avvengono 2 operazioni ben distinte ed estremamente importanti: i 42 scatti vengono analizzati pixel per pixel e viene creata una nuova immagine che è la media delle 42 (ogni pixel avrà il valore medio dei 42 valori rilevati per quel pixel) e verranno considerati non validi quei valori che si discostano troppo dalla media. Questa operazione, chiamata "Pixel Rejection", è utilissima per salvare immagini rovinate dal passaggio di un aereo p di un satellite che facendo la sola media continuerebbero a vedersi semplicemente attenuate. La media matematica permette invece di venire a capo del rumore (imprecisione di lettura dei vari pixel del sensore, inevitabile dal momento che la luce è un fenomeno quantistico).
Prendendo ad esempio una stringa di valori (inventati) per il singolo come 141,143,145,144,144,1865,160,147,140,138,148,144 avremo che la media matematica è 288 (innalzata notevolmente da quel 1865). Il software riconosce che un valore è assolutamente inopportuno e immotivato (sarà passato un aereo) e lo scarta tenendo buoni gli altri 11. Anche il 160 è più alto della media, ma non così tanto da influenzare la media in modo decisivo. La media matematica ora è 144,9 (arrotondata a 145). Facendo questo lavoro su ogni pixel, si finirà per uniformare bene tutta l'immagine, togliendo quella brutta grana visibile negli scatti singoli. Per migliorare ulteriormente la riuscita della foto, il software analizza il rapporto segnale/rumore e fa una media pesata in base a quello (toglierà valore agli scatti più "brutti", magari rovinati da un po' di foschia, da una nuvoletta o leggermente mossi per una raffica di vento, per dare più peso a quelli usciti meglio). Integrazione e Pixel Rejection richiedono poco meno di 6 minuti.
Ecco il singolo scatto comparato con il "master_light" appena uscito dall'integrazione e il motivo per spendere ore e ore a fare foto di notte. Visto che in questa nuova immagine il rapporto segnale/rumore è molto molto minore, possiamo chiedere uno stretch più deciso e ottenere questo Il Master Light è la foto che andremo a elaborare. Per ottenere un'immagine a colori, come detto già nel Capitolo 2, è necessario avere almeno 2 Master Light ottenuti con 2 filtri diversi per assegnare diverse immagini ai canali RGB, solo così sarà possibile "mappare" i colori, ovvero capire quali zone saranno più rosse, quali blu, ecc.
Per la parte di elaborazione vera e propria dell'immagine, non sono riuscito a riprendere il canale H-Alfa nella zona del Calamaro (mannaggia al maltempo!), quindi tornerò ai dati della Crescent Nebula ripresa nella sessione fotografica precedentemente descritta. In realtà, in quella sessione avevo ripreso con il solo filtro OIII, da cui deriva un solo Master Light; le riprese con il filtro H-Alfa risalgono a una nottata identica del 2019. Ecco i due Master Light pronti per iniziare. 1) La Fase Lineare
Per tutta la prima parte dell'elaborazione ci manterremo in fase lineare avvalendoci dello stretch a video. Lo stretch vero e proprio verrà fatto alla fine di questa fase per poter mantenere i dati nella loro migliore versione non compressa più a lungo possibile. Molte operazioni riescono meglio in questa fase che dopo lo stretch proprio perché i dati non sono compressi e contengono una maggiore gamma di informazioni, dando alla correzione un aspetto più sfumato e meno grossolano (è lo stesso concetto di post produrre una foto diurna partendo da RAW o JPG).
Normalmente la prima operazione dovrebbe essere quella di rimuovere i gradienti luminosi presenti nell'immagine (dovuti all'inquinamento luminoso o alla presenza della Luna Piena). Prendo un esempio dal web della Nebulosa Pellicano fotografata in OIII con Luna piena particolarmente alta che ha generato un'illuminazione di tutta la parte superiore destra della foto. Lo strumento che permette di correggere questo genere di gradienti chiede di apporre un segnalino sulle zone di fondo cielo visibili nella foto (zone non interessate da nebulose o altri oggetti che dovrebbero essere nere) e, supponendo che il cielo di sfondo sia tutto luminoso alla stessa maniera, calcola la differenza di luminosità nelle varie zone, le sfuma e genera l'immagine "background" (quella più a destra) in cui si vede il problema estrapolato dall'immagine. Chiedendo di sottrarlo all'immagine, genererà anche una versione più pulita e corretta della foto. Purtroppo i filtro OIII è particolarmente sensibile alla presenza della Luna, visto che la nostra atmosfera è costituita al 21% da Ossigeno. La rifrazione della luce lunare ad opera dell'atmosfera assume anche il colore dell'ossigeno che non sarà scartato dal filtro, ma preso per segnale buono. Questa immagine rappresenta un caso limite con un gradiente perfettamente lineare e unico (probabilmente la foto è stata fatta in zone di cielo pulito dove la Luna era l'unica fonte di problemi). In questi casi la rimozione dei gradienti funziona in modo eccellente e ci si può permettere il lusso di ignorare il problema Luna, sapendo che la correzione sarà ottima. Normalmente ci sono altre fonti di problemi: il vicino che accende la luce per uscire sul balcone, la luce delle città che si alza dall'orizzonte (Milano illumina in modo impossibilitante il mio orizzonte Sud-Est fino ai 35-40° di altezza!), un lampione che influisce solo prima del salto del meridiano e un altro che dà fastidio in altro modo solo dopo il salto... La soluzione migliore è evitare di complicarsi la vita: nelle 2 settimane in cui la Luna è illuminata più del 50% non si fanno le foto e i filtri a banda stretta devono essere quelli più stretti che possiamo permetterci di acquistare, così da evitare il più possibile di avere gradienti. I due master light H e O che vedete qui sopra sono puliti nonostante siano stati ripresi dal cielo molto inquinato di casa.
La cosa più evidente che si nota è che in O ci sono molte più stelle rispetto ad H, ma non è realmente così. Le stelle sono le stesse, avendo fotografato la stessa porzione di cielo, solo che in O sono tutte più grandi. Combinare così le immagini significa che tutte le stelle di H più piccole verrebbero completamente coperte e colorate del colore che decideremo di assegnare a O. Procediamo quindi alla riduzione della dimensione delle stelle.
La prima cosa da fare è una maschera per applicare l'operazione solo alle stelle e non a tutta l'immagine. Con StarMask si ottiene questo. Ora, con Morphological Transformation, scegliamo di "erodere" le zone interessate ottenendo questo effetto