Astronomia

Imaging fortunato con Celestron 14: questo risultato è ragionevole?

Imaging fortunato con Celestron 14: questo risultato è ragionevole?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Ho tentato di fare alcune fortunate immagini di Giove usando un'installazione permanente (Celestron $14$" SCT + Paramount ME II) e Nikon D5600 collegati direttamente a un oculare Baader Hyperion 8-24mm (senza filtro). Le condizioni atmosferiche non erano ideali ($65$% umidità, $2$ m/s), il telescopio era adeguatamente acclimatato prima dell'uso e Giove era intorno $17^{circ}$ elevazione durante l'imaging.

Dopo l'elaborazione $3600$ frame (da 1 minuto di video1 a $60$ fps) con Autostakkert 3 e poi allineando i canali RGB e ricomponendo ho ottenuto questi:

Sinistra (o in alto se lo schermo è piccolo) sta usando $20$% dello stack, a destra (o in basso) sta usando $50$%. Poiché questa è la mia prima incursione nell'imaging planetario, la mia domanda è: i miei risultati sono ragionevoli data la configurazione utilizzata e le condizioni atmosferiche descritte?2

Lo sto chiedendo perché ho visto risultati molto migliori da persone che usano telescopi più piccoli. Penso che la discrepanza sia il risultato di uno (o più) dei seguenti:

  1. Qualcosa non va con l'attrezzatura che ho usato.
  2. Sto usando l'attrezzatura sbagliata.
  3. Non sto elaborando correttamente le immagini.
  4. Questo è il meglio che l'attrezzatura potrebbe fare in quelle condizioni.
  5. Ho fatto qualcosa di sbagliato nella mia configurazione o nell'imaging.

e sto cercando di escludere il numero 1.


Ecco un singolo frame non elaborato di riferimento:


Aggiornare

Ho acquistato una maschera Bahtinov per escludere la messa a fuoco come problema, ecco un'esposizione di Manubrij (Omnicron Sagittarii) con la maschera:

Al momento dell'acquisizione delle immagini, la separazione angolare tra Giove e questa stella era inferiore a $6^{circ}$. Le condizioni erano molto migliori questa volta, l'umidità era $38$%, i venti erano inferiori a $1$ SM. Il telescopio è stato acclimatato per circa 2 ore prima dell'uso.

Di nuovo usando $3600$ cornici af $60$ fps ho questi:

Sinistra (o in alto) è con $10$% dello stack, a destra (o in basso) è con $20$%. Questo mi sembra leggermente migliore, ma non sono ancora sicuro che sia quello che dovrei aspettarmi dall'attrezzatura.


1 Si noti che il video nel collegamento è stato compresso tramite ffmpeg utilizzando il codec H.265 con CRF of $25$.

2 Questo risultato è solo un esempio - l'ho fatto $30$ minuti di imaging in $3$ segmenti minuti nel corso di diverse ore, applicando lo stesso processo ad altri insiemi di esposizioni ha prodotto risultati simili.



Non credo che sia uno dei punti che suggerisci. Il cannocchiale e la fotocamera vanno bene per quello che stai facendo.
Direi che la messa a fuoco è leggermente spostata. Ci vuole un grande sforzo per farlo a posto


Voglio abbinare la scala dell'immagine con la mia fotocamera DSLR o CCD alla lunghezza focale del mio cannocchiale. Perché dovrei farlo? Come posso aumentare o ridurre la lunghezza focale o il rapporto f/per farlo?

L'elemento di imaging di base della fotocamera elettronica di oggi è il pixel. Può essere pensato come la singola cella o unità sul chip (elemento dell'immagine) che cattura effettivamente la luce dal cielo. L'analogia con l'imaging su pellicola è la granulometria dell'emulsione fotografica.

Le dimensioni dei pixel (o più precisamente, la spaziatura sul chip) vanno da circa 2 micron a circa 30 micron per le fotocamere utilizzate per l'astroimaging.

In una fotocamera collegata a un telescopio, questi piccoli pixel si trovano sul piano focale del telescopio, proprio come la grana della pellicola è importante per la risoluzione dei piccoli dettagli, così è la dimensione dei pixel per le fotocamere digitali.

L'obiettivo è quello di abbinare questa dimensione con il potere risolutivo del tuo telescopio. Ciò produce immagini stellari nitide nelle tue immagini. Non vuoi esplodere vedendo sfocature e schemi di diffrazione, o perdere involontariamente dettagli che potresti immaginare.

Questo concetto è chiamato scala dell'immagine e viene misurato in secondi di arco per pixel.

La risoluzione di un telescopio è maggiore per telescopi con apertura maggiore. Una formula approssimativa di base per la risoluzione consiste nel dividere 4 per l'apertura dell'oscilloscopio in pollici per ottenere la risoluzione in secondi d'arco. Ad esempio, un cannocchiale da 11 pollici avrebbe 4/11 o una risoluzione di 0,36 pollici o circa 4/10 secondi d'arco. Questo angolo è la dimensione del disco di diffrazione prodotto dall'ottica dell'oscilloscopio.

Tenendo conto sia di questo cosiddetto limite di diffrazione che, cosa più importante, degli effetti dall'atmosfera, ci sono limiti pratici che significano che non catturerai immagini alla risoluzione della formula sopra. Invece, immaginerai il disco vedente o la luce sfocata. Nelle notti medie il tuo limite di risoluzione potrebbe essere di 5 secondi d'arco o 5”. Nelle notti buone il limite può essere di 2 pollici per gli oggetti del cielo profondo.

La dimensione di una data risoluzione angolare in micron sul piano focale dipende dalla lunghezza focale dell'oscilloscopio. Questa dimensione del disco è l'angolo in secondi d'arco per la lunghezza focale del telescopio in millimetri diviso per 206. Ad esempio, un disco di visione di 2 secondi d'arco ripreso con un telescopio Schmidt-Cassegrain C-8 con una lunghezza focale di 2032 mm è 20 micron di diametro (2x2032 = 4064 diviso per 206 è 20).

Se la risoluzione di un oscilloscopio in micron è molto più grande della dimensione dei pixel, la capacità di risoluzione della fotocamera è sprecata. Sta solo registrando la sfocatura visibile, non i dettagli aggiuntivi nell'oggetto. Se la risoluzione dell'oscilloscopio è molto più piccola della dimensione dei pixel, il potere di risoluzione dell'oscilloscopio viene sprecato. Sebbene queste situazioni abbiano il loro posto nel mondo reale dell'astroimaging, spesso ti impegnerai per una corrispondenza vicina nella tua configurazione. Calcola la scala dell'immagine con la fotocamera e la configurazione ottica di base. Quindi cambialo per adattare la scala dell'immagine alla tua attività aggiungendo obiettivi di proiezione per aumentare o riduttori di focale o persino obiettivi Fastar per ridurre la lunghezza focale effettiva del tuo cannocchiale.

Per abbinare i numeri, calcola prima la scala dell'immagine per la tua configurazione dividendo la dimensione dei pixel della tua fotocamera in micron per l'apertura del tuo cannocchiale in millimetri, quindi moltiplicando il risultato per 206. Esempio: una fotocamera ha pixel da 6,4 micron e viene utilizzata con un C-8, lunghezza focale 2032 mm. 6,4/2032 = 0,00315. 206 x 0,00315 = 0,65 secondi d'arco per pixel.

Questa scala dell'immagine di circa 0,5" per pixel è una corrispondenza ragionevole per l'imaging planetario, in cui le brevi esposizioni possono essere impilate nel tentativo di "battere" il seeing. Se lo si desidera, utilizzare le tecniche di proiezione dell'obiettivo negativo (Barlow) o dell'oculare per aumentare ulteriormente la scala dell'immagine.

Per il lavoro nel cielo profondo con dischi di visione più grandi, i pixel più piccoli della fotocamera potrebbero essere utilizzati meglio per un campo visivo più ampio piuttosto che aumentare la sfocatura. Per fare ciò, cambia il rapporto f/del tuo cannocchiale utilizzando un riduttore di focale, una lente positiva avvitata sulle filettature del deflettore che accorcerà la lunghezza focale e ridurrà il numero f/ del cannocchiale.

L'utilizzo di un riduttore f/6.3 come Celestron # 94175 riduce la lunghezza focale dell'oscilloscopio di esempio a soli 1280 mm, modificando la scala dell'immagine in un più utile 1" per pixel e aumentando la copertura del cielo del 250%.

L'uso di un obiettivo Fastar a f/2 consente di ottenere una scala dell'immagine ancora più piccola di 3,3" per pixel e aumenta la copertura del cielo di 25 volte.


Consigli per EAA planetarie

Ieri sera, ho provato a realizzare alcune immagini EAA di Giove usando il mio Celestron Evolution 8 dotato di Revolution Imager (LN-300). Questa è probabilmente una Vecchia Notizia per i più esperti tra di voi, ma questo è quello che ho osservato:

1. Giove è così luminoso che il controllo automatico dell'esposizione non sa cosa fare.

2. Quindi, non ho chiesto alla fotocamera di eseguire elaborazioni fantasiose.

3. Ho visto i miei risultati migliori impostando manualmente i tempi di esposizione di 1/125, 1/250 (il punto debole?) e 1/500.

4. E, naturalmente, ho rimosso il riduttore 0,5X dal treno ottico.

5. L'immagine sembra più simile a Giove quando dico al monitor che il segnale in ingresso è 4:3 invece di 16:9.

Allora, ho due domande. Innanzitutto, qual è il modo migliore per ottenere una buona fedeltà cromatica dall'LN-300? Secondo, mi sto preparando a provare il frame grabber. Per le immagini planetarie, starei meglio con Registax o SharpCap? (Non ho esperienza con nessuno dei due pacchetti.)

#2 Dwight J

Non ho una fotocamera Revolution ma posso dire che il tempo di esposizione deve essere davvero breve. L'uso di una lente di Barlow può aiutare. Registax serve per impilare file AVI o simili creati e salvati sul tuo computer da un altro programma. Non ha il controllo della fotocamera. Se Sharpcap può controllare la fotocamera, funzionerebbe bene come qualsiasi altra. Una volta impostato il tempo di esposizione, è possibile eseguire il bilanciamento del colore con i dispositivi di scorrimento in qualsiasi software in uso. Avere un'immagine troppo luminosa lo rende troppo difficile. Non fare affidamento sull'auto nulla.

#3 jimthompson

- Hai un piccolo numero di pixel con cui lavorare, quindi fai del tuo meglio per riempirli tutti con l'oggetto, ad es. usa una Barlow come suggerisce Dwight. In questo modo le caratteristiche saranno abbastanza grandi da poter essere risolte con la dimensione dei pixel della tua fotocamera.

- Per ottenere un buon bilanciamento del colore, è meglio utilizzare l'impostazione ATW, tuttavia sarà necessario disporre di un filtro IR cut per bloccare tutti gli infrarossi rilevati dalla fotocamera. Senza il filtro IR cut la tua immagine apparirà arancione e il bilanciamento del bianco sulla fotocamera sarà più difficile.

- L'uso di un filtro IR cut aiuta anche ad affinare la tua attenzione sui pianeti o sulla Luna, quindi in generale è bene averne uno quando si fanno gli oggetti del sistema solare.

- Come ha detto Dwight, vuoi usare il tempo di esposizione più basso possibile per evitare la sfocatura che deriva dalle tue condizioni di visione (es. atmosfera che si muove intorno)

- Gioca con l'impostazione Gamma sulla tua fotocamera. Un valore gamma più basso rende l'intera scena più luminosa, rendendo le lune galileiane più facili da vedere ma riducendo il contrasto complessivo delle caratteristiche della superficie di Giove. Un valore gamma più alto scurirà la scena e migliorerà il contrasto delle caratteristiche della superficie di Giove. Prova diverse impostazioni per trovare quello che ti piace.

- Gioca con le impostazioni di contrasto e luminosità sul tuo monitor o dispositivo di acquisizione video. La maggior parte dei dettagli deriva dall'impostazione del contrasto massimo, ma ciò può anche comportare parti sature dell'immagine. Questo può essere compensato in una certa misura riducendo la luminosità, ma a sua volta questo rende le parti più scure della scena più difficili da vedere. Questo è più un problema sulla Luna lungo il terminatore dove la luminosità varia molto, di solito non è un problema per Giove. Gioca con l'equilibrio tra le impostazioni di contrasto e luminosità per ottenere ciò che ti piace.

- Se il tuo piano è salvare le immagini per elaborarle in seguito in Registax, dovrai regolare le tue impostazioni in modo che l'immagine sia un po' piatta, ad es. forse non tanto contrasto come vorresti visivamente. Inoltre, assicurati che non vi sia saturazione all'estremità nera o bianca dell'istogramma. Ciò assicurerà che tutti i dati vengano raccolti e ti darà uno stack migliore su cui puoi regolare i livelli in seguito.

- In genere registro da 1000 a 3000 fotogrammi di video, allineando e impilando il 20% circa. Qualsiasi meno frame di questo nel tuo stack (

200) e devi fare i conti con il rumore nell'immagine quando affili con le wavelet.

#4 t_image

Domanda per chiunque voglia contribuire a contribuire:

È ciò che è necessario con l'imaging planetario?

(in contrasto con lo stacking DSO live)

abbastanza diverso che a questo punto nel software/tecnologia,

che planetaria non si presta tanto a EAA

per quanto riguarda il grande aumento di qualità ottenuto dai DSO live stacking?

DSO: i DSO di stacking live ti consentono di risolvere qualcosa che non era presente nei singoli frame,

aumentare i dettagli a causa di più luce.

la distorsione atmosferica viene quindi mediata man mano che la lunga "esposizione" si sviluppa attraverso lo stacking dal vivo

Per il planetario: l'obiettivo principale è eliminare la distorsione atmosferica, poiché le informazioni sull'oggetto planetario luminoso sono già arrivate (non è necessario attendere che si sviluppi)--

seguono altri problemi di riduzione dell'aberrazione cromatica, tecniche di super risoluzione, ecc.

(se solo fosse disponibile.)

O semplicemente non ci sono molte persone planetarie qui che fanno EAA e mi manca qualcosa?

#5 Robrj

Domanda per chiunque voglia contribuire a contribuire:

È ciò che è necessario con l'imaging planetario?

(in contrasto con lo stacking DSO live)

abbastanza diverso che a questo punto nel software/tecnologia,

che planetaria non si presta tanto a EAA

per quanto riguarda il grande aumento di qualità ottenuto dai DSO live stacking?

Me lo stavo chiedendo anch'io. Come si fa l'EAA sugli oggetti del sistema solare? È anche possibile ottenere una vista migliore di quella che si può vedere nell'oculare (che è l'intero scopo dell'EAA in primo luogo). Il metodo normale per ottenere un'ottima immagine utilizzando un AVI funziona perché hai già tutti i dati e consente all'utente di scegliere il frame di riferimento e quindi impilarlo utilizzando quel frame, mentre con EAA è principalmente dal software: allineare le stelle e impilare . Finché ci sono abbastanza punti di riferimento, uno potrebbe impilare. Ma con i pianeti, sono così luminosi che dovresti esporli eccessivamente per vedere le stelle in modo che si accumulino. Ad un'esposizione in cui il pianeta sembra buono, non ci sono stelle visibili da registrare.

Forse c'è un piccolo punto di esposizione con Giove, dove si potrebbe ingannare il software di impilamento cercando di usare le sue lune come stelle?

#6 Barry Fernelius

Grazie per tutti i preziosi e pratici suggerimenti. Li proverò questo fine settimana, tempo permettendo.

Devo ammettere che la vista di Giove attraverso l'oculare è stata migliore dei miei primi tentativi di usare l'EAA. Sto ancora cercando di utilizzare le tecniche EAA per un paio di motivi. Innanzitutto, con una buona elaborazione delle immagini, alcune persone hanno creato delle immagini molto belle di Giove. (Ho allegato l'immagine SharpCap di Gege Sirvan come esempio.)

In secondo luogo, in una situazione di sensibilizzazione, EAA mi consente di mostrare l'immagine a un gruppo di persone più rapidamente di quanto sia possibile lasciando che ogni persona guardi attraverso l'oculare.

Modificato da Barry Fernelius, 22 aprile 2016 - 13:22.

#7 Kaikul

Jim e Dwight,

Grazie per tutti i preziosi e pratici suggerimenti. Li proverò questo fine settimana, tempo permettendo.

Ehi Barry, per favore riferisci i tuoi risultati. Anche le immagini sarebbero fantastiche.

#8 Dwight J

Domanda per chiunque voglia contribuire a contribuire:

È ciò che è necessario con l'imaging planetario?

(in contrasto con lo stacking DSO live)

abbastanza diverso che a questo punto nel software/tecnologia,

che planetaria non si presta tanto a EAA

per quanto riguarda il grande aumento di qualità ottenuto dai DSO live stacking?

Me lo stavo chiedendo anch'io. Come si fa l'EAA sugli oggetti del sistema solare? È anche possibile ottenere una vista migliore di quella che si può vedere nell'oculare (che è l'intero scopo dell'EAA in primo luogo). Il metodo normale per ottenere un'ottima immagine utilizzando un AVI funziona perché hai già tutti i dati e consente all'utente di scegliere il frame di riferimento e quindi impilarlo utilizzando quel frame, mentre con EAA è principalmente dal software: allineare le stelle e impilare . Finché ci sono abbastanza punti di riferimento, uno potrebbe impilare. Ma con i pianeti, sono così luminosi che dovresti esporli eccessivamente per vedere le stelle in modo che si accumulino. Ad un'esposizione in cui il pianeta sembra buono, non ci sono stelle visibili da registrare.

Forse c'è un piccolo punto di esposizione con Giove, dove si potrebbe ingannare il software di impilamento cercando di usare le sue lune come stelle?

L'unico software del sistema solare in stile EAA era l'Autostar Suite di Meade che utilizzava le telecamere LPI o DSI. Ho un LPI e con il software puoi farlo selezionare e impilare i migliori frame. Funziona abbastanza bene, ma AFAIK, solo con le fotocamere Meade. Non credo che il software verrà eseguito su qualcosa dopo Win7, ma potrei sbagliarmi lì: uso solo Win7. Il software è gratuito e puoi acquistare un DSI per circa $ 100 e ho visto LPI andare a $ 20.

L'unico altro stile di osservazione EAA che faccio è con una Mallincam EX e la luna. Impilo due immagini per ridurre la scintillazione e funziona davvero bene. In generale, però, l'occhio è migliore quando si osservano gli oggetti del sistema solare. È possibile catturare monumenti dal seeing nitido e l'occhio si accomoda meglio quando il seeing non è così buono. Se il seeing è veramente buono o eccellente, tutto il materiale della fotocamera si stacca e entra in un oculare. Uso anche l'oculare per valutare il seeing per vedere se vale la pena impostare la fotocamera.

#9 jimthompson

Quello che Rob ha chiesto è forse il punto chiave: "È anche possibile ottenere una visione migliore di quella che si vede nell'oculare?" Per molto tempo la risposta a questa domanda è stata no, ma come con DSO EAA le cose sono cambiate molto negli ultimi anni grazie ai progressi della tecnologia della fotocamera. Per come la vedo io ci sono tre caratteristiche principali che influenzano la qualità dell'immagine che può essere presentata da una fotocamera in tempo reale:

Per molto tempo la risoluzione è stata la ragione principale per cui EAA non ha fornito un'esperienza di osservazione paragonabile a un oculare. L'occhio è semplicemente un dispositivo fantastico, in grado di rilevare enormi gamme di dettagli e contrasto. Questa lacuna si sta colmando con le recenti fotocamere CMOS che stanno uscendo (es. ZWO).

Non penseresti che la sensibilità fosse un problema con le fotocamere EAA quando cercavi di osservare gli oggetti del sistema solare poiché sono così luminosi, ma in effetti lo è. Il principale svantaggio di ottenere un'immagine nitida di un oggetto del sistema solare è "vedere", il movimento turbolento della nostra atmosfera che causa distorsioni nella nostra vista. Il vedere è un comportamento variabile nel tempo della nostra atmosfera più lunga è l'esposizione per fotogramma, maggiore sarà la sfocatura dell'immagine che vedrai a causa dell'effetto. Pertanto, è vantaggioso avere una fotocamera il più sensibile possibile in modo che il tempo di esposizione per fotogramma possa essere ridotto al minimo. Anche in questo caso le ultime fotocamere stanno colmando questa lacuna con una sensibilità sempre maggiore.

Infine, il rumore è importante da considerare quando si cerca di acquisire un'immagine dal vivo dettagliata. È possibile applicare molto guadagno per mantenere bassa l'esposizione per fotogramma, ma ciò potrebbe comportare l'introduzione di più rumore casuale nell'immagine. Poiché stai osservando singoli fotogrammi (non stack cumulativi), qualsiasi rumore introdotto oscurerà le caratteristiche e influenzerà la visibilità dei dettagli sottili nel tuo oggetto. È quindi auspicabile una fotocamera a basso rumore. Ancora una volta le nuove telecamere CMOS si stanno facendo avanti per cercare di soddisfare questo requisito.

È interessante notare che queste nuove telecamere ZWO che molti hanno utilizzato per il lavoro DSO sono state sviluppate inizialmente per l'imaging del sistema solare. Le tre caratteristiche sopra descritte avvantaggiano entrambe le applicazioni. Allora, siamo già arrivati? L'osservazione della fotocamera degli oggetti del sistema solare è altrettanto efficace dell'utilizzo di un oculare. direi "tipo". In termini di nitidezza, gamma dinamica e dettaglio visibile direi di no, l'osservazione oculare è ancora migliore. Ma in termini di facilità d'uso, capacità di rimanere comodamente sul bersaglio per lunghi periodi, per un'esperienza di osservazione complessiva, direi che l'osservazione con la telecamera è migliore. Ho un'esperienza molto più soddisfacente seduto comodamente sulla mia sedia con l'atlante da un lato e il diario di bordo dall'altro, esplorando le caratteristiche e discutendo con gli amici di quanto avrei mai potuto fare con un oculare. Quando si aggiunge a questo la capacità di salvare un AVI durante la sessione di osservazione e di elaborarlo successivamente, dando un'immagine che è molto spesso di gran lunga superiore alla vista dell'oculare, l'EAA del sistema solare è sicuramente la mia strada preferita. Questo non tiene nemmeno conto del fatto che l'uso di una fotocamera consente di vedere alcune cose che non vedresti mai con un oculare, ad esempio osservando con un filtro passa alto IR o passa banda UV. Trovo anche che l'uso di una fotocamera con un cannocchiale Halpha possa far emergere dettagli che non puoi vedere con un oculare.


Domanda di astronomia a infrarossi diurna

Ho visto alcuni scatti della luna fatti durante il giorno, ma mi chiedevo se la limitazione fosse principalmente il tentativo di ottenere l'oggetto sul chip. Dal momento che la 462 è una fotocamera IR così eccezionale, ci sarebbe qualche motivo per cui non potresti fare immagini fortunate o persino dso alla luce del giorno?

#2 jfrech14

Il sole emette una tonnellata di infrarossi. La mia ipotesi sull'acquisizione di immagini IR della luna durante il giorno è semplicemente che più luce solare ci fa riflettere dalla luna rispetto a quella che fa direttamente dal sole, rendendo possibile l'acquisizione di immagini IR della luna durante il giorno. Non vedo che sia lo stesso per gli oggetti scuri poiché lo sfondo IR durante il giorno è abbastanza grande. Dovresti avventurarti oltre il punto in cui l'emissione IR del corpo nero dal sole è trascurabile, ma sarebbe molto oltre la sensibilità delle fotocamere a base di silicio e l'assorbimento d'acqua diventa un grosso problema.

Non ci ho pensato molto, quindi sono interessato a vedere i pensieri delle altre persone.

#3 GBass

Grazie per il tuo contributo, è per questo che ho chiesto, fotograficamente rende il cielo più nero della notte, ma se il sole danneggiasse i pianeti, immagino che non funzionerebbe

Il sole emette una tonnellata di infrarossi. La mia ipotesi sull'acquisizione di immagini IR della luna durante il giorno è semplicemente che più luce solare ci fa riflettere dalla luna rispetto a quella che fa direttamente dal sole, rendendo possibile l'acquisizione di immagini IR della luna durante il giorno. Non vedo che sia lo stesso per gli oggetti scuri poiché lo sfondo IR durante il giorno è abbastanza grande. Dovresti avventurarti oltre il punto in cui l'emissione IR del corpo nero dal sole è trascurabile, ma sarebbe molto oltre la sensibilità delle fotocamere a base di silicio e l'assorbimento d'acqua diventa un grosso problema.

Non ci ho pensato molto, quindi sono interessato a vedere i pensieri delle altre persone.


Lucky Imaging Concept per DSO con sistemi veloci per EAA?

Immagino che qualcuno l'abbia già provato, quindi ho pensato di chiedere qui.

È possibile utilizzare la tecnica del tipo di imaging fortunato per superare parte del vincolo del seeing (bassa atmosfera) e ottenere maggiori dettagli con sistemi veloci come il mio RASA 8?

Ad esempio.. ho pubblicato nella sfida mensile di gennaio, che tipo di visualizzazioni posso ottenere per la testa di cavallo e l'uomo che corre..

Adottando i principi dell'imaging fortunato ma utilizzando l'allineamento secondario, potrei:

- definire ciò di cui ho bisogno per ottenere una buona visuale in totale (es.. nel caso sopra, 5 min a 250 gain con 5 secondi di esposizione)

- guarda FHWM e definisci una tolleranza molto più stretta per l'accettazione di un sub

- lascialo scorrere e accumularsi nella stessa durata di 5 minuti

Soprattutto con un buon mini PC sul supporto, è facile elaborare più sub al secondo da una fotocamera di dimensioni medio-grandi. Anche il mio i5 a 2 core lo fa bene senza scuri e flat, quindi un mini PC aggiornato (in arrivo) può farlo facilmente.

Qualcuno ha provato questo tipo di concetto di imaging fortunato sui DSO per ottenere maggiori dettagli per EAA?

#2 Gipht

Quando ho fatto una domanda simile, la risposta è stata che sarebbero stati necessari tempi di imaging più brevi di 5 secondi per beneficiare davvero dei brevi intervalli in cui le condizioni atmosferiche sarebbero state ideali. Il concetto di fotografia a breve esposizione è stato provato molte volte e per me è stato un progetto divertente da provare. Preparati a essere sopraffatto dai dati. La mia esperienza è stata che ha funzionato bene con oggetti più luminosi.

#3 Sanjeev Joshi

Quando ho fatto una domanda simile, la risposta è stata che sarebbero stati necessari tempi di imaging più brevi di 5 secondi per beneficiare davvero dei brevi intervalli in cui le condizioni atmosferiche sarebbero state ideali. Il concetto di fotografia a breve esposizione è stato provato molte volte e per me è stato un progetto divertente da provare. Preparati a essere sopraffatto dai dati. La mia esperienza è stata che ha funzionato bene con oggetti più luminosi.

Sto considerando sub-secondo. i 5 secondi sono semplicemente per capire che posso ottenere un'ottima vista in circa 5 minuti di dati e capire che il guadagno è ragionevole.

Ma come da mia nota sopra, proverei diverse esposizioni al secondo secondo (come 0,3 secondi, 0,7 secondi, ecc.) Per vedere cosa può fare rispetto alle esposizioni di 5 secondi. Provare un oggetto impegnativo con un seeing medio, questo era il pensiero.

Chissà se qualcuno l'ha provato con frazioni di secondo. Che esposizioni hai usato? Posso gestire qualsiasi carico per l'impilamento dal vivo con un ragionevole computer laterale di montaggio. Ho provato a casa, ho bisogno di confermare di notte con i passaggi di allineamento e filtraggio inseriti.

Modificato da SanjeevJoshi, 14 gennaio 2021 - 13:59.

#4 bobzeq25

Sto considerando sub-secondo. i 5 secondi sono semplicemente per capire che posso ottenere un'ottima vista in circa 5 minuti di dati e capire che il guadagno è ragionevole.

Ma come da mia nota sopra, proverei diverse esposizioni al secondo secondo (come 0,3 secondi, 0,7 secondi, ecc.) Per vedere cosa può fare rispetto alle esposizioni di 5 secondi. Provare un oggetto impegnativo con un seeing medio, questo era il pensiero.

Chissà se qualcuno l'ha provato con frazioni di secondo. Che esposizioni hai usato? Posso gestire qualsiasi carico per l'impilamento dal vivo con un ragionevole computer laterale di montaggio. Ho provato a casa, ho bisogno di confermare di notte con i passaggi di allineamento e filtraggio inseriti.

Provalo tu stesso. Sappi solo che, per l'imaging planetario, "imaging fortunato" significa esposizioni di forse 1/100 di secondo. O meno. E anche allora, le persone sparano a centinaia o migliaia di sottomarini e molti sottomarini vengono scartati.

L'immagine fortunata è davvero per pianeti molto luminosi (understatement).

Modificato da bobzeq25, 14 gennaio 2021 - 14:08.

#5 alfatripleplus

Adottando i principi dell'imaging fortunato ma utilizzando l'allineamento secondario, potrei:

- definire ciò di cui ho bisogno per ottenere una buona visuale in totale (es.. nel caso sopra, 5 min a 250 gain con 5 secondi di esposizione)

- passa ai sottotitoli inferiori al secondo

- guarda FHWM e definisci una tolleranza molto più stretta per l'accettazione di un sub

- lascialo scorrere e accumularsi nella stessa durata di 5 minuti

Soprattutto con un buon mini PC sul supporto, è facile elaborare più sub al secondo da una fotocamera di dimensioni medio-grandi. Anche il mio i5 a 2 core lo fa bene senza scuri e flat, quindi un mini PC aggiornato (in arrivo) può farlo facilmente.

Qualcuno ha provato questo tipo di concetto di imaging fortunato sui DSO per ottenere maggiori dettagli per EAA?

Su alcuni bersagli (come il jet M87), alcune persone usano sub abbastanza corti (circa 1 secondo), con un filtro FWHM per cercare di stringere i sub selezionati in uno stack live. Come accennato in precedenza, le sottoesposizioni di circa 1 secondo non sono nello stesso regime di esposizione delle "immagini fortunate" utilizzate nell'imaging planetario (piccole frazioni di secondo), ma ho scoperto che migliora la vista su obiettivi specifici come l'M87 Jet.

#6 Rickster

Penso che tu sia sulla strada giusta. Beh, almeno una traccia interessante.

I disturbi visivi si verificano a un'ampia varietà di lunghezze d'onda con periodi che vanno da minuscole frazioni di secondo a diversi minuti. Le onde più grandi generano i maggiori disturbi. Quindi inizia con le cose più grandi e lavora verso le cose più piccole.

Ho sperimentato con onde nell'intervallo da 1 secondo a 4 minuti. Ad esempio, i miei cieli sono soggetti alle onde di montagna generate mentre l'aria attraversa le cime delle montagne rocciose. Se vivi a valle delle montagne e hai visto motivi a coste tra le nuvole, probabilmente hai guardato le onde delle montagne. Il periodo per queste onde mentre passano sopra la testa è nell'intervallo di diversi minuti. Ho scoperto che AT/DSS è abbastanza efficace per lo screening di queste onde.

Penso che scoprirai che la frequenza di campionamento deve essere una piccola frazione della lunghezza d'onda che stai campionando. Stai esaminando i campioni catturati quando l'indice di rifrazione complessivo della colonna d'aria nel tuo FOV è più o meno lo stesso ogni volta. Ad esempio, se l'onda è sinusoidale, si desidera catturare le parti superiori o inferiori arrotondate e rifiutare tutto il resto. Quindi, catturerai solo parti di ogni onda. (A meno che le parti superiori e inferiori non abbiano lo stesso indice di rifrazione. In tal caso si desidera sia il massimo che il minimo).

I filtri in SC sono un buon punto di partenza. Astrotoaster/Deep Sky Stacker ha un algoritmo più selettivo nella mia esperienza. Ma AT/DSS è lento. Penso che alla fine avrai bisogno di un algoritmo migliore.

Bene, questo è tutto quello che so sull'argomento.

Modificato da Rickster, 14 gennaio 2021 - 20:30.

#7 Sanjeev Joshi

Ho letto un articolo interessante che suggeriva di vedere i limiti che potevano essere classificati in modo semplicistico in "lento" e "veloce". Ero ancora alla ricerca di imparare a vedere la quantificazione in modo più approfondito quando mi sono imbattuto in questo.

Ma l'idea è che il problema del seeing dovuto all'atmosfera più bassa più vicina al suolo è ciò che causa l'instabilità/scuotimento/scintillazione delle stelle, mentre l'effetto dell'atmosfera superiore è di perturbarla per una durata maggiore.

Le esposizioni molto scattate dovrebbero idealmente combattere il tremolio / scintillare e qualche altro algoritmo (specialmente per lo stacking dal vivo) necessario per il prolungato.

Ci giocherò alla prossima occasione.

L'unico apprendimento chiave è stato che sebbene la visione visiva (e la misurazione con varie tecniche) sia diversa da FHWM o simili, per intervalli pratici di interesse (ad es. da 1 a 2 secondi, da 3 a 5 secondi ecc.) - non c'è molto risultato calcolato differenza tra i metodi, poiché la pendenza e l'intersezione forniscono risultati approssimativamente equivalenti per una configurazione tipica.


Uno strumento gratuito per Lucky Imaging

Di: Richard S. Wright Jr. 22 dicembre 2020 0

Ricevi articoli come questo inviati alla tua casella di posta

Dai un'occhiata a questo pacchetto software gratuito per astrofotografia che renderà l'elaborazione delle tue immagini fortunate, in particolare del Sole e della Luna, un gioco da ragazzi.

Anche se non dedico molto tempo all'elaborazione delle immagini in questo blog, questa volta farò un'eccezione. Ho trovato un nuovo fantastico programma per la mia cassetta degli attrezzi quando si tratta di elaborazione di immagini lunari e solari, e penso che potresti provare questo strumento potente e facile da usare per te stesso.

Le viste ad alta risoluzione della Luna o del Sole hanno sempre questa turbolenza (vedere). Ottenere un'immagine nitida da questo richiede una certa finezza.
Richard S. Wright Jr.

Abbiamo già spiegato come l'imaging fortunato comporti la registrazione di video del Sole, della Luna o del pianeta e l'utilizzo di software come RegiStax o AutoStakker per trovare i fotogrammi più nitidi all'interno di quel video. Il software allinea e impila insieme quelle immagini. Quindi, nel passaggio finale, l'immagine viene resa più nitida con wavelet. (L'affilatura deve essere eseguita con cura, poiché il processo ha una fastidiosa tendenza a trasformare il rumore in caratteristiche che in realtà non esistono!)

Un'immagine grezza impilata della Luna (in alto) necessita di un'applicazione di nitidezza e curve di intensità per produrre l'immagine in basso.
Richard S. Wright Jr.

È da un po' che lo uso AutoStakker per elaborare i file video con cui ho catturato SharpCap. Poi passo a RegiStax per l'affilatura e l'uso wavelet Photoshop per eventuali ritocchi finali. Ho scoperto che usare le wavelet è un'arte nera. Padroneggiare i cursori in Registax richiede pratica che devi sperimentare per avere un'idea di come funzionano. Per molte persone che conosco, sono ancora un mistero.

Anni fa, quando facevo parte di un team che scriveva software per il mercato della chirurgia oculare refrattiva, ho imparato a usare le convoluzioni e la deconvoluzione per simulare i difetti ottici e le correzioni nella cornea di un paziente, e ho sempre pensato che queste idee potessero rappresentare un approccio migliore per affinare un'immagine lunare sfocata. Ma non ho mai avuto il tempo di approfondire l'idea da solo.

Lo sviluppatore di software europeo e astronomo dilettante Filip Szczerek sembra aver avuto la stessa intuizione. Ha rilasciato un pacchetto software open-source (come in free, anche con codice sorgente) chiamato Post-processore di immagini (ImPPG).

ImPPG consente la nitidezza in tempo reale di solo una parte dell'immagine, ma può elaborare rapidamente l'intera immagine utilizzando l'hardware grafico 3D del computer.
Richard S. Wright Jr.

ImPPG si applica La deconvoluzione di Lucy-Richardson (questa è una matematica fantasiosa per i segnali 2D) insieme ad altre elaborazioni per rendere più nitide e in altro modo migliorare le immagini. While I can't specifically recommend it for planetary processing, it is effective and easy to use on high-resolution images of the Sun and Moon. I find it to be far easier and more intuitive than using wavelets in fact.

One of the highlights of this software is that it employs your computer graphics processing card (GPU) to speed up the process. So the same graphics technology that's used for epic orc battles in computer games can also speedily sharpen your blurry lunar and solar images.

The interactive nature of this tool makes it easy to experiment with its very few sliders and quickly get a feel for how best to sharpen your images. The default settings already produce an impressive result. But just as when you are using wavelets, resist the urge to oversharpen, and be on the watch for artifacts in noisier images. Sharp e smooth is the gold-standard to aim for.

The curves tool is very easy to use, and is needed to bring out the contrast you are trying to sharpen.
Richard S. Wright Jr.

Another thing I love about this software is that its curves tool is very easy to use, and allows you to adjust the contrast of your sharpened image as you go.

There's a great tutorial online here, but I'll summarize by saying the easiest workflow is to adjust the Sigma (the Lucy-Richardson part) first. Once you have a satisfactorily sharpened image, use the lower controls to just slightly apply an unsharp mask. You'll find that, most of the time, the sigma for the deconvolution and the unsharp masking is the same value.

I find this so much easier and simpler to use than wavelets and am very happy with my final lunar/solar images. The "deringing" option is only needed when you have solid white or solid black edges. But even with this enabled, I don't find planets process well this way. The finer-grained control of wavelets does win in those cases, as it helps squeeze out the ultimate details.

There is one potential showstopper for some imagers, and that is that this tool will only work on monochrome images. This is not a problem for most solar and lunar images, though. Those imaging with color cameras can still bring color images into ImPPG, they're just converted to monochrome. Or, you can split your color channels in Photoshop and process each one in ImPGG individually.

For solar imaging, such as with this hydrogen-alpha image of a sunspot, you'll need to colorize the images yourself afterwards.

The source code to this tool is also available for free, and prebuilt binaries (the executable) are available for Windows and Linux. Check it out!


Few Tips For Best Image Quality With High Magnification

You can view planets in low magnification and enjoy it, but to get the best image with the highest useful magnification, I want to give you a few more tips.

Planets In Opposition

The best time to observe planets is when they are in opposition. What does it mean? If the planet is in opposition, it is closest to us hence the biggest in the sky.

Check this “Planet Calendar” for dates when are the planets in opposition.

Collimation

If you are using a Newtonian reflector telescope or any other design using mirrors to produce the image, you need perfect collimation. Collimation is basically the mirrors’ alignment, and without that, the image is blurry in the eyepiece.

Most people complaining about their telescopes says that the image quality is poor even when using small magnification, but the problem is that their telescopes are out of collimation.

Thermal Equilibrium

Another issue people have is thermal equilibrium. The story goes like this: you check the weather, jet stream, and everything is perfect. You take out your telescope, but you see a lot of distortion and turbulence through the eyepiece.

The problem is that your telescope has not reached the ambient temperature outside, and the hot air from the telescope itself is distorting the image.

That’s why you always have to prepare the telescope before and take it out in advance to acclimatize to ambient temperature. How long it takes depends on the aperture of the telescope. The bigger the aperture, the longer it takes to acclimatize.


Lucky imaging with Celestron 14 - is this result reasonable? - Astronomia

Celestron C8 Starbright XLT Telescope OTA

By the Astronomy and Photography Online Staff


Celestron C8 NexStar OTA. Illustration courtesy of Stellarvue.

Celestron is a company located in Torrance, California that was purchased by Synta Technologies of Red China in 2005. The main components of C8 telescopes are now fabricated, figured and assembled in China. Celestron quality checks C8's after their arrival in the U.S., before they are sent to dealers.

There are several modern C8 packages. The C8 with Starbright XLT coatings reviewed here is an advanced level telescope and the lineal descendant of the original C8 that made Celestron's reputation. It is sold as a basic optical tube assembly (OTA) without mount, or as a complete telescope system with a variety of mountings. Contemporary C8 Starbright XLT aluminum main tubes can have an orange-bronze pearl, gray, or gloss black finish, depending on the mount with which they are supplied. The front and rear cells are charcoal black. The basic OTA (without any mounting system), as illustrated on the Celestron web site, sports a gray main tube. Available mounting systems include the NexStar SE single fork mount (ornage-bronze main tube), CPC dual fork mount, CGEM German Equatorial mount, or CG-5 German Equatorial mount. (Supplied with black main tubes.) In 2010, a special Limited Edition version with a carbon fiber main tube was offered on the CPC fork mount. All of these mounts are of the computerized, go-to type, but regardless of the mounting system and main tube color, optically and mechanically all C8 Starbright XLT telescopes are the same.

In addition to the standard C8 Starbright XLT optical system, Celestron also offers an 8" EdgeHD optical system, either as an OTA or with a heavy duty German Equatorial mounting system. Edge HD scopes come with cream colored optical tubes and their optics are not the same as other C8's, although they remain 8", 2032mm, f/10 scopes. They feature a new aplanatic Schmidt-Cassegrain optical system with a Schott glass corrector/field flattener in the central baffle tube, Fastar (removable) secondary mirror, flexible mirror support rods with tension clutches and tube vents to assist temperature stabilization. We hope to cover an EdgeHD telescope in a future review.

Our CE8SEOTA test scope is also Fastar compatible, so a brief explanation of Fastar is appropriate. Fastar is a "hyper imaging" system. Celestron explains it this way (photo courtesy of Celestron):

"Fastar F/2 Imaging or Hyperstar Setup on a Schmidt-Cassegrain Telescope requires mounting a CCD camera and lens assembly where the secondary mirror of a Schmidt-Cassegrain telescope is located. The key advantage of this configuration is the fast exposure time. At the f/2 focal ratio exposure times are 25 times faster than at f/10 and require only 20-30 seconds to capture many deep sky objects. Because the exposure time is so low there is no need for guiding or polar alignment. A word of warning, not all Schmidt-Cassegrain telescopes are Fastar or Hyperstar compatible. A compatible Schmidt-Cessegrain or EdgeHD Telescope, F/2 lens assembly (Starizona.com), CCD Camera, Image Processing Software (may or may not be bundled with CCD camera) and Laptop Computer are essential equipment."

We recommend that you not attempt to remove the secondary mirror unless you are actually going to use a Fastar imaging system. Never mess with the optical system unless it absolutely cannot be avoided.

Not being fans of go-to mounts and with suitable manual mounts on hand, we ordered our C8 Starbright XLT as a NexStar OTA (CE8SEOTA) from our friends at Stellarvue. Stellarvue, in addition to manufacturing their own superb apochromatic refractors, is a Celestron partner and Stellarvue refractors are now available with Celestron go-to German Equatorial mounts. This OTA had been used by Stellarvue in a display and features an orange-bronze main tube, rather than the gray OTA sold as the C8-A XLT. As described by Stellarvue, "This is a new OTA that was shown only once on display and is in perfect condition. It comes with a full length Vixen sized rail, Stellarvue F1001 red dot finderscope, 1.25" eyepiece holder and Celestron 25 mm eyepiece." The red dot finderscope replaces the hard to use, 6x30mm, straight-through/inverted image optical finderscope supplied with most C8 optical tubes.

The telescope's notable features include a seamless aluminum optical tube with aluminum front and rear cells, a white water glass Schmidt corrector lens and Starbright XLT optical coatings on the corrector and both mirrors. As with all conventional Schmidt-Cassegrains, the curvature of both the primary and secondary mirrors are segments of a sphere, coma correction being provided entirely by the big aspheric Schmidt lens that seals the front of the optical tube and to which the secondary mirror is mounted. Collimation adjustment screws are provided for the secondary mirror and the Owner's Manual offers clear, easy to follow, collimation instructions.

This is an 8" (203.2mm) clear aperture, 2032mm prime focal length, f/10, Schmidt-Cassegrain telescope (SCT). The f/10 to f/11 focal ratio range represents a sort of "sweet spot" for general purpose, Schmidt-Cassegrain astronomical telescopes. It offers an adequate f/stop for photography, while minimizing the size of the secondary obstruction and its deleterious effect on image quality. Celestron's C5, C6, C8, C9, C11 and C14 telescopes are all designed with focal ratios in this range.

The supplied Vixen mounting rail allows the OTA to be used with a variety of alt-azimuth and equatorial mounting systems from Celestron and other suppliers. We used the test scope on Celestron CG-4 and Vixen GPD-2 German EQ mounts with good results. (Both of these mounting systems have been reviewed by Astronomy and Photography Online.)

  • Item: CE8SEOTA
  • Optical coatings: Starbright XLT
  • Clear aperture: 203.2mm (8")
  • Focal length: 2032mm
  • Focal ratio: f/10
  • Finderscope: Star Pointer (red dot type)
  • Mounting rail: Full length Vixen dovetail
  • Optical tube: Aluminum
  • Optical back: 1.25" (2" optical back/star diagonal available)
  • Supplied eyepiece: 1.25" Celestron 25mm Plossl
  • Supplied star diagonal: 1.25" prism type
  • Highest useful magnification: 480x (at 60 ppi)
  • Lowest useful magnification: 29x
  • Limiting stellar magnitude: 14
  • Resolution (Rayleigh): 0.69 arcsec
  • Resolution (Dawes): 0.57 arcsec
  • Light gathering: 843x
  • Angular field of view: 0.63-degree
  • Secondary mirror: Fastar compatible (removable)
  • Secondary mirror obstruction: 2.7" (63.5mm)
  • Secondary mirror obstruction by area: 11.4%
  • Secondary mirror obstruction by diameter: 33.8%
  • Optical tube length: 17"
  • Optical tube weight: 12.5 pounds
  • 2010 MSRP: $1049 (C8-A-XLT)

When we opened the cardboard shipping box, we found our CE8SEOTA and the included accessories nestled between fitted foam blocks. The full length Vixen mounting rail and finder base were securely attached to the optical tube and the 25mm ocular, star diagonal and red dot finder were neatly packaged in small zip-lock bags.

We should point out that this is not your father's "Celestron orange" telescope. We were pleased to find that this orange-bronze pearl finish is very attractive, probably the most stunning finish we have ever seen on any C8 telescope. In direct sunlight, it literally sparkles! The photo at the top of this page or, for that matter, the photos on the Celestron web site, do not do the NexStar OTA justice. They give the impression it has an orange enamel finish, but it is actually much more attractive.

The Vixen quick detachable rail is our favorite scope to mount attachment system for telescopes the size of the C8. It is secure and easy to use, which is why it has become the de-facto standard in the industry. However, we noticed that there are no stop bolts in the C8's Vixen rail to prevent it from sliding out of the mating Vixen dovetail in a mounting system. This oversight should be corrected. Should the clamp screw securing the scope's rail in the mount's dovetail slightly loosen when the scope was aimed upward, the scope could drop to the ground. Make sure your mounting clamp stays tight! There are a couple of 1/4x20 holes drilled into aft part of the mounting rail, presumably to facilitate mounting the OTA on a heavy duty photo tripod if desired, so we screwed a couple of short 1/4x20 bolts into those holes to serve as stop bolts.

Catadioptric (CAT) telescopes are relatively compact and SCT's are lightweight CAT's that is the advantage of the thin, aspheric, Schmidt corrector lens compared to a thick Maksutov corrector lens. However, an 8" SCT is about the largest CAT we regard as truly portable. The Orion polyester/nylon padded soft case (#15191) we purchased for the C8 measures 21" long by 10" in diameter and the OTA itself is 17" long and weighs about 15 pounds with finder, rail and visual accessories. It is as heavy and bulky as we want to deal with in the field.

In addition to some sort of case to protect the telescope in transit, many advanced users will want a correct image, right angle, optical finderscope. These can be had from Orion, Stellarview and other sources and are virtually a necessity for terrestrial use. A Vixen type finder scope mounting shoe (#07215) designed for the C8 and other SCT's can be ordered from Orion. In addition, we like to add a green laser pointer, such as the Celestron Laser Finderscope Kit. As we have written before, you cannot view objects you can't find, so we like to take advantage of all the available finder options.

A handy accessory for those who wish to use their C8 as an all-around astronomical telescope is Celestron's f/6.3 Reducer-Corrector. This four-element, multi-coated optic screws directly to the rear cell and reduces the scope's effective prime focal length to 1280mm. It is quite useful for wider sky views of extensive objects, such as the Double Cluster and Andromeda Galaxy. Another worthwhile accessory is a solar filter, available from Celestron, Thousand Oaks Optical and other suppliers. These cover the front of the telescope (NEVER use an eyepiece sun filter!) and allow the telescope to be safely aimed directly at the sun, where sunspots and, depending on the viewing conditions, the granular surface of our nearest star can be seen.

The C8 OTA comes with an E-Lux 25mm Plossl ocular that yields 81x magnification. This is a useful combination for many purposes. However, additional oculars are necessary to get the most out of this telescope. For astronomical observation, we would suggest the addition of (to stay with the Celestron brand) 40mm Omni Plossl (51x), 15mm Axiom LX (135x) and 8mm Ultima LX (254x) eyepieces as a practical minimum. Of course, similar oculars from other manufacturers (Tele Vue, Vixen, Burgess, etc.) would be equally suitable. A good 8-24mm zoom eyepiece (254x-85x) is also very handy. Fortunately, we had oculars from Celestron, Tele Vue and Burgess Optical in focal lengths from 5mm to 40mm available for this review.

The star diagonal is retained in the visual back by a pair of fingertip set screws. Ditto for the way eyepieces are retained in the supplied star diagonal. These dual retaining screw systems are more secure than a single set screw, but twice as fussy. The best retention system is a compression ring tightened by a single fingertip set screw, particularly in the star diagonal, since oculars are changed frequently during a viewing session. Consequently, we used a 1.25" Astro-Tech dielectric mirror star diagonal with a compression ring for some of our viewing. This was a matter of convenience, not necessity, as the supplied Celestron prism star diagonal worked well.

Astronomy and Photography Online staff members Jim Fleck, Rocky Hays, Gordon Landers and Chuck Hawks participated in this review. We started with some terrestrial viewing, which was hampered by the warm summer weather that created lots of rising air currents and heat waves. Then we moved on to some backyard astronomy.

One of the improvements over earlier C8's, which we noticed immediately, is this C8's focuser. Like the focuser on the C6 we recently reviewed, this focuser operates smoothly and the backlash that plagues most SCT focusers has been substantially reduced. The C8's previously bare metal focusing knob now has a rubber covering that increases its diameter and improves its feel. The focuser still moves the primary mirror, but Celestron has apparently tightened the tolerances since we last owned a C8. There is even an anodized orange collar at the base of the focuser to make it easier to see.

A C8 can provide intriguing views of terrestrial subjects if the atmospheric conditions permit. We used the C8 on a Stellarvue MG alt-azimuth mount to examine the needles and pine cones at the top of a tall fir tree at a laser verified 134 yards with a 40mm Celestron Plossl ocular (51x magnification). At one point a fly, clearly visible through the C8, happened to land on the branch we were looking at!

A neighbor's weathered wood fence at 48 yards, particularly a chipped knot in the wood, was viewed through a 32mm Tele Vue Plossl (64x). This proved to be the most magnification we could use in the C8 on this particular day. Shorter oculars merely emphasized the heat waves, reducing the detail we could actually resolve.

One convenient feature of the C8 is its close focusing capability, to around 20 feet, which easily exceeds that of most refracting and Newtonian astronomical telescopes. A C8 can provide fascinating "close-up" views of stinging insects, for example a wasps' nest, at a safe distance and without interfering with their normal routine.

Of course, a C5 or C6 can do essentially the same things and are easier for most AZ mounts to support. The C8 and MG mount combination worked satisfactorily at low and medium magnification (using oculars from about 24mm focal length and longer) and the telescope's weight was not a problem. However, due to the C8's long focal length and potential for high magnification, we felt that the MG mount had reached its practical observing limit and the C8 was under-mounted for use with shorter focal length (high magnification) oculars.

For nighttime use, we mounted the C8 OTA on a Vixen GPD-2 German equatorial mount. This excellent mounting system weighs about 31 pounds and is rated for 35 pound loads. It proved to be ideal for the C8.

A quick initial star test revealed that the scope had been knocked slightly out of collimation during its journey from California to Oregon. It wasn't far out and, fortunately, the Celestron Owner's Manual provides simple, easy to understand and follow, collimation instructions. (The Owner's Manual is also available as a pdf file on the Celestron web site.) Collimation is best done by two people (it is not a group activity), one looking through the eyepiece while the other adjusts the colimation screws. If you follow the instructions exactly, it is a straightforward procedure.

We used the C8 at night from Chuck's semi-rural backyard, where the light pollution is moderate and the Milky Way is faintly visible to dark adapted eyes, as well as from the suburban College Hill in Eugene, where the light pollution is more severe and the Milky Way is not visible. The prevailing seeing conditions were very marginal due to rising air currents, a thin haze and some high clouds. This limited the shortest focal length eyepiece we could practically use in the C8 to about 12mm (169x magnification at about 21 power/inch). However, we were able to get very impressive views of the quarter moon, aided by a moon filter, using an 8-24mm Tele Vue Click-Stop Zoom eyepiece set as short as 12mm and as long as 24mm, as well as with fixed focal length oculars of similar magnification. Because of its long focal length and consequent high magnification, a truly impressive amount of lunar detail can be seen.

We looked briefly at the planet Venus, which was also in its "quarter" phase no surface features are visible on Venus, of course, due to its 100% cloud cover.

We also looked at a few of the brightest deep sky objects. The latter included the Andromeda Galaxy M31 using a 40mm Celestron Plossl and a 32mm Tele Vue Plossl with about equally good results. The Ring Nebula M57 could be discerned with oculars from 40mm to 12mm, with a 14mm Tele Vue Radian providing the optimum view. We were able to split the Double Double (double binary stars) in Lyra with 18mm, 14mm and 12mm Tele Vue Radians ditto the double star Polaris. As usual, we used a bright 40mm Celestron Plossl to locate most of these objects in the night sky before switching to higher magnification oculars for more detailed examination, if appropriate. We have had quite a bit of experience with Celestron C8 telescopes and this one performed as expected. All of the good things you have read about C8's are true!

The C8 really comes into its own at star parties and for serious astronomical observation at dark sky sites. It is, in fact, about the biggest telescope that we regard as truly portable, as it can be set-up on an adequate equatorial mount by one person, unassisted, in a reasonable amount of time. There are larger "portable" scopes available, to be sure, but they tend to either require detail disassembly for transportation (as per truss type optical tubes or multi-piece fork mounts), or come on simple Dobsonian alt-azimuth mounts that cannot track celestial objects across the night sky. Neither compromise seems worth the potential gain in light grasp to us. We prefer a C8 on a good German equatorial mount to any of the larger aperture alternative "portables" that we have tried. That includes Celestron's own C11 and C14 telescopes, which are spectacular for pier mounted home observatory use, but require too much effort to set-up to be truly portable, at least by our "single middle-aged person" standards.

The C8 has the light grasp and focal length to see all of the planets (even Pluto, given ideal conditions, which we know because we have done it), as well as a staggering number of deep sky objects. These easily include the entire Messier catalog and hundreds of dimmer objects. Its resolution allows it to split a myriad of double stars. Since its limiting stellar magnitude is 14 and its Rayleigh resolution is 0.69 arcsec, the seeing conditions will normally be the factor controlling what objects can be viewed from semi-populated areas, not the telescope itself.

Compared to smaller aperture scopes, the C8 is most impressive for viewing deep sky objects, such as the Whirlpool Galaxy M51, whose major arms can be discerned, and for peering deep into big globular clusters like M13 in Hercules. The latter is spectacular when seen through a C8. It has the light grasp to show deep sky details that smaller or less precisely figured telescopes cannot match.

The view through a C8 under dark skies and good seeing conditions has always been, and remains, stunning. The modern Celestron C8 with Starbright XLT coatings, regardless of main tube color, is an excellent all-around telescope for the advanced amateur astronomer.


Already have an account? Sign in here.

Recently Browsing 0 members

No registered users viewing this page.

Similar Content

Though M101 is a relatively large target it is quite dim and this required a significant effort to get detail into its core. I took 31hrs of 30sec exposures which I then thinned down to the best 18hrs of data. Processed in APP and PS it was tricky keeping the core detail that I had imaged from blowing out.
Lots of advice and lots of very small curves stretches was the key in the end. Hardly sharpened it much with noise reduction undertaken as and when noise just stared to appear during stretching.
As the sensor is biased towards red, colour balancing with green and more so with blue was also necessary.
Taken at Gain 200 with a UV IR cut ASI224MC uncooled camera, APM107/700 scope on an AZEQ6.
It’s a good little sensor if you have the conditions (cold nights) and use Flats, Flat Darks and take Darks every night as the sensor temperature varies being uncooled. For info, I found it ran at about 6 degs above ambient once it was steadily running subs off.

Here is a pretty view of M82, taken on 12 Dec with 102mm f5 achromat, ASI224MC camera, SLT mount.
Live stacked, 16 frames, total 138 secs.

Here is a live-stacked EEVA image (14 frames, total 174secs) taken with 102mm f5 Startravel achro & ASI224MC camera on SLT mount.
The 9th magnitude comet is the smudge toward upper right of the frame. It's small and dim.

Another Mars image . in this one I have managed to record Olympus Mons which did not show in earlier images I made of the same longitude. The seeing seemed good, but the sky was hazy and cloud-free as I set up. By the time I was ready to image, some cloud had come over, and instead of clearing it developed into 100% cover and an unexpected heavy shower. As I was dismantling the now very wet telescope the sky cleared again offering a tempting view of Mars so I put all the bits back, aligned on Mars and took a series of videos.
Kit: CPC800, ASI224MC, ADC. 20% of 5000 fromes, processed in Registax6. I also tried a x2 Barlow but those images did not turn out well - looked out of focus.


EAA imaging vs AP imaging – Yet Again!

Firstly my apologies for this long post but I thought it best to be as specific as possible.

A different thread that recently closed here canvassed the well worn topic of what does, and what does not, constitute an acceptable EAA image. So far as I can see the thread closed with the position for this particular forum resting with the simple rule - “no post processing”. That's fine and welcome in its apparent simplicity but I am confused as to the logic behind its practical application. In particular, I wonder what precisely is meant by “post processing”? More specifically, “post” what? The only logical conclusion that I can come to is that the “what” is the saving of the EAA live on-screen view to file for later examination, etc. In other words anything done to acquire and improve the EAA on-screen view before it is saved to file as an image is acceptable EAA imaging but anything done to the saved image afterwards is not because that is post processing. Well, if right, that seems simple enough but is it entirely logical?

Consider what is involved in a typical EAA workflow. Using SharpCap as being generally representative of EAA viewing and imaging software, I think the the following fairly summarises the steps involved following target acquisition :

1. Set the camera controls - for exposure length, gain, gamma and cooled camera temperature (same as for AP).
2. Configure other settings to obtain an on-screen view of the target:

- Preprocessing (corresponding to regular APs' calibration) :

- Select image “improvement” procedures :

3. View the resulting on-screen image
4. Save the on-screen image to file for later viewing, possible further enhancement and distribution.

You can see that 2(c.) to 2(e) correspond to matters that are generally understood to be part of AP post processing. But they occur before the on-screen image is saved to file. So it seems clear that the nature of image adjustments is not in itself relevant to determining what is, and what is not, acceptable for EAA imaging, only when they are applied – before or after saving the on-screen image.

Now consider the use of ToupSky, RisingSky, MallincamSky and other similar camera control and imaging software. They all operate in basically the same way and the EAA workflow is pretty much the same as described above for SharpCap. However there is one significant point of difference. The saving of the live on-screen display to an image file is done in two stages. Firstly a snapshot copy of the live-view display is made and displayed in a new tabbed page. This is done by clicking a “Snap” button. The snapshot is identical to the live-view display when it was made. As a second stage the snapshot can be saved to file by specific user action. However, between creating the snapshot and saving it to file the software allows you to change the snapshot by applying a range of processes that are typically found in AP post processing. These include, but are not limited to :

Practical experience at public outreach events has shown that applying these processes (f) to (h) could quickly but significantly improve the quality of the snapshot to the benefit of the viewers' experience. So are they acceptable for EAA imaging or not? Logically they should be because they are applied before the on-screen snapshot is saved to file and, as we have already seen, the fact that they are part of regular AP post processing procedures is not in itself a relevant matter. And from the point of view of the public outreach viewers the application of processes (f) to (h) is but part of a seamless continuum of producing the best possible view of a target allowed by the EAA setup being used.

So now we seem to have reached the position where :

  1. Procedures (c.) to (h) run pretty much the full gamut of basic AP post processing, always accepting that AP post processing can also include other matters such as high dynamic range adjustment, etc.
  2. Some of the noted procedures i.e. (c.) to (e) are allowed as proper for EAA in all cases, but
  3. others i.e. (f) to (h) are only allowed where the camera control and imaging software specifically provides for them.
  4. Applying any of procedures (c.) to (h) after saving an on-screen image to file is post processing and is therefore not allowed for creating an EAA image. The image has to be classified as AP.

This begs the following questions :

  1. If what are normally regarded as AP post processing adjustments are acceptable for EAA imaging when made before saving the on-screen image to file why are the same adjustments not also acceptable when later made to the saved image file? And, if they are so acceptable, is it logical to exclude any other AP post processing adjustments that may not be included in the EAA viewing and imaging software?
  2. Is it reasonable for users of SharpCap and similar software to be precluded from using adjustments such as (f) to (h) for EAA image purposes when they would seem to be available to users of ToupSky, etc.?

This is quite probably all a bit of a storm in a teacup but, as I said, I'm confused.

#2 nicknacknock

A man of many qualities, even if they are mostly bad ones

The forum specific rules clarify what is considered post-processing. Specifically:

Please note that post-processing of EAA images is not allowed under any circumstances. One can provide links to ones' post processed images in the imaging fora, your gallery on Cloudy Nights or from another website. This helps to maintain our focus on EAA.

Our view on post-processing is basically any enhancement process occurring after the capture software has saved the final image into a storage device. The key word being enhancement image manipulation like cropping, zooming, rotating, annotating, inverting, and file size compression is deemed acceptable.

These rules came after long discussions between all parties, some attempts at changing things which were unsuccessful, until we all settled (admins, mods and members alike), to a reasonable definition of post-processing which we are happy with at the moment.

As for what EAA is, this is indicated via the forum description, and this definition we apply here is what led us to these rules:

Electronically Assisted Astronomy (EAA) is the use of an analog or digital image capturing device in lieu of an eyepiece at the telescope. Here members can talk about the equipment used, share their observing experiences, and post sketches and images captured with EAA devices.

I trust this clarifies matters sufficiently. At the moment, the forum runs fine, people seem to be enjoying it (myself included) and we have no intentions to make any changes for the foreseeable future.

#3 nicknacknock

A man of many qualities, even if they are mostly bad ones

Just to add a bit more in terms of context, and this may make things clearer:

Yes, I will use darks and flats, which usually take me a total of 3-4 minutes to take and apply at the beginning of a session. But that is to improve what I see - take it as being the same to adding a UHC filter before viewing the Veil nebula, to see more detail visually.

My exposures are of the 15 second nature each these days and my patience for AP is zero, as I want instant gratification and 15 seconds later, I see my object. I usually stack no more than 5 minutes (usually to the order of 2 minutes), before I move on.

I also do visual and like EAA and AP, even that has preparation in terms of setting up equipment, balancing scopes, selecting correct eyepiece / filter, aligning finderscope / Red dot finder to main scope, focus and then observe.

What makes EAA closer to traditional visual astronomy via eyepiece, is that more or less instant gratification and viewing the object as is at the time of viewing, before moving on after we had our fill. If focusing is a bit off, no tears are shed. If there is tilt in the imaging train, again, no tears. If I am bored to take darks and flats, I don't lose any sleep over this. Whereas, with AP it is the precision of data acquisition, the precision of guiding, the precision of focusing, strict application of calibration frames and the laborious task of post-processing.

I never post images that were processed after the session. What I do for me is that I may enhance on my iPad (takes under a minute) an image to bring out more detail for me. But, I would never claim that this is astrophotography and I only do it for me. Here on the forum, I take more pleasure in sharing EXACTLY what I see.

Hope this brings some insight into what actually is EAA and why we love it!

#4 Broglock

I am a bit confussed here!

If one wants to post process an image and requires that it be posted, then there is a Forum here on CN for that. There are many here who do not follow the workflow as described above and also may never post an image or even have a personal gallery of viewed items. This is why this Forum exists and we can contribute to all or none of the Forums here. A year ago I was headed to AP because of difficulty with visual (back and neck fusions) and was about to put all equipment up for sale when I stumble across EAA, a sub-Forum of AP at the time. WOW, I found exactly what I required to view the skies without long exposures, complicated processing, and expensive post processing software. Being a sub-Forum of AP was causing some issues in trying to understand and teach EAA to us newbies, therefore, at least as I have seen, it developed and here we are.

#5 TOMDEY

Forgive me for smiling---

Because I recognize myself and others here. What inevitably happens is that aggressive categorization leads to disagreements that never resolve --- because categorization itself is a gray-area task that has no logical terminus. This leads to over-categorizations that would require the Supreme Court to weigh in on. The Principals find themselves arguing over nits and the fun goes out of it. Many of the most productive participants shrug and walk away entirely. I know it hasn't quite come to that, but a risk to at least be aware of.

Decades ago, I was informally asked to consider accepting a seat on an International Standards Committee (IES Lighting Standards) because I was designing, patenting, and developing Energy-Efficient Street Lights etc. for the Big Guys. That would have impact on astronomy, so the invitation was especially-attractive. But I prudently (very prudently) thanked them but backed away, with some lame excuse about being too busy doing other things. My real reason was that I knew (from experience) that it would be a terrible Pandora's Box of International Political In-Fighting --- only 10% technical, 40% marketing, and 50% pure international politics. That would have been career-opportunity if I was interested in ladder-climbing. But my expertise and interest were only technical, and money was insufficient incentive to motivate me. That worked out for the best --- such an assignment would have exasperated and drained me (even though I might have been able to champion Dark Skies). Funny the way decision nodes effect one's career-path and --- maybe even some aspects of the world's environment.

If I ever get back into astronomical image-capture (as an extension of visual observing) --- I most certainly will go EAA. I think of it as a great way to log and recall my visual observations. like a high-end observing log. Long before we guys here even definito EAA (let alone categorizing and executing it) --- I was video-recording analog Night Vision straight to VHS tape. I would then review meteor storms, aurora, and also more traditional clusters, nebulae and galaxies --- on rainy nights. It was a great way to relive the experiences and even notice things that I missed when real-time at the eyepiece. I miss that and will return to it.

But the grayness twixt Pure Visual, Night Vision, EAA, Imagery --- remain gray, and that's OK. Just like the Night Sky is never black (not even ideally) --- the boundaries between The Universe and Human perception --- remain forever

Ummm . So, Is Pluto a planet?

#6 nicknacknock

A man of many qualities, even if they are mostly bad ones

Some good points raised - the key one about aggressive categorization. There have been successive changes in the past few years, but the current status of:

"Our view on post-processing is basically any enhancement process occurring after the capture software has saved the final image into a storage device"

keeps things rather simple. So, instead of setting a bunch of rules and forcing people to jump through successive hoops, we decided to keep things simple. We tried a more "complicated" approach with more rules, it was not successful, we recognized that it was not appropriate and we remedied the situation with the current rules.

Since we are in this to observe, we discuss our observations and supplement via what we saw at that time, not what can be extrapolated later on from data captured, hence that one.simple.reasonable.rule.

And, there is of course an outlet for those that push the boundaries into AP. Feel free to post-process, post that in your gallery and hyperlink if you want to your posts, or post in the AP forums. Without the post-processing rule, we would be trading images which would have no relationship whatsoever to what we actually saw during live viewing



Commenti:

  1. Pete

    Secondo me, ti sbagli. Sono sicuro.

  2. Jefferson

    is there a similar analog?

  3. Faesho

    Aspetta, imho

  4. Gadiel

    Indeed and as I did not guess earlier

  5. Sherbourne

    This is just a wonderful message.

  6. Keanu

    Non mi dispiace di aver perso un paio di minuti a leggere. Scrivi più spesso, mi fermerò sicuramente per leggere qualcosa di nuovo.

  7. Shaktitilar

    Quanto è curioso. :)



Scrivi un messaggio