Astronomia

Come ricavare la profondità nella mia immagine (limite magnitudo)?

Come ricavare la profondità nella mia immagine (limite magnitudo)?

Ho visto che alcuni sondaggi hanno detto che la loro profondità è di 27,5 magnitudini.

Posso chiedere che se ho un set di dati con grandezza e i loro errori, ad esempio ho la banda Jj_m,j_cmsig,j_msigcom,j_snrdi Sextractor.

Come posso ricavare la profondità di magnitudo 3 sigma in questo campo per confrontarla con l'altra indagine.


È la grandezza in cui il rapporto segnale-rumore medio (presumo che sia quello che rappresenta j_snr) è 3.


Discussione: Magnitudine assoluta della Via Lattea: che cos'è?

Questa pagina web dell'Università dell'Arizona ha una bella serie dettagliata di tabelle (e altro) che danno la grandezza assoluta del Sole.

Il che mi ha fatto chiedere, qual è la magnitudine assoluta della nostra galassia Via Lattea (MW)? In varie bande d'onda (a.k.a. filtri)? E comunque come è stata stimata una cosa del genere, visto che siamo nel profondo del MW? Inoltre, la magnitudine apparente del MW (da cui viene stimata la magnitudine assoluta) non dipenderebbe dall'angolo di visione (almeno nelle bande più blu) sai, dall'inclinazione, dalle corsie di polvere del disco, ecc.?

La magnitudine assoluta è una misura della luminosità di un oggetto celeste, su una scala di magnitudine astronomica logaritmica. La magnitudine assoluta di un oggetto è definita come uguale alla magnitudine apparente che l'oggetto avrebbe se fosse visto da una distanza di esattamente 10 parsec (32,6 anni luce), senza estinzione (o attenuazione) della sua luce a causa dell'assorbimento da parte di particelle di polvere interstellare.

Non sono sicuro che la Via Lattea (o qualsiasi galassia o ammasso stellare) possa avere una magnitudine assoluta, poiché la distanza richiesta per la misurazione è troppo breve per rendere significativa la misurazione. Se mi viene smentito in questo, ammetterò il mio errore e metterò il broncio.

La magnitudine assoluta è una misura della luminosità di un oggetto celeste, su una scala di magnitudine astronomica logaritmica. La magnitudine assoluta di un oggetto è definita come uguale alla magnitudine apparente che l'oggetto avrebbe se fosse visto da una distanza di esattamente 10 parsec (32,6 anni luce), senza estinzione (o attenuazione) della sua luce a causa dell'assorbimento da parte di particelle di polvere interstellare.

Non sono sicuro che la Via Lattea (o qualsiasi galassia o ammasso stellare) possa avere una magnitudine assoluta, poiché la distanza richiesta per la misurazione è troppo breve per rendere significativa la misurazione. Se mi viene smentito in questo, ammetterò il mio errore e metterò il broncio.

Non abbiamo bisogno di osservare un oggetto da 10 parsec per determinarne la luminosità. Misuriamo la quantità di luce da qualsiasi distanza e calcoliamo la luminosità di un oggetto compatto che emette la stessa quantità totale di luce a 10 parsec. Quest'ultima è per definizione standard la grandezza assoluta. Ovviamente non otterremo così tanta luce da una galassia se siamo a 10 parsec da qualsiasi parte di essa, perché la maggior parte di essa sarà molto più lontana.

Dalle informazioni pubblicate sulla distanza e sulla magnitudine apparente, la mia stima per M31 è di circa -21. La Via Lattea dovrebbe essere vicina a questo.

Una cosa di cui sono piuttosto curioso: fino a che punto viene considerato l'angolo di visione (o l'inclinazione), quando si stima la magnitudine assoluta di una galassia?

Rilevante per le ellittiche, ma particolare per le spirali, Sb e Sc (e SBb e SBc), perché contengono molta polvere. Che assorbe selettivamente lunghezze d'onda più corte ("più blu") e le ri-irradia (prevalentemente) nel FIR.

Gli astronomi cercano di "correggere" l'inclinazione? Se é cosi, come?

Chiaramente questo effetto è molto maggiore sulle stime di magnitudine assoluta in una data banda (diciamo, u o i) che per le stime bolometriche assolute (dove c'è un tentativo di sommare tutta la luce emessa).

Una cosa di cui sono piuttosto curioso: fino a che punto viene considerato l'angolo di visione (o l'inclinazione), quando si stima la magnitudine assoluta di una galassia?

Rilevante per le ellittiche, ma particolare per le spirali, Sb e Sc (e SBb e SBc), perché contengono molta polvere. Che assorbe selettivamente lunghezze d'onda più corte ("più blu") e le ri-irradia (prevalentemente) nel FIR.

Gli astronomi cercano di "correggere" l'inclinazione? Se é cosi, come?

(2) Dipende. L'effetto della polvere sulla radiazione emergente delle galassie è stato (spesso e acceso) un argomento importante (sistema di galassie sovrapposte. ). Elaborare come correggere questi effetti richiede la comprensione della selezione del campione in modo molto dettagliato (come disse una volta Dave Burstein proprio in questo contesto, un campione di un milione di galassie non fornisce alcun potere statistico se la selezione è distorta). In generale, i limiti sono (a) le galassie senza polvere interna hanno la stessa luminosità apparente vista da tutti gli angoli di inclinazione, e (b) le galassie opache hanno la stessa luminosità superficiale quando viste da una qualsiasi direzione, poiché vediamo solo uno strato esterno in ciascuna punto (e la profondità di quello strato dipende dalla lunghezza d'onda). In pratica, vediamo qualcosa nel mezzo. Si possono trovare varie prescrizioni, a volte includendo esplicitamente le proprietà di rigonfiamento in quanto meno influenzate dalla polvere concentrata sul disco. Ad esempio, c'è una prescrizione abbastanza elaborata nel terzo catalogo di riferimento delle galassie luminose di de Vaucouleurs e colleghi utilizzata per derivare le magnitudini totali corrette per l'inclinazione.

<Avviso cavallo di battaglia>
Una domanda che viene ora affrontata è quanto gli effetti della polvere possono essere stimati dalle proprietà di altre galassie e quanta dispersione c'è per, diciamo, il tipo e la luminosità fissi di Hubble. Ad esempio, gli anelli di risonanza attirano l'ISM, inclusa la polvere, da un anello più ampio in un anello stretto, producendo una zona quasi trasparente su uno o entrambi i lati. Come esempio fuori dal comune, questa spirale ad anello in Abell 2218 è retroilluminata da un arco con lente gravitazionale, che mostra quanta luce arriva attraverso il disco immediatamente all'interno e all'esterno dei segmenti di polvere a spirale dell'anello.


BIAS DI SELEZIONE OSSERVAZIONALE CHE INFLUENZANO LA DETERMINAZIONE DELLA SCALA DELLA DISTANZA EXTRAGALATTICA

AstrattoViene esaminata l'influenza del pregiudizio di Malmquist sugli studi delle distanze extragalattiche, con brevi scorci della storia da Kapteyn a Scott. Particolare attenzione è rivolta a due tipi di pregiudizi, per i quali vengono proposti i nomi di Malmquist bias del primo e del secondo tipo. L'essenza di questi pregiudizi e le situazioni in cui si verificano sono discussi.

Il bias del primo tipo è correlato al bias classico di Malmquist (che coinvolge l'"effetto volume"), mentre il bias del secondo tipo appare quando si osservano candele standard a distanze (vere) diverse, per cui il limite di grandezza taglia via una parte di la funzione di luminosità. In particolare, lo studio di quest'ultimo bias in indicatori di distanza come Tully Fisher, disponibile per grandi campioni fondamentali di galassie, consente la costruzione di una scala di distanza assoluta non distorta nell'universo galattico locale in cui possono essere derivate distanze cinematiche relative approssimative. Tali indagini, utilizzando il metodo delle distanze normalizzate o del diagramma di Spaenhauer, supportano la linearità della legge di Hubble e consentono di derivare un valore non distorto della costante di Hubble.


Le galassie nane più deboli

Joshua D. Simon
vol. 57, 2019

Astratto

Le galassie satellite della Via Lattea a luminosità più bassa ( L) rappresentano il limite estremo inferiore della funzione di luminosità della galassia. Queste nane ultra-deboli sono i sistemi stellari più antichi, più dominati dalla materia oscura, più poveri di metalli e meno evoluti chimicamente. Leggi di più

Materiali supplementari

Figura 1: Censimento delle galassie satellite della Via Lattea in funzione del tempo. Gli oggetti mostrati qui includono tutte le galassie nane confermate spettroscopicamente così come quelle sospettate di essere nane basate su l.

Figura 2: Distribuzione dei satelliti della Via Lattea in magnitudine assoluta () e raggio di semiluce. Le galassie nane confermate vengono visualizzate come cerchi pieni di blu scuro e gli oggetti sospettati di essere gal nane.

Figura 3: Dispersioni della velocità in linea di vista dei satelliti ultra-deboli della Via Lattea in funzione della magnitudine assoluta. Le misurazioni e le incertezze sono mostrate come punti blu con barre di errore e 90% c.

Figura 4: (a) Masse dinamiche dei satelliti ultra-deboli della Via Lattea in funzione della luminosità. (b) Rapporti massa-luce all'interno del raggio di semiluce per i satelliti ultra-deboli della Via Lattea come funzione.

Figura 5: Metallicità stellari medie dei satelliti della Via Lattea in funzione della magnitudine assoluta. Le galassie nane confermate vengono visualizzate come cerchi pieni di blu scuro e gli oggetti sospettati di essere nane.

Figura 6: Funzione di distribuzione della metallicità delle stelle nelle nane ultra-deboli. I riferimenti per le metallicità mostrate qui sono elencati nella tabella supplementare 1. Notiamo che questi dati sono piuttosto eterogenei.

Figura 7: Schemi di abbondanza chimica delle stelle negli UFD. Qui sono mostrati i rapporti (a) [C/Fe], (b) [Mg/Fe] e (c) [Ba/Fe] come funzioni della metallicità, rispettivamente. Le stelle UFD sono tracciate come diamo colorato.

Figura 8: Rilevabilità di sistemi stellari deboli in funzione di distanza, magnitudine assoluta e profondità di rilevamento. La curva rossa mostra la luminosità della ventesima stella più luminosa in un oggetto come funzione.

Figura 9: (a) diagramma colore-magnitudine di Segue 1 (fotometria da Muñoz et al. 2018). Le regioni di magnitudine ombreggiate blu e rosa indicano la profondità approssimativa che può essere raggiunta con il mezzo esistente.


Ringraziamenti

L'operazione EOVSA è supportata dalla concessione NSF AST-1910354. Il lavoro è supportato in parte dalla concessione 80NSSC20K0627 del NASA DRIVE Science Center. a.C., D.E.G., G.D.F., G.M.N. e S.Y. sono supportati dalle sovvenzioni della NASA NNX17AB82G, 80NSSC18K1128, 80NSSC19K0068, 80NSSC18K0667 e dalle sovvenzioni NSF AGS-1654382, AGS-1723436, AST-1735405, AGS-1743321 e AGS-1817277 al New Jersey Institute of Technology. K.K.R. e C.S. sono supportati dalle sovvenzioni della NASA NNX17AB82G e 80NSSC19K0853 e dalle sovvenzioni NSF AGS-1723425, AGS-1723313 e AST-1735525 allo Smithsonian Astrophysical Observatory. F.G. è supportato dalla concessione NSF AST-1735414 e dalla concessione DOE DE-SC0018240. S.K. è supportato dal contratto NASA NAS 5-98033 per RHESSI. J.L. è supportato dal programma di ricerca strategica prioritaria dell'Accademia cinese delle scienze con sovvenzioni XDA17040507, QYZDJ-SSWSLH012 e XDA15010900, sovvenzione NSFC 11933009, il progetto del Gruppo per l'innovazione della provincia dello Yunnan sovvenzione 2018HC023 e il progetto Yunnan Yunling Scholar. X.K. è supportato dalle sovvenzioni NSFC 11873036 e 11790303, dal programma di sponsorizzazione per giovani scienziati d'élite di CAST e dal programma per giovani studiosi dell'Università di Shandong. Le simulazioni MHD eseguite per questo lavoro sono state condotte sullo Smithsonian High Performance Cluster della Smithsonian Institution e hanno utilizzato le risorse del National Energy Research Scientific Computing Center.


3. Elaborazione delle immagini

Il sistema DESDM è responsabile della riduzione, catalogazione e distribuzione dei dati DES. Le precedenti iterazioni della pipeline di elaborazione delle immagini DESDM sono descritte in Sevilla et al. (2011) e Mohr et al. (2012) e un riepilogo più dettagliato con aggiornamenti per l'imminente elaborazione DES 3 anni è disponibile in Bernstein et al. (2017a) e Morganson et al. (2018). Qui riassumiamo brevemente le fasi di elaborazione delle immagini a epoca singola applicate durante la campagna DES Y1A1 FINALCUT. La campagna Y1A1 FINALCUT ha prodotto immagini elaborate e un catalogo di milioni di oggetti rilevati.

0,4% del livello di fondo del cielo.

Figura 3. Immagine DECam elaborata da Y1A1 (in alto) e layout CCD (in basso). I tre slot vuoti nell'immagine DECam corrispondono a CCD2, CCD31 e CCD61. CCD61 ha avuto esito negativo durante SV, mentre CCD2 ha avuto esito negativo durante Y1. Un amplificatore di CCD31 ha una non linearità a livello di luce scarsa variabile nel tempo e questo CCD non è stato elaborato per Y1A1.


Come ricavare la profondità nella mia immagine (limite magnitudo)? - Astronomia

Quando il metodo diretto della parallasse trigonometrica non funziona per una stella perché è troppo lontana, un metodo indiretto chiamato Legge del quadrato inverso della luminosità si usa. Questo metodo sfrutta il fatto che una data stella si affievolirà in modo prevedibile all'aumentare della distanza tra te e la stella. Se sai quanta energia emette la stella (la sua luminosità), quindi puoi ricavare quanto deve essere lontano per apparire debole come sembra. Le stelle diventano più deboli con l'aumentare della distanza perché la loro energia si diffonde su una superficie sempre più ampia.

La luminosità apparente di una stella (la sua flusso) decresce con piazza della distanza. Il flusso è la quantità di energia che raggiunge ogni centimetro quadrato di un rivelatore (ad esempio, il tuo occhio, CCD, pezzo di sfera) ogni secondo. L'energia da qualsiasi fonte di luce si irradia in una direzione radiale, quindi le sfere concentriche (centrate sulla fonte di luce) hanno la stessa quantità di energia che le attraversa ogni secondo. Man mano che la luce si sposta verso l'esterno, si diffonde per passare attraverso ogni centimetro quadrato di quelle sfere.

La stessa quantità totale di energia deve passare attraverso ogni superficie della sfera. Poiché una sfera ha un'area superficiale di 4 />× (il suo raggio) 2 , il flusso di energia sulla sfera-1 = (il flusso di energia sulla sfera #2) × [(raggio della sfera #2)/ (raggio della sfera n. 1)] 2 . Si noti che il raggio per il riferimento il flusso (sfera #2) è in cima alla frazione mentre il raggio per il flusso sconosciuto (sfera #1) è in basso --- questa è una legge del quadrato inverso! All'aumentare della distanza, il flusso DIMINUISCE con il quadrato della distanza. In forma di formula, ciò significa flusso della stella = luminosità della stella / (4 />× (distanza della stella) 2 ). Vedi l'appendice della revisione matematica per un aiuto su quando moltiplicare e quando dividere il fattore distanza.

In altre parole: quando il flusso DIMINUISCE, la distanza della stella AUMENTA con la radice quadrata del flusso. Se sai quanta energia si riversa attraverso la superficie della stella e misuri quanta energia rilevi qui sulla Terra, allora puoi ricavare la distanza della stella da te. La distanza della stella = Sqrt[ (luminosità della stella) / (4× (flusso della stella)) ].

Vocabolario

Formule

  • Legge del quadrato inverso Square: Luminosità alla distanza A = (luminosità alla distanza B) × [(distanza B)/(distanza A)] 2 . La posizione (B) è la posizione di riferimento.
  • flusso = luminosità / (4 />× distanza 2 )
  • Distanza sconosciuta = distanza di riferimento × Sqrt[(flusso di riferimento)/(flusso misurato)].
  • Distanza sconosciuta = Sqrt[luminosità / (4 />× flusso)].

Obiettivi

Come spiegato in Mendes de Oliveira+2019, la procedura adottata in S-PLUS per la produzione del catalogo è simile a quella ampiamente spiegata in Molino+14 per l'indagine ALHAMBRA (Moles et al, 2008). La pipeline fotometrica S-PLUS si basa sul software SExtractor. I cataloghi fotometrici sono costruiti in modalità a doppia immagine per eseguire la fotometria con corrispondenza dell'apertura multi-banda. Le immagini di rilevamento vengono create come una combinazione ponderata dei filtri a banda larga più rossi (griz) per massimizzare la rilevabilità delle sorgenti deboli (o con scarsa luminosità superficiale) e per migliorare la definizione delle aperture fotometriche. Una caratterizzazione empirica del rumore viene eseguita in anticipo immagine per immagine, per tenere conto delle correlazioni tra pixel adiacenti durante il processo di riduzione dell'immagine (Molino+14). Le grandezze per le sorgenti non rilevate sulle singole immagini sono impostate su m=99. e le corrispondenti incertezze sostituite da limiti superiori. Le calibrazioni fotometriche del punto zero sono state eseguite per ogni puntamento utilizzando una nuova tecnica ottimizzata per rilievi fotometrici multibanda ad ampio campo (Sampedro et al, in preparazione). La tecnica utilizza una combinazione di librerie di modelli stellari e il luogo stellare delle stelle della sequenza principale, applicata a tipicamente

1500 stelle per campo, portando tutti i punti zero a un errore tipico dell'1-2%.

Come spiegato in Sampedro et al., (in preparazione), il catalogo include informazioni astrometriche, morfologiche, fotometriche e foto-z per tutte le sorgenti rilevate nelle immagini di rilevamento S-PLUS. Le informazioni astrometriche e morfologiche vengono estratte dalle immagini di rilevamento: coordinate celesti (RA, Dec) nel sistema J2000, posizione fisica sul CCD (X,Y), dimensione dell'apertura fotometrica (ISOarea), rapporto segnale-rumore (s2nDet definito come SExt_FLUX_PETRO/SExt_FLUXERR_PETRO sull'immagine di rilevamento), compattezza (FWHM e MUMAX), parametri di forma di base (A, B e THETA), raggi della frazione di luce (FlRadDet) e aperture Kron (KrRadDet). Abbiamo anche incluso le bandiere fotometriche standard di SeXtractor (PhotoFlag). Il significato del numero della bandiera è il seguente:

Gli oggetti con un numero di flag diverso possono soffrire di una combinazione dei flag già citati, essendo il numero la somma dei diversi flag.

Il catalogo contiene una tripla fotometria in cui le grandezze (e le incertezze) sono denominate in base al nome del filtro e all'apertura fotometrica adottata. Qui forniamo un esempio per chiarimenti: F660_auto, F660_petro e F660_aper corrispondono alle magnitudini AB per il filtro a banda stretta F660, dove "auto" si riferisce alle aperture totali (ristrette) utilizzate per derivare le stime foto-z, "petro" a le aperture totali (moderate) utilizzate per derivare le magnitudini assolute e le masse stellari e "aper" alle aperture circolari standard di 3" di diametro (vedi Molino+16, Molino+18, per maggiori informazioni). Le incertezze fotometriche prendono lo stesso nome (come grandezze) ma aggiungendo il prefisso “d”): “dF660_auto”, “dF660_petro” & “dF660_aper”.

Viene fornita anche una stima del rapporto segnale-rumore per ogni rilevamento, all'interno di ciascuna delle tre aperture, come “s2n_F660_auto”, “s2n_F660_petro” e “s2n_F660_aper”, definiti come spiegato in precedenza per l'immagine di rilevamento. Per ogni serie di grandezze, le incertezze fotometriche sono corrette empiricamente in tutte le 12 bande. Ogni volta che una sorgente non veniva rilevata, la sua magnitudine veniva impostata su 99 e la sua incertezza fotometrica sostituita da un limite superiore di 2-σ. Le grandezze sono corrette dall'estinzione galattica usando Schlegel+98.

Il catalogo include anche una stima fotometrica del redshift per ogni sorgente utilizzando una nuova versione del codice BPZ (Benítez 2000) ottimizzata per le galassie nell'Universo locale (Molino et al, in preparazione). "zb" corrisponde al valore più probabile (cioè picco) e "zb_Min" e "zb_Max" rappresentano i limiti inferiore e superiore per il primo picco entro un intervallo 1σ (cioè, ∆z = 0,02x(1 + z). Sulla base del redshift più probabile, una classificazione di tipo spettrale è fornita anche da “Tb”, dove il suo numero si riferisce al template selezionato, “Odds” fornisce la quantità di probabilità di redshift racchiusa attorno al picco principale e “χ2” il chi ridotto -quadrato dal confronto tra i flussi osservati e previsti in base al modello e al redshift selezionati.Una stima del contenuto di massa stellare (in unità di log10(M⊙)) è data da "Stell_Mass". Le magnitudini assolute nel Johnson B- banda ("M_B") sono stimate per ogni rilevamento in base al suo redshift e al tipo spettrale più probabile.


Come pensano i computer negli scacchi

Nel corso del tempo, un certo numero di persone ha sollevato domande interessanti sull'intelligenza (artificiale) del computer e sugli scacchi, cosa fanno realmente i motori scacchistici e come, e fino a che punto quella tecnologia potrebbe arrivare rispetto all'intelligenza umana.

Vorrei offrire alcuni pensieri e indicazioni per quelli di voi che sono interessati ad approfondire questo argomento o anche solo a sapere come "pensano" i motori. Ho una laurea in informatica e ho esplorato l'AI (intelligenza artificiale) in particolare in modo approfondito, da qui la mia conoscenza dell'argomento.

Quindi siediti e rilassati per un breve corso accelerato sui motori di scacchi e fino a che punto arriva l'intelligenza artificiale oggi:

- I motori scacchistici riconoscono un certo numero di schemi (posizioni tipiche degli scacchi) più schemi e più raffinati sono questi schemi, maggiore è la qualità del motore. Alcuni di questi sono schemi di fine partita (ad esempio, simili al tablebase di Nalimov), mentre altri sono schemi di mediogioco (ad esempio, buone mosse da giocare contro pedoni isolati, ecc.). Hanno anche vasti database di apertura, quindi "sanno" cosa è stato giocato da giocatori forti prima e come quei giochi sono continuati e finiti.

- I motori scacchistici valutano una posizione in parte in base al bilancio materiale (dove ogni pezzo ha un valore preimpostato, che può cambiare in base a quanto è sviluppato e attivo ciascun pezzo nel gioco specifico, che è di per sé una caratteristica posizionale) e in parte basato sulle caratteristiche posizionali (che derivano da quegli schemi di cui ho parlato). L'unità materiale di base è 1 pedone, che è approssimativamente uguale a 1.00, quindi se vedi un motore dare una valutazione di +1.00, significa che considera la posizione del bianco equivalente a quella in cui quel lato ha 1 pedone in più (anche se tutto questo vantaggio può derivare da caratteristiche posizionali, non materiali). In genere, un vantaggio di +1,00 (o più) è sufficiente affinché quella parte vinca la partita, se giocata correttamente, mentre un vantaggio al di sotto di tale soglia indica una probabilità di pareggio. (Se il nero ha un vantaggio, la valutazione sarebbe espressa in numeri negativi ma con la stessa grandezza, ad es. -0,58.) Naturalmente, non c'è una linea netta tra l'uno e l'altro, ma è una ragionevole regola empirica da tenere in considerazione mente.

- Ogni mossa ha due parti: mossa del bianco e mossa del nero. Ognuna di queste due è una mezza mossa chiamata. In termini leggermente più tecnici, questo termine "mezza mossa" è utile nei motori scacchistici (come scoprirai se studi l'intelligenza artificiale) quando il motore esegue quella che viene chiamata "ricerca e sfoltimento alfa-beta". Quest'ultimo è un termine di fantasia per costruire un albero di possibilità e poi valutarlo un passo alla volta mentre attraversa quell'albero dal basso (foglie) all'alto (radice). (In informatica gli alberi non sono come quelli in natura.) Quindi, ogni mezzo movimento corrisponde a un livello di profondità del tuo albero. Ad un dato livello, il motore tenta di massimizzare la funzione di valutazione (che corrisponde a scegliere una mossa che sia il più forte possibile per te, per aumentare al massimo la funzione di valutazione), mentre al livello successivo tenta di minimizzare quella funzione ( che corrisponde a scegliere la mossa migliore dell'avversario, che dal tuo punto di vista è la peggiore che puoi aspettarti di affrontare - ecco perché sta minimizzando la funzione lì).

- I motori moderni non sono primitivi, quindi eliminano anticipatamente alcune varianti e non sprecano tempo (o memoria) per esplorarli in profondità. (Questa è la "potatura alfa-beta" dell'albero delle possibili mosse.) A volte questa potatura può comportare l'ignoranza di un sacrificio perfettamente valido (motivo per cui i motori tendono a non essere molto bravi a tagliare le linee), ma la maggior parte del tempo che fa risparmiare un'enorme quantità di tempo, che può essere speso meglio per valutare altre mosse potenzialmente utili. Il problema della memoria infatti non è così grave, poiché una volta che il motore scarta una data possibilità, ripulisce e riutilizza quella memoria, pur conservando solo una codifica delle continuazioni potenzialmente fruttuose.

- I motori usano l'euristica (nel gergo umano queste sono regole pratiche -- principi che possono essere o non essere veri, ma la maggior parte delle volte sono veri), e più queste euristiche conoscono (ad esempio, la differenza tra pedoni di torre e altri pedoni, differenza tra pedoni passati e pedoni arretrati, alcune considerazioni strategiche e posizionali, ecc.) più forti possono essere i motori. Ciò include anche la conoscenza di schemi tipici, motivo per cui i computer sono bravi a risolvere i tipici enigmi degli scacchi, perché i puzzle sono una forma distillata di schemi.

- Sul tema se i motori possono migliorare nel tempo, la risposta è "Assolutamente sì". Sia in termini di quanto profondo sono in grado di pensare, sia di quanto veramente intelligenti possono diventare (cioè, capacità di vedere e riconoscere più schemi oltre il calcolo grezzo). Se leggi libri sul funzionamento del cervello umano, ti renderai conto che le persone in quel ramo della scienza credono che anche noi, umani, impariamo e agiamo basandoci esclusivamente sulla corrispondenza dei modelli: riconoscendo i modelli nel nostro ambiente e agendo su di essi, in base sulle azioni inconsce e consce che sono programmate nella nostra psiche.
La profondità di esplorazione di un motore scacchistico (a meno che non sia limitata da un essere umano che utilizza un parametro specifico) dipende dalla velocità di elaborazione del computer (una combinazione di velocità di clock, dimensione della memoria, velocità di trasferimento del bus, velocità di ricerca del disco, ecc.): a un computer più potente è in grado di calcolare di più in un determinato lasso di tempo. Ero in grado di battere alcuni motori al livello 5 anni fa, ora faccio fatica al livello 2 - ecco quanto sono arrivati ​​​​(presumo di non essere peggio di un tempo).

- Se i motori scacchistici saranno mai in grado di esprimere in termini umani perché fanno qualcosa e non altro, questo è uno dei Santi Graal dell'intelligenza artificiale. Mentre con l'uso di sistemi esperti si può ottenere una certa trazione nell'area, la difficoltà deriva dalla necessità di decodificare i loro calcoli grezzi in qualcosa che assomigli a un processo di pensiero (alla fine, i motori fanno calcoli grezzi più di ogni altra cosa e sono estremamente bravo). Per il momento gli umani sono solo in grado di bilanciare in qualche modo la forza dei motori scacchistici sulla base di una migliore intuizione e conoscenza degli schemi (cosa cercare, cosa non cercare, ecc.) - ma questo ha i suoi limiti che non sono avanzando quasi alla velocità di calcolo delle macchine.
Coloro che sono interessati ad approfondire possono consultare l'argomento "Test di Turing" ( http://en.wikipedia.org/wiki/Turing_test) -- questa è una cartina di tornasole dell'intelligenza: in parole povere, si tratta di se un computer potrebbe ingannare un essere umano in modo che non sia in grado di distinguere tra risposte generate dall'uomo e risposte generate dal computer a una serie di domande che l'essere umano pone. Chiaramente, non siamo ancora arrivati, ma si avvicina con il tempo.

- Per quanto riguarda l'opportunità o meno di utilizzare i motori scacchistici:
I GM ottengono un forte amico per poco o nessun denaro quando usano un motore. Non è facile trovare qualcuno al tuo livello quando sei un giocatore molto forte e vuoi allenarti, diciamo, nel bel mezzo della notte, o preparare una novità per la partita del torneo di domani anche mentre dormi! I motori possono fare questo genere di cose abbastanza bene se gli dai abbastanza tempo. Inoltre, possono essere molto bravi a suggerire possibili risorse nascoste, il che per un giocatore di livello master è sufficiente (possono capire il significato dietro una mossa a causa della loro vasta esperienza, se gli dai solo un piccolo suggerimento, senza bisogno per una spiegazione approfondita).
Con i giocatori occasionali, tuttavia, spesso non è così, quindi un motore forte è molto meno utile a chi sta ancora imparando le basi del gioco, perché ha bisogno invece di un vero allenatore, qualcuno che possa allenarlo a vedere e a esprimere le idee e le strategie in un linguaggio comprensibile per l'uomo.

- Per comprendere le somiglianze e le differenze tra i giocatori di scacchi umani e i moderni motori di computer, si può presumere (che è un presupposto corretto, vicino alla realtà) che un moderno computer/motore di scacchi assomigli a un giocatore di scacchi umano che ha tutte le seguenti caratteristiche:

  • altamente disciplinato (vale a dire, affidabile coerente nelle decisioni che prende)
  • completamente impassibile (cioè, una sconfitta e una vittoria sono semplicemente due stati, nessuno dei due influisce sulla capacità della macchina di giocare più giochi in modo ugualmente forte e coerente anche mentre la forza di gioco dei computer dipende da vari parametri, nessuno di questi ha a che fare con chi è l'avversario nel senso di eventuali gerarchie/culti)
  • estremamente ben informato (cioè, ha una conoscenza completa e non offuscata delle aperture, delle posizioni di fine partita, dell'euristica strategica del medio gioco e di altri schemi che sono stati programmati in esso)
  • molto forte (cioè capace di battere anche i GM, per i motori più avanzati)
  • non fa quasi nessun errore di calcolo, ad eccezione di quelli dovuti alla finestra limitata di quante mosse avanti è programmato (o consentito da pratici vincoli di tempo) per guardare
  • affidamento esclusivamente su inferenze logiche basato su euristiche e memoria preesistenti (di posizioni, aperture, schemi), ma ha nessun sostituto per l'intuizione umana ("istinto")
  • (in genere) incapace di imparare dai propri errori da solo, o per ricavare nuova conoscenza senza esplicita nuova programmazione da parte degli esseri umani.

Questi ultimi due aspetti sono il più grande vantaggio duraturo degli umani rispetto ai programmi di scacchi per computer. Sono le ragioni fondamentali che consentono ai GM più forti di battere ancora i computer occasionalmente (sebbene gli umani siano sempre più cauti nel provare, per paura di cosa potrebbe accadere alla loro immagine se fallissero).

Nota: molti contenuti aggiuntivi sono stati aggiunti nella sezione Domande e risposte di seguito, poiché le persone continuavano a farmi domande specifiche, alle quali ho fornito risposte lì. Assicurati di esaminare quella sezione per aspetti più interessanti dei pro e dei contro dei motori dei computer.

Spero che questo articolo sia stato utile. Si prega di porre ulteriori domande nei commenti e sarò lieto di offrire il mio punto di vista, basato su ciò che so sull'argomento.


Possiamo vedere l'oggetto più debole della luminosità del cielo?

Grazie per la risposta.

Sai dove posso trovare più dati sulla luminosità superficiale di picco (non sulla luminosità superficiale media) degli oggetti DSO, forse tutti gli oggetti NGC?

Tali dati non esistono, per molte ragioni.

Ma quello che esiste è il campo chiamato m'_e nell'RC3 di Vaucouleurs.

È possibile scaricare l'RC3 da fonti online.

Per diverse migliaia di galassie nell'elenco, esiste il campo m'_e.

Tipicamente, la dimensione di una galassia è determinata nei testi dall'isofota di magnitudine 25 (la linea di luminosità costante di magnitudine 25).

Ma una parte significativa di quella galassia è probabilmente molto molto debole, quindi non vediamo l'intera estensione della galassia.

Quello che m'_e c'è nell'RC3 è la luminosità media della superficie della metà più luminosa della galassia. Prendono una linea dal punto più luminoso all'isofota mag.25

e guarda il punto a metà. La luminosità media della superficie da lì fino al picco è la cifra m'_e.

Prendiamo l'esempio di M94 (NGC4736).

La magnitudine totale integrata è 8,2, quindi è abbastanza brillante.

La dimensione all'isofota m.25 è 12,3' x 10,8'. È enorme.

Ma la luminosità media della superficie è 13,3 in base alle dimensioni. Gran parte della galassia è debole che i libri elencano una magnitudine di 13,87 per la luminosità superficiale media complessiva.

È una galassia piuttosto debole, soprattutto, in termini di luminosità superficiale.

Ma la cifra M'_e dell'RC3 è di magnitudine 10,03, quindi la metà più luminosa è una vista molto semplice, anche in un piccolo telescopio. È facile in un 4", per esempio, ma

ciò che vede il 4" è principalmente la parte più luminosa.

Le RC non hanno questa cifra per la maggior parte delle galassie nell'elenco.

Allego anche un elenco di tutti gli ammassi globulari normalmente osservati. Mostra il diametro di ciascun globulare all'isofota di magnitudine 25 e anche all'isofota di magnitudine 22.

Per la maggior parte degli osservatori in siti urbani o suburbani, la dimensione mag.22 è più rilevante. L'elenco mostra anche la magnitudine della stella più brillante per ogni globulare e la magnitudine del ramo orizzontale.

Nota: la magnitudine 22 o 25 è una misurazione al secondo d'arco quadrato.

Le cifre che cito sopra per M94 sono una magnitudine al minuto per arco quadrato.

Per convertire uno nell'altro, il fattore di correzione è 8,89.

Don, in parole povere, in Globulars.docx, mu22 può essere considerata la dimensione rilevata sotto il cielo 18-19 e mu25 può essere considerata la dimensione rilevata sotto il cielo 22, giusto?

Esistono dati del genere sulla nebulosa?

#28 GlennLeDrew

I sistemi stellari come gli ammassi e le galassie hanno molto di più da dirci attraverso le misurazioni del profilo di luminosità rispetto alle nebulose. Le domande riguardanti il ​​processo di formazione stellare e la successiva evoluzione, e il rapporto massa/luce della materia nell'universo, sono solo alcuni esempi in cui vengono rivelati importanti indizi studiando la distribuzione della luce.

Una mappatura dettagliata della distribuzione della luce nelle nebulose probabilmente non ha molto da rivelare di per sé. Non certo al grado di un saggio spettrografico degli elementi e del loro stato di ionizzazione. Il fatto che non sia stata intrapresa una mappatura completa della morfologia dell'illuminazione nelle nebulose potrebbe dirci qualcosa della minore priorità assegnata a questo aspetto della loro manifestazione.

#29 Starman1

Grazie per la risposta.

Sai dove posso trovare più dati sulla luminosità superficiale di picco (non sulla luminosità superficiale media) degli oggetti DSO, forse tutti gli oggetti NGC?

Tali dati non esistono, per molte ragioni.

Ma quello che esiste è il campo chiamato m'_e nell'RC3 di Vaucouleurs.

È possibile scaricare l'RC3 da fonti online.

Per diverse migliaia di galassie nell'elenco, esiste il campo m'_e.

Tipicamente, la dimensione di una galassia è determinata nei testi dall'isofota di magnitudine 25 (la linea di luminosità costante di magnitudine 25).

Ma una parte significativa di quella galassia è probabilmente molto molto debole, quindi non vediamo l'intera estensione della galassia.

Quello che m'_e c'è nell'RC3 è la luminosità media della superficie della metà più luminosa della galassia. Prendono una linea dal punto più luminoso all'isofota mag.25

e guarda il punto a metà. La luminosità media della superficie da lì fino al picco è la cifra m'_e.

Prendiamo l'esempio di M94 (NGC4736).

La magnitudine totale integrata è 8,2, quindi è abbastanza brillante.

La dimensione all'isofota m.25 è 12,3' x 10,8'. È enorme.

Ma la luminosità media della superficie è 13,3 in base alle dimensioni. Gran parte della galassia è debole che i libri elencano una magnitudine di 13,87 per la luminosità superficiale media complessiva.

È una galassia piuttosto debole, soprattutto, in termini di luminosità superficiale.

But the RC3's M'_e figure is magnitude 10.03, so the brightest half is a very easy view, even in a small scope. It's easy in a 4", for example, but

what the 4" sees is primarily the brightest part.

The RCs does not have this figure for most of the galaxies in the list.

I also attach a list of all the globular clusters normally observed. It shows the diameter of each globular at the magnitude 25 isophote, and also the magnitude 22 isophote.

For most observers in urban to suburban sites, the mag.22 size is more relevant. The list also shows the brightest star magnitude for each globular and the horizontal branch magnitude.

Note: magnitude 22 or 25 is a per square arc-second measurement.

The figures I quote above for M94 are a per square arc minute magnitude.

To convert one to the other, the correction factor is 8.89.

Don, so roughly speaking, in Globulars.docx, mu22 can be considered to be the size detected under 18-19 sky and mu25 can be considered to be the size that detected under 22 sky, right?

Is there any such kind of data about nebula?

The mag.25 size is what is seen from, say, a mag.21 to 22 sky, i.e. a "dark sky".

Glenn's reply is apropos for nebulae.

Nebulae are not brightest in the center and gradually get dimmer toward the outside like galaxies and star clusters. They usually have clumpy sections of brightness.

A map of isophotes would look like a topo map in the mountains.

#30 GlennLeDrew

To understand how sky brightness impacts the brightness distribution within an object picture this:

We start with a cross sectional slice through an object as seen from space, graphing the brightness on a 2-D array. Let's imagine it's an intricately detailed nebula. Our slice on the graph will look like a small mountain range, with peaks and valleys, tapering to the "zero" brightness of space at the extremities of the plot. (The sky in space is not of zero brightness, but let's simplify here.)

Now we add progressively brighter sky glow. We can track the changes in two ways, but let's do this. We keep the surrounding "zero" sky brightness at zero, a process called normalization. Even though the sky and object are brightening together, we normalize to the sky brightness as our fiducial of "zero" brightness, thus revealing that variable of prime importance and interest--contrast.

So. As the sky gets ever brighter, how does this impact our plot? In a nutshell, the hills and valleys would give the appearance of 'melting' down to lower levels, the 'elevation' everywhere decreasing. Ultimately, at sufficient sky brightness (like that in daytime) the whole plot will have settled to essentially zero, or the brightness of the sky itself.

Let's suppose that the space-based measure had the nebula's peripheral and peak SB at, say, 25 and 15 MPSAS, respectively, for a 10 magnitude delta. We now interpose a sky glow of 20 MPSAS, which is 5 magnitudes (100X) brighter that the sky of space. The peripheral brightness will also equal the new sky brightness, or 20 MPSAS. The peak brightness of 15 MPSAS is now 5 magnitudes brighter than the sky (versus 10m previously), with sky and object SB adding to result in that peak brightness being 14.99 MPSAS, or hardly brighter than as seen from space. The apparent brightness range for the nebula has shrunk from 10 to 5.01 magnitudes.

Now we boost sky SB by another 5 magnitudes, to 15 MPSAS (fairly bright twilight). The nebula's periphery, as before, is still equal to the sky SB, currently 15 MPSAS. The peak SB of 15 MPSAS equals that of the sky, with the resultant being 2X, or 0.75m brighter, making for 14.25 MPSAS. The brightness range now is a mere 0.75 magnitude.

If we keep brightening the sky, the nebula's edge brightness always equals sky brightness. The peak brightness difference with respect to the sky keeps diminishing. Conceptually, if we had a (currently magical) camera of sufficient bit depth and discrimination in brightness differences, we should be able to take images of DSOs in the daytime and recover information. But as it stands at this point, in daytime a nebula is *really* bright, but of *exceedingly* low contrast. This illustrates why our visual system is principally a contrast detector there must exist sufficient differences in brightness in order for more than a featureless flux to be seen.

#31 NEOhio

This is a great discussion, something I have wondered about a lot.

One thing that does not seem to be addressed in a lot of detail (though I have not read the links) is aperture. In general, larger aperture means more light collection means ability to see fainter objects. However, I have read posts etc that suggest (or at least I interpreted them as suggesting) that for a given brightness of the sky at some point this stops working. Said another way, for a given sky brightness there is some maximum aperture beyond which no further benefit is gained by going larger in aperture. I had interpreted this limit as due to the objects at the limit for that maximum aperture being of the same brightness as the sky, but based on this thread that is apparently wrong.

So now I am wondering: (1) Is there a maximum aperture for a given sky brightness? and if so, then (2) what is the aperture-limiting mechanism?

#32 GlennLeDrew

For extended objects, aperture *only* buys you increased image scale and resolving power. Now, for small objects, or for finer details in an object, one must employ some minimum aperture in order to enlarge the image sufficiently to detect the object/details. The lower the object surface brightness/contrast, the more it must be enlarged on the retina.

And so the application of aperture on extended sources has little if anything to do with object brightness *by itself*, for all apertures at given exit pupil deliver the same image surface brightness. Rather, it's all about object size and contrast.

A rule to burn into permanent memory: A telescope can never deliver surface brightness greater than that perceived by the eye alone. At best it can only approach that obtained by the naked eye, because of inevitable transmission losses.

And so aperture is there merely to deliver more detail. After first enlarging sufficiently for detection in the first place.

Less experienced telescopists often struggle to completely internalize this basic fact of optics. The way a point or near-point source is brightened directly as the area of the light collecting aperture does not apply to extended sources. A good first attempt to viscerally understand why this is so can be as follows:

Place a pinhole in foil over a flashlight. Set it on a bench against a wall. Place a magazine photo beside the light. Start from the opposite side of the room, and walk ever closer to the light. Compare the changes in brightness for the light and the wall. You should find the light brightening as predicted by the inverse square law it quadruples in brightness for each halving of distance. But the photo beside the light changes not the slightest in its surface brightness.

The foregoing is *exactly* the operation of increased aperture/magnifications n when you observe a star vs a nebula. As you walk nearer to your subjects, your eye's pupil subtends an increasing angular size as seen from the subjects this is equivalent to increasing your iris diameter if you remained at your starting place. Getting closer is equivalent to increasing the magnification, and thus increasing the focal length of your eye if you remained at the starting place.

If you halve the distance to your subjects, this is equivalent to doubling the size of your eye iris aperture and lens focal length are doubled. The same doubling of image scale for the photo, the same quadrupling of brightness for the pinhole, the same unchanged surface brightness for the photo, and the same doubling of linear resolving power obtains for both the halving of viewing distance and scaling up the eye by a factor of 2.

For an object like M42, whether you traveled 100X closer to it and gazed with your unaided eye, or remained on Terra and employed a telescope delivering 100X with an iris-equalling exit pupil, you would in essence enjoy the same view. The Trapezium stars would be 10,000X brighter, but the nebula's surface brightness would be unchanged (discounting the small losses in telescope transmission efficiency and atmospheric and interstellar extinction.) While the surface brightness is no different, the 100X larger diameter occupies 10,000X more area. A given surface brightness expanded to cover a 10,000X larger area has an *integrated* brightness 10,000X greater. And so while it is indeed correct to say that the nebula is 10,000X brighter--just as for the stars--this does not translate into anything like a commensurate increase in the photon flux at a retinal cell. All that nebular light has been expanded in area so as to exactly counter the gain in light grasp.


Watch the video: Yadda Mace Mai Ciki Zata Gane Namiji Ne A Cikinta Ko Mace Ce (Gennaio 2022).