Astronomia

Forza per correggere $sigma_{8}$ o $A_{s}$ per le previsioni

Forza per correggere $sigma_{8}$ o $A_{s}$ per le previsioni

Nell'ambito delle Previsioni con il formalismo di Fisher, faccio variare i parametri cosmologici per calcolare gli elementi della matrice di Fisher.

Innanzitutto, genero con il codice CAMB uno spettro di potenza lineare. Quindi, da questo, sto calcolando $sigma_{8, ext{lineare}}$.

In secondo luogo, prima di rilanciare il codice CAMB in regime non lineare, applico una correzione su $A_s$ (ampiezza dello spettro di potenza primordiale), da una semplice relazione di proporzionalità sulla 2 $sigma8$ (fiduciale e lineare), per ottenere un nuovo $A_{s, ext{modificato}}$ che produrrà lo stesso $sigma_{8, ext{fiducial}}$ dopo l'esecuzione in regime non lineare del codice CAMB.

Ad esempio, se $sigma_{8, ext{lineare}}$ è superiore a $sigma_{8, ext{fiducial}}$, eseguo la seguente correzione prima di avviare il regime CAMB non lineare:

$A_{s, ext{modified}} = A_{s, ext{fiducial}},igg(dfrac{sigma_{8, ext{fiducial}}}{sigma_{8, ext {lineare}}}igg)^2$

Così, $A_{s, ext{modificato}}$ sarà più piccolo di $A_{s, ext{fiduciale}}$.

Il mio problema principale di comprensione:

1) Perché dobbiamo fare questa correzione?, intendo calcolare un nuovo $A_{s, ext{modificato}}$ che darà un nuovo $sigma_{8, ext{non_lineare}}$ uguale a $sigma_{8, ext{fiducial}}$ (o forse $sigma8_{lineare}$, non sono sicuro della relazione di proporzionalità di cui sopra) ?

Per il momento, penso che vogliamo mantenere un valore fisso per $sigma_8$ essere coerenti con i dati delle osservazioni dove $sigma_8$ non cambia (fa $sigma_8$ corrispondono sempre implicitamente all'ampiezza delle fluttuazioni a $z =0$ ?) : ma non sono sicuro di cogliere questa sottigliezza.

2) A proposito, perché non calcoliamo una sola volta direttamente il regime non lineare invece di lanciare 2 volte il codice CAMB (prima in regime lineare e secondo in regime non lineare con questa correzione tra i due) ?

Grazie in anticipo per l'aiuto, anche una risposta sintetica sarebbe gradita.

Saluti


Palme a coda di cavallo in crescita

Le palme a coda di cavallo sono una pianta da interno dall'aspetto unico e longeva che prospera su negligenza benigna. Sono molto facili da coltivare, a patto di non innaffiarli troppo! Ecco come coltivare e prendersi cura di una palma a coda di cavallo nella tua casa.

Informazioni sulle palme a coda di cavallo

Nonostante il suo nome e l'aspetto simile a una palma, il palma coda di cavallo non è una vera "palma". In effetti, è più strettamente correlato alle piante del deserto nel Agave e Yucca generi (come gli alberi di Giosuè).

Il tipico palmo a coda di cavallo è costituito da un grande "moncone" a cupola, che si assottiglia in uno stelo più sottile. Dalla sommità del fusto si sviluppano una o più rosette di foglie lunghe, verdi e coriacee man mano che la pianta invecchia. All'interno, le foglie possono raggiungere una lunghezza di 3 piedi, ma all'aperto possono essere lunghe il doppio.

Nel suo ambiente nativo (Messico orientale), è noto che l'intera pianta raggiunge i 30 piedi di altezza! Tuttavia, le palme a coda di cavallo che vengono coltivate nei giardini come piante paesaggistiche di solito non raggiungono un'altezza superiore a 10 piedi. Tenuti in casa, raramente sono più alti di 4 piedi.

La cura di questa pianta è generalmente semplice, la difficoltà più comune è dover adattare le proprie abitudini di irrigazione alle sue esigenze di irrigazione!


Contenuti

Contesto storico Modifica

Durante gli anni '50, l'Air Force degli Stati Uniti propose di utilizzare un aliante pilotato riutilizzabile per eseguire operazioni militari come ricognizione, attacco satellitare e impiego di armi aria-terra. Alla fine degli anni '50, l'Air Force iniziò a sviluppare l'X-20 Dyna-Soar parzialmente riutilizzabile. L'Air Force ha collaborato con la NASA sul Dyna-Soar e ha iniziato ad addestrare sei piloti nel giugno 1961. I crescenti costi di sviluppo e la prioritizzazione del Progetto Gemini hanno portato alla cancellazione del programma Dyna-Soar nel dicembre 1963. Oltre al Dyna-Soar -Soar, l'Air Force aveva condotto uno studio nel 1957 per testare la fattibilità di booster riutilizzabili. Questa è diventata la base per l'aerospaziale, un veicolo spaziale completamente riutilizzabile che non è mai stato sviluppato oltre la fase di progettazione iniziale nel 1962-1963. [7]: 162-163

A partire dai primi anni '50, la NASA e l'Air Force hanno collaborato allo sviluppo di corpi di sollevamento per testare velivoli che generavano principalmente sollevamento dalle loro fusoliere anziché dalle ali e testarono la NASA M2-F1, Northrop M2-F2, Northrop M2-F3, Northrop HL -10, Martin-Marietta X-24A e Martin-Marietta X-24B. Il programma ha testato le caratteristiche aerodinamiche che sarebbero poi state incorporate nella progettazione dello Space Shuttle, compreso l'atterraggio senza motore da un'alta quota e velocità. [8] : 142 [9] : 16-18

Processo di progettazione Modifica

Nel settembre 1966, la NASA e l'Air Force pubblicarono uno studio congiunto concludendo che era necessario un nuovo veicolo per soddisfare le rispettive esigenze future e che un sistema parzialmente riutilizzabile sarebbe stata la soluzione più conveniente. [7] : 164 Il 10 agosto 1968, il capo dell'ufficio della NASA per il volo spaziale con equipaggio, George Mueller, annunciò il piano per uno shuttle riutilizzabile. La NASA emise una richiesta di proposta (RFP) per i progetti dell'Integrated Launch and Re- entry Vehicle (ILRV), che sarebbe poi diventato lo Space Shuttle. Piuttosto che aggiudicare un contratto basato su proposte iniziali, la NASA ha annunciato un approccio graduale per l'appalto e lo sviluppo dello Space Shuttle. La fase A era una richiesta di studi completati da società aerospaziali concorrenti, la fase B era una competizione tra due appaltatori per un contratto specifico, la fase C ha coinvolto la progettazione dei dettagli dei componenti del veicolo spaziale e la fase D è stata la produzione del veicolo spaziale. [10] [9]: 19–22

Nel dicembre 1968, la NASA creò lo Space Shuttle Task Group per determinare il design ottimale per un veicolo spaziale riutilizzabile e stipulò contratti di studio a General Dynamics, Lockheed, McDonnell Douglas e North American Rockwell. Nel luglio 1969, lo Space Shuttle Task Group pubblicò un rapporto che stabiliva che lo Shuttle avrebbe supportato missioni con equipaggio di breve durata e stazione spaziale, nonché le capacità di lancio, servizio e recupero di satelliti. Il rapporto ha anche creato tre classi di una futura navetta riutilizzabile: la Classe I avrebbe un orbiter riutilizzabile montato su booster consumabili, la Classe II utilizzerebbe più motori a razzo sacrificabili e un singolo serbatoio di propellente (stadio e mezzo) e la Classe III avrebbe sia un orbiter riutilizzabile che un booster riutilizzabile. Nel settembre 1969, lo Space Task Group, sotto la guida del vicepresidente Spiro Agnew, pubblicò un rapporto che chiedeva lo sviluppo di una navetta spaziale per portare persone e merci in orbita terrestre bassa (LEO), nonché un rimorchiatore spaziale per i trasferimenti tra le orbite e la Luna e uno stadio superiore nucleare riutilizzabile per i viaggi nello spazio profondo. [7] : 163–166 [4]

Dopo il rilascio del rapporto dello Space Shuttle Task Group, molti ingegneri aerospaziali hanno favorito la Classe III, un design completamente riutilizzabile a causa del risparmio percepito nei costi hardware. Max Faget, un ingegnere della NASA che aveva lavorato alla progettazione della capsula Mercury, ha brevettato un progetto per un sistema completamente recuperabile a due stadi con un orbiter ad ala dritta montato su un booster ad ala dritta più grande. [11] [12] L'Air Force Flight Dynamics Laboratory ha sostenuto che un design ad ala dritta non sarebbe in grado di resistere alle elevate sollecitazioni termiche e aerodinamiche durante il rientro e non fornirebbe la capacità cross-range richiesta. Inoltre, l'Air Force richiedeva una capacità di carico utile maggiore di quella consentita dal progetto di Faget. Nel gennaio 1971, la NASA e la leadership dell'Air Force decisero che un orbiter riutilizzabile con ala a delta montato su un serbatoio di propellente consumabile sarebbe stato il design ottimale per lo Space Shuttle. [7] : 166

Dopo aver stabilito la necessità di un veicolo spaziale riutilizzabile e pesante, la NASA e l'Air Force hanno determinato i requisiti di progettazione dei rispettivi servizi. L'Air Force prevedeva di utilizzare lo Space Shuttle per lanciare grandi satelliti e richiedeva che fosse in grado di sollevare 29.000 kg (65.000 lb) verso un LEO verso est o 18.000 kg (40.000 lb) in un'orbita polare. I progetti dei satelliti richiedevano anche che lo Space Shuttle avesse un vano di carico utile di 4,6 per 18 m (15 per 60 piedi). La NASA ha valutato i motori F-1 e J-2 dai razzi Saturn e ha determinato che erano insufficienti per i requisiti dello Space Shuttle nel luglio 1971, ha emesso un contratto con Rocketdyne per iniziare lo sviluppo del motore RS-25. [7]: 165–170

La NASA ha esaminato 29 potenziali progetti per lo Space Shuttle e ha stabilito che dovrebbe essere utilizzato un progetto con due booster laterali e che i booster dovrebbero essere riutilizzabili per ridurre i costi. [7] : 167 La NASA e l'Air Force hanno scelto di utilizzare booster a propellente solido a causa dei costi inferiori e della facilità di rimessa a nuovo per il riutilizzo dopo l'atterraggio nell'oceano. Nel gennaio 1972, il presidente Richard Nixon approvò lo Shuttle e la NASA decise il suo progetto definitivo a marzo. Quell'agosto, la NASA ha assegnato il contratto per la costruzione dell'orbiter alla North American Rockwell, il contratto per il razzo solido a Morton Thiokol e il contratto per il serbatoio esterno a Martin Marietta. [7] : 170–173

Sviluppo Modifica

Il 4 giugno 1974, Rockwell iniziò la costruzione del primo orbiter, OV-101, che in seguito sarebbe stato chiamato Impresa. Impresa è stato progettato come veicolo di prova e non includeva motori o schermatura termica. La costruzione fu completata il 17 settembre 1976 e Impresa è stato trasferito alla Edwards Air Force Base per iniziare i test. [7] : 173 [13] Rockwell costruì il Main Propulsion Test Article (MPTA)-098, che era un traliccio strutturale montato sull'ET con tre motori RS-25 attaccati. È stato testato presso il National Space Technology Laboratory (NSTL) per garantire che i motori potessero funzionare in sicurezza attraverso il profilo di lancio. [14] : II-163 Rockwell ha condotto prove di stress meccanico e termico sull'articolo di prova strutturale (STA)-099 per determinare gli effetti delle sollecitazioni aerodinamiche e termiche durante il lancio e il rientro. [14] : I-415

L'inizio dello sviluppo del motore principale dello Space Shuttle RS-25 è stato ritardato di nove mesi mentre Pratt & Whitney ha contestato il contratto che era stato assegnato a Rocketdyne. Il primo motore è stato completato nel marzo 1975, dopo problemi con lo sviluppo del primo motore acceleratore e riutilizzabile. Durante i test del motore, l'RS-25 ha riscontrato guasti multipli agli ugelli e pale della turbina rotte. Nonostante i problemi durante i test, la NASA ordinò i nove motori RS-25 necessari per i suoi tre orbiter in costruzione nel maggio 1978. [7] : 174-175

La NASA ha subito notevoli ritardi nello sviluppo del sistema di protezione termica dello Space Shuttle. La precedente navicella spaziale della NASA aveva utilizzato scudi termici ablativi, ma non potevano essere riutilizzati. La NASA ha scelto di utilizzare piastrelle di ceramica per la protezione termica, poiché la navetta potrebbe essere costruita in alluminio leggero e le piastrelle potrebbero essere sostituite individualmente secondo necessità. La costruzione è iniziata il Colombia il 27 marzo 1975 e fu consegnato al KSC il 25 marzo 1979. [7] : 175-177 Al momento del suo arrivo al KSC, Colombia aveva ancora 6.000 delle sue 30.000 piastrelle rimaste da installare. Tuttavia, molte delle piastrelle che erano state originariamente installate hanno dovuto essere sostituite, richiedendo due anni di installazione prima Colombia potrebbe volare. [9] : 46–48

Il 5 gennaio 1979, la NASA commissionò un secondo orbiter. Più tardi quel mese, Rockwell iniziò a convertire STA-099 in OV-099, in seguito chiamato Sfidante. Il 29 gennaio 1979, la NASA ordinò due orbiter aggiuntivi, OV-103 e OV-104, che furono nominati Scoperta e Atlantide. Costruzione di OV-105, in seguito chiamato Tentativo, iniziò nel febbraio 1982, ma la NASA decise di limitare la flotta dello Space Shuttle a quattro orbiter nel 1983. Dopo la perdita di Sfidante, la NASA ha ripreso la produzione di Tentativo nel settembre 1987. [9] : 52–53

Prova Modifica

Dopo essere arrivato alla Edwards AFB, Impresa è stato sottoposto a test di volo con lo Shuttle Carrier Aircraft, un Boeing 747 che era stato modificato per trasportare l'orbiter. Nel febbraio 1977, Impresa ha iniziato le prove di avvicinamento e atterraggio ed è stato sottoposto a voli in cattività, dove è rimasto attaccato allo Shuttle Carrier Aircraft per tutta la durata del volo. Il 12 agosto 1977, Impresa ha condotto il suo primo test di planata, dove si è staccato dallo Shuttle Carrier Aircraft ed è atterrato a Edwards AFB. [7] : 173-174 Dopo quattro voli aggiuntivi, Impresa fu trasferito al Marshall Space Flight Center (MSFC) il 13 marzo 1978. Impresa è stato sottoposto a prove di vibrazione nel test di vibrazione al suolo verticale Mated, dove è stato collegato a un serbatoio esterno e a propulsori a propellente solido, e ha subito vibrazioni per simulare le sollecitazioni di lancio. Nell'aprile 1979, Impresa è stato portato al KSC, dove è stato collegato a un serbatoio esterno e a propulsori a razzo solido, e spostato su LC-39. Una volta installato sulla rampa di lancio, lo Space Shuttle è stato utilizzato per verificare il corretto posizionamento dell'hardware del complesso di lancio. Impresa fu riportato in California nell'agosto 1979, e in seguito servì nello sviluppo dell'SLC-6 a Vandenberg AFB nel 1984. [9] : 40-41

Il 24 novembre 1980, Colombia è stato accoppiato con il suo serbatoio esterno e i propulsori a razzo solido, ed è stato spostato su LC-39 il 29 dicembre. [14] : III-22 La prima missione dello Space Shuttle, STS-1, sarebbe stata la prima volta che la NASA avrebbe eseguito una prima missione con equipaggio -volo di un veicolo spaziale. [14] : III-24 Il 12 aprile 1981, lo Space Shuttle è stato lanciato per la prima volta ed è stato pilotato da John Young e Robert Crippen. Durante la missione di due giorni, Young e Crippen hanno testato l'attrezzatura a bordo della navetta e hanno scoperto che molte delle piastrelle di ceramica erano cadute dal lato superiore della Colombia. [15] : 277-278 La NASA si è coordinata con l'Air Force per utilizzare i satelliti per l'immagine della parte inferiore di Colombia, e ha stabilito che non c'erano danni. [15]: 335-337 Colombia rientrò nell'atmosfera e atterrò a Edwards AFB il 14 aprile. [14] : III-24

La NASA ha condotto tre voli di prova aggiuntivi con Colombia nel 1981 e 1982. Il 4 luglio 1982, l'STS-4, pilotato da Ken Mattingly e Henry Hartsfield, atterrò su una pista di cemento all'Edwards AFB. Il presidente Ronald Reagan e sua moglie Nancy hanno incontrato l'equipaggio e hanno tenuto un discorso. Dopo STS-4, la NASA ha dichiarato operativo il suo Space Transportation System (STS). [7] : 178–179 [16]

Lo Space Shuttle è stato il primo veicolo spaziale orbitale operativo progettato per il riutilizzo. Ogni orbiter dello Space Shuttle è stato progettato per una durata prevista di 100 lanci o dieci anni di vita operativa, anche se in seguito è stata estesa. [17] : 11 Al momento del lancio, consisteva nell'orbiter, che conteneva l'equipaggio e il carico utile, il serbatoio esterno (ET) e i due propulsori a razzo solido (SRB). [18] : 363

La responsabilità per i componenti dello Shuttle è stata distribuita tra più centri sul campo della NASA. Il KSC era responsabile delle operazioni di lancio, atterraggio e turnaround per le orbite equatoriali (l'unico profilo orbitale effettivamente utilizzato nel programma). L'US Air Force presso la base aeronautica di Vandenberg era responsabile delle operazioni di lancio, atterraggio e turnaround per le orbite polari (sebbene questo non sia mai stato utilizzato). Il Johnson Space Center (JSC) fungeva da punto centrale per tutte le operazioni dello Shuttle e l'MSFC era responsabile dei motori principali, del serbatoio esterno e dei razzi a propellente solido. Il John C. Stennis Space Center ha gestito i test del motore principale e il Goddard Space Flight Center ha gestito la rete di monitoraggio globale. [19]

Orbiter Modifica

L'orbiter aveva elementi di design e capacità sia di un razzo che di un aereo per consentirgli di lanciarsi verticalmente e poi atterrare come un aliante. [18] : 365 La sua fusoliera in tre parti forniva supporto per il compartimento dell'equipaggio, la stiva di carico, le superfici di volo e i motori. La parte posteriore dell'orbiter conteneva i motori principali dello Space Shuttle (SSME), che fornivano la spinta durante il lancio, così come l'Orbital Manoeuvering System (OMS), che consentiva all'orbiter di raggiungere, modificare e uscire dalla sua orbita una volta nello spazio. Le sue ali a doppio delta erano lunghe 18 m (60 piedi) e venivano spazzate di 81° sul bordo d'attacco interno e di 45° sul bordo d'attacco esterno. Ogni ala aveva un elevone interno ed esterno per fornire il controllo del volo durante il rientro, insieme a un lembo situato tra le ali, sotto i motori per controllare il beccheggio. Lo stabilizzatore verticale dell'orbiter è stato spostato all'indietro di 45° e conteneva un timone che poteva dividersi per fungere da freno di velocità. [18] : 382–389 Lo stabilizzatore verticale conteneva anche un sistema di paracadute a trascinamento in due parti per rallentare l'orbiter dopo l'atterraggio. L'orbiter utilizzava un carrello di atterraggio retrattile con un carrello di atterraggio anteriore e due carrelli di atterraggio principali, ciascuno contenente due pneumatici. Il carrello di atterraggio principale conteneva due gruppi freno ciascuno e il carrello di atterraggio anteriore conteneva un meccanismo di sterzo elettroidraulico. [18]: 408–411

Modifica dell'equipaggio

L'equipaggio dello Space Shuttle variava a seconda della missione. I voli di prova avevano solo due membri ciascuno, il comandante e il pilota, entrambi piloti qualificati in grado di far volare e atterrare l'orbiter. Le operazioni in orbita, come gli esperimenti, il dispiegamento del carico utile e gli EVA, sono state condotte principalmente da specialisti di missione che sono stati specificamente addestrati per le missioni e i sistemi previsti. All'inizio del programma Space Shuttle, la NASA ha volato con specialisti del carico utile, che erano in genere specialisti di sistemi che lavoravano per l'azienda pagando per l'implementazione o le operazioni del carico utile. L'ultimo specialista del carico utile, Gregory B. Jarvis, ha volato su STS-51-L e i futuri non piloti sono stati designati come specialisti di missione. Un astronauta ha volato come ingegnere di volo spaziale con equipaggio sia su STS-51-C che su STS-51-J per servire come rappresentante militare per un carico utile del National Reconnaissance Office. Un equipaggio dello Space Shuttle aveva in genere sette astronauti, con STS-61-A che volava con otto. [14] : III-21

Scomparto equipaggio Modifica

Il compartimento dell'equipaggio comprendeva tre ponti ed era l'area pressurizzata e abitabile in tutte le missioni dello Space Shuttle. Il ponte di volo era composto da due posti per il comandante e il pilota, nonché da due a quattro posti aggiuntivi per i membri dell'equipaggio. Il ponte centrale era situato sotto il ponte di volo ed era il luogo in cui erano sistemate la cambusa e le cuccette dell'equipaggio, nonché tre o quattro sedili per i membri dell'equipaggio. Il ponte centrale conteneva la camera di equilibrio, che poteva supportare due astronauti in un'attività extraveicolare (EVA), nonché l'accesso a moduli di ricerca pressurizzati. Sotto il ponte centrale c'era un vano per le attrezzature, che conteneva i sistemi di controllo ambientale e gestione dei rifiuti. [9] : 60–62 [18] : 365–369

Nelle prime quattro missioni dello Shuttle, gli astronauti indossavano tute a pressione piena per l'alta quota dell'Aeronautica statunitense modificate, che includevano un casco a pressione piena durante la salita e la discesa. Dal quinto volo, STS-5, fino alla perdita di Sfidante, l'equipaggio indossava tute di volo nomex azzurre monopezzo e caschi a pressione parziale. Dopo il Sfidante disastro, i membri dell'equipaggio indossavano il Launch Entry Suit (LES), una versione a pressione parziale delle tute a pressione ad alta quota con un casco. Nel 1994, il LES è stato sostituito dall'Advanced Crew Escape Suit (ACES) a piena pressione, che ha migliorato la sicurezza degli astronauti in una situazione di emergenza. Colombia originariamente aveva modificato i sedili eiettabili zero-zero SR-71 installati per l'ALT e le prime quattro missioni, ma questi sono stati disabilitati dopo STS-4 e rimossi dopo STS-9. [18]: 370-371

Il ponte di volo era il livello più alto del compartimento dell'equipaggio e conteneva i controlli di volo per l'orbiter. Il comandante era seduto sul sedile anteriore sinistro e il pilota era seduto sul sedile anteriore destro, con da due a quattro posti aggiuntivi predisposti per membri dell'equipaggio aggiuntivi. I pannelli degli strumenti contenevano oltre 2.100 display e controlli, e il comandante e il pilota erano entrambi dotati di un display a testa in su (HUD) e di un controller manuale rotante (RHC) per azionare i motori durante il volo a motore e far volare l'orbiter durante il volo senza motore. Entrambi i sedili avevano anche i comandi del timone, per consentire il movimento del timone in volo e il timone a ruota anteriore a terra. [18] : 369–372 I veicoli orbiter erano originariamente installati con il sistema di visualizzazione CRT multifunzione (MCDS) per visualizzare e controllare le informazioni di volo. L'MCDS visualizzava le informazioni di volo sui sedili del comandante e del pilota, nonché sulla posizione dei sedili di poppa, e controllava anche i dati sull'HUD. Nel 1998, Atlantide è stato aggiornato con il Multifunction Electronic Display System (MEDS), che era un aggiornamento della cabina di pilotaggio di vetro agli strumenti di volo che ha sostituito le otto unità di visualizzazione MCDS con 11 schermi digitali colorati multifunzione. MEDS è stato pilotato per la prima volta nel maggio 2000 su STS-98 e gli altri veicoli orbitanti sono stati aggiornati ad esso. La sezione poppiera del volo conteneva finestre che guardavano nel vano di carico utile, così come un RHC per controllare il sistema di manipolazione remota durante le operazioni di carico. Inoltre, il ponte di volo di poppa aveva monitor per un televisore a circuito chiuso per visualizzare la stiva. [18]: 372–376

Il ponte centrale conteneva il deposito dell'attrezzatura dell'equipaggio, la zona notte, la cambusa, l'attrezzatura medica e le stazioni igieniche per l'equipaggio. L'equipaggio ha utilizzato armadietti modulari per riporre attrezzature che potevano essere ridimensionate in base alle proprie esigenze, nonché compartimenti del pavimento installati in modo permanente. Il ponte centrale conteneva un portello di babordo che l'equipaggio usava per entrare e uscire dalla Terra. Inoltre, ogni orbiter era originariamente installato con una camera di equilibrio interna nel ponte centrale. La camera di equilibrio interna è stata sostituita con una camera di equilibrio esterna nel vano di carico utile su pay Scoperta, Atlantide, e Tentativo per migliorare l'attracco con Mir e la ISS, insieme all'Orbiter Docking System. [14]: II-26-33

Sistemi di volo Modifica

L'orbiter era dotato di un sistema avionico per fornire informazioni e controllo durante il volo atmosferico. La sua suite avionica conteneva tre sistemi di atterraggio del raggio a scansione di microonde, tre giroscopi, tre TACAN, tre accelerometri, due altimetri radar, due altimetri barometrici, tre indicatori di assetto, due indicatori Mach e due transponder Mode C. Durante il rientro, l'equipaggio ha dispiegato due sonde di dati aerei quando viaggiava più lentamente di Mach 5. L'orbiter aveva tre unità di misurazione inerziale (IMU) che utilizzava per la guida e la navigazione durante tutte le fasi del volo. L'orbiter contiene due inseguitori stellari per allineare le IMU mentre si trova in orbita. Gli star tracker vengono schierati mentre sono in orbita e possono allinearsi automaticamente o manualmente su una stella. Nel 1991, la NASA ha iniziato ad aggiornare le unità di misura inerziale con un sistema di navigazione inerziale (INS), che ha fornito informazioni sulla posizione più accurate. Nel 1993, la NASA ha pilotato per la prima volta un ricevitore GPS a bordo della STS-51. Nel 1997, Honeywell ha iniziato a sviluppare un GPS/INS integrato per sostituire i sistemi IMU, INS e TACAN, che ha volato per la prima volta su STS-118 nell'agosto 2007 [18] : 402-403

Mentre era in orbita, l'equipaggio comunicava principalmente utilizzando una delle quattro radio in banda S, che fornivano comunicazioni voce e dati. Due delle radio in banda S erano ricetrasmettitori a modulazione di fase e potevano trasmettere e ricevere informazioni. Le altre due radio in banda S erano trasmettitori a modulazione di frequenza e venivano utilizzate per trasmettere dati alla NASA. Poiché le radio in banda S possono operare solo all'interno della loro linea di vista, la NASA ha utilizzato il sistema satellitare Tracking and Data Relay e le stazioni terrestri di Spacecraft Tracking and Data Acquisition Network per comunicare con l'orbiter durante tutta la sua orbita. Inoltre, l'orbiter ha distribuito un K . ad alta larghezza di bandatu radio a banda fuori dalla stiva, che potrebbe essere utilizzata anche come radar di appuntamento. L'orbiter era inoltre dotato di due radio UHF per le comunicazioni con il controllo del traffico aereo e gli astronauti che conducevano l'EVA. [18]: 403–404

Il sistema di controllo fly-by-wire dello Space Shuttle dipendeva interamente dal suo computer principale, il Data Processing System (DPS). Il DPS controllava i controlli di volo e i propulsori sull'orbiter, nonché l'ET e gli SRB durante il lancio. Il DPS consisteva in cinque computer generici (GPC), due unità di memoria di massa a nastro magnetico (MMU) e i sensori associati per monitorare i componenti dello Space Shuttle. [18] : 232–233 Il GPC originale utilizzato era l'IBM AP-101B, che utilizzava un'unità di elaborazione centrale (CPU) e un processore di input/output (IOP) separati e una memoria a stato solido non volatile. Dal 1991 al 1993, i veicoli orbitali sono stati aggiornati all'AP-101S, che ha migliorato la memoria e le capacità di elaborazione e ha ridotto il volume e il peso dei computer combinando CPU e IOP in un'unica unità. Quattro dei GPC sono stati caricati con il Primary Avionics Software System (PASS), che era un software specifico dello Space Shuttle che forniva il controllo durante tutte le fasi del volo. Durante l'ascesa, le manovre, il rientro e l'atterraggio, i quattro GPC PASS hanno funzionato in modo identico per produrre una ridondanza quadrupla e controllavano per errore i loro risultati. In caso di errore del software che avrebbe causato rapporti errati dai quattro GPC PASS, un quinto GPC eseguiva il Backup Flight System, che utilizzava un programma diverso e poteva controllare lo Space Shuttle durante l'ascesa, l'orbita e il rientro, ma non poteva supportare un intera missione. I cinque GPC sono stati separati in tre alloggiamenti separati all'interno del ponte centrale per fornire ridondanza in caso di guasto della ventola di raffreddamento. Dopo aver raggiunto l'orbita, l'equipaggio avrebbe cambiato alcune delle funzioni del GPC dalla guida, navigazione e controllo (GNC) alla gestione dei sistemi (SM) e al carico utile (PL) per supportare la missione operativa. [18] : 405–408 Lo Space Shuttle non fu lanciato se il suo volo sarebbe stato eseguito da dicembre a gennaio, poiché il suo software di volo avrebbe richiesto il ripristino dei computer del veicolo orbitante al cambio dell'anno. Nel 2007, gli ingegneri della NASA hanno ideato una soluzione in modo che i voli dello Space Shuttle potessero attraversare il confine di fine anno. [20]

Le missioni dello Space Shuttle in genere portavano un computer portatile di supporto generale (PGSC) che poteva integrarsi con i computer del veicolo orbitante e la suite di comunicazione, oltre a monitorare i dati scientifici e il carico utile. Le prime missioni portarono il Grid Compass, uno dei primi computer portatili, come PGSC, ma le missioni successive portarono i laptop Apple e Intel. [18] : 408 [21]

Baia di carico Modifica

La stiva di carico comprendeva la maggior parte della fusoliera del veicolo orbitante e forniva lo spazio di carico per i carichi utili dello Space Shuttle. Era lungo 18 m (60 piedi) e largo 4,6 m (15 piedi), e poteva ospitare carichi utili cilindrici fino a 4,6 m (15 piedi) di diametro. Due porte della baia di carico erano incernierate su entrambi i lati della baia e fornivano una tenuta relativamente ermetica per proteggere i carichi utili dal riscaldamento durante il lancio e il rientro. I carichi utili sono stati fissati nella stiva ai punti di attacco sui longheroni. Le porte del vano di carico utile svolgevano una funzione aggiuntiva come radiatori per il calore del veicolo orbitante e venivano aperte al raggiungimento dell'orbita per lo smaltimento del calore. [9] : 62–64

L'orbiter potrebbe essere utilizzato in combinazione con una varietà di componenti aggiuntivi a seconda della missione. Ciò includeva laboratori orbitali, [14]: II-304, 319 booster per il lancio di carichi utili più lontano nello spazio, [14]: II-326 il Remote Manipulator System (RMS), [14]: II-40 e per estendere la durata della missione . [14] : II-86 Per limitare il consumo di carburante mentre l'orbiter era attraccato alla ISS, è stato sviluppato lo Station-to-Shuttle Power Transfer System (SSPTS) per convertire e trasferire l'energia della stazione all'orbiter. [14] : II-87-88 L'SSPTS è stato utilizzato per la prima volta su STS-118, ed è stato installato su Scoperta e Tentativo. [14] : III-366–368

Modifica del sistema di manipolazione remota

Il Remote Manipulator System (RMS), noto anche come Canadarm, era un braccio meccanico attaccato alla stiva di carico. Potrebbe essere utilizzato per afferrare e manipolare i carichi utili, oltre a fungere da piattaforma mobile per gli astronauti che conducono un'EVA. L'RMS è stato costruito dalla società canadese Spar Aerospace ed è stato controllato da un astronauta all'interno del ponte di volo dell'orbiter utilizzando le finestre e la televisione a circuito chiuso. L'RMS consentiva sei gradi di libertà e aveva sei articolazioni situate in tre punti lungo il braccio. L'RMS originale poteva distribuire o recuperare carichi utili fino a 29.000 kg (65.000 lb), che sono stati successivamente migliorati a 270.000 kg (586.000 lb). [18]: 384–385

Spacelab Modifica

Il modulo Spacelab era un laboratorio pressurizzato finanziato dall'Europa che veniva trasportato all'interno della stiva di carico utile e consentiva la ricerca scientifica mentre era in orbita. Il modulo Spacelab conteneva due segmenti da 2,7 m (9 piedi) montati nell'estremità posteriore del vano di carico utile per mantenere il baricentro durante il volo. Gli astronauti sono entrati nel modulo Spacelab attraverso un tunnel di 2,7 m (8,72 piedi) o 5,8 m (18,88 piedi) che si collegava alla camera di equilibrio. L'attrezzatura Spacelab è stata principalmente immagazzinata in pallet, che hanno fornito spazio per entrambi gli esperimenti, nonché per computer e apparecchiature elettriche. [18] : 434–435 L'hardware dello Spacelab ha volato in 28 missioni fino al 1999 e ha studiato materie tra cui astronomia, microgravità, radar e scienze della vita. L'hardware di Spacelab ha anche supportato missioni come la manutenzione del telescopio spaziale Hubble (HST) e il rifornimento della stazione spaziale. Il modulo Spacelab è stato testato su STS-2 e STS-3 e la prima missione completa è stata su STS-9. [22]

Motori RS-25 Modifica

Tre motori RS-25, noti anche come Space Shuttle Main Engines (SSME), sono stati montati sulla fusoliera di poppa dell'orbiter in uno schema triangolare. Gli ugelli del motore potrebbero oscillare ±10,5° in beccheggio e ±8,5° in imbardata durante la salita per cambiare la direzione della loro spinta per guidare lo Shuttle. I motori riutilizzabili in lega di titanio erano indipendenti dal veicolo orbitante e sarebbero stati rimossi e sostituiti tra un volo e l'altro. L'RS-25 è un motore criogenico a ciclo di combustione a stadi che utilizzava ossigeno liquido e idrogeno e aveva una pressione della camera più elevata rispetto a qualsiasi precedente razzo liquido. La camera di combustione principale originale funzionava a una pressione massima di 226,5 bar (3.285 psi). L'ugello del motore è alto 287 cm (113 pollici) e ha un diametro interno di 229 cm (90,3 pollici). L'ugello è raffreddato da 1.080 linee interne che trasportano idrogeno liquido ed è protetto termicamente da materiale isolante e ablativo. [14]: II–177–183

I motori RS-25 hanno avuto diversi miglioramenti per aumentare l'affidabilità e la potenza. Durante il programma di sviluppo, Rocketdyne ha stabilito che il motore era in grado di funzionare in modo sicuro e affidabile al 104% della spinta originariamente specificata. Per mantenere i valori di spinta del motore coerenti con la documentazione e il software precedenti, la NASA ha mantenuto la spinta originariamente specificata al 100%, ma ha fatto funzionare l'RS-25 a una spinta più elevata. Le versioni di aggiornamento RS-25 sono state indicate come Block I e Block II. Il livello di spinta del 109% è stato raggiunto con i motori Block II nel 2001, che hanno ridotto la pressione della camera a 207,5 bar (3.010 psi), poiché aveva un'area della gola più ampia. La normale velocità massima era del 104 percento, con il 106% o il 109% utilizzato per l'interruzione della missione. [9] : 106–107

Sistema di manovra orbitale Modifica

L'Orbital Manoeuvering System (OMS) consisteva di due motori AJ10-190 montati a poppa e dei relativi serbatoi di propellente. I motori AJ10 utilizzavano monometilidrazina (MMH) ossidata da tetrossido di diazoto (N2oh4). I baccelli trasportavano un massimo di 2.140 kg (4.718 lb) di MMH e 3.526 kg (7.773 lb) di N2oh4. I motori OMS sono stati utilizzati dopo l'interruzione del motore principale (MECO) per l'inserimento orbitale. Durante il volo, sono stati utilizzati per i cambiamenti dell'orbita, così come per l'ustione di deorbita prima del rientro. Ogni motore OMS produceva 27.080 N (6.087 lbf) di spinta e l'intero sistema poteva fornire 305 m/s (1.000 piedi/s) di cambio di velocità. [14] : II–80

Sistema di protezione termica Modifica

L'orbiter era protetto dal calore durante il rientro dal sistema di protezione termica (TPS), uno strato protettivo a immersione termica attorno all'orbiter. In contrasto con i precedenti veicoli spaziali statunitensi, che avevano utilizzato scudi termici ablativi, la riutilizzabilità dell'orbiter richiedeva uno scudo termico multiuso. [9] : 72-73 Durante il rientro, il TPS ha sperimentato temperature fino a 1.600 °C (3.000 °F), ma ha dovuto mantenere la temperatura della pelle in alluminio del veicolo orbitante al di sotto di 180 °C (350 °F). Il TPS consisteva principalmente di quattro tipi di piastrelle. Il muso e i bordi d'attacco delle ali hanno sperimentato temperature superiori a 1.300 ° C (2.300 ° F) e sono stati protetti da tegole rinforzate in carbonio-carbonio (RCC). I pannelli RCC più spessi sono stati sviluppati e installati nel 1998 per prevenire danni da micrometeoroidi e detriti orbitali, e sono stati ulteriormente migliorati dopo i danni RCC causati nel Colombia disastro. A partire dall'STS-114, i veicoli orbitanti erano dotati del sistema di rilevamento dell'impatto del bordo anteriore dell'ala per avvisare l'equipaggio di qualsiasi potenziale danno. [14] : II-112-113 L'intera parte inferiore del veicolo orbitante, così come le altre superfici più calde, erano protette con un isolamento superficiale riutilizzabile ad alta temperatura. Le aree sulle parti superiori del veicolo orbitante sono state rivestite con un isolamento superficiale riutilizzabile bianco a bassa temperatura, che ha fornito protezione per temperature inferiori a 650 ° C (1.200 ° F). Le porte del vano di carico e le parti delle superfici dell'ala superiore sono state rivestite con un isolamento superficiale in feltro riutilizzabile, poiché la temperatura è rimasta al di sotto dei 370 ° C (700 ° F). [18] : 395

Serbatoio esterno Modifica

Il serbatoio esterno dello Space Shuttle (ET) trasportava il propellente per i motori principali dello Space Shuttle e collegava il veicolo orbitante con i razzi a propellente solido. L'ET era alto 47 m (153,8 piedi) e 8,4 m (27,6 piedi) di diametro e conteneva serbatoi separati per ossigeno liquido (LOX) e idrogeno liquido (LH2). Il serbatoio LOX era alloggiato nel muso dell'ET ed era alto 15 m (49,3 piedi). L'LH2 comprendeva la maggior parte dell'ET ed era alto 29 m (96,7 piedi). Il veicolo orbitante era attaccato all'ET su due piastre ombelicali, che contenevano cinque propellenti e due ombelicali elettrici, e attacchi strutturali avanti e indietro. L'esterno dell'ET è stato ricoperto di schiuma spray arancione per consentirgli di sopravvivere al calore dell'ascesa. [18]: 421–422

L'ET ha fornito propellente ai motori principali dello Space Shuttle dal decollo fino allo spegnimento del motore principale. L'ET si è separato dal veicolo orbitante 18 secondi dopo lo spegnimento del motore e potrebbe essere attivato automaticamente o manualmente. Al momento della separazione, il veicolo orbitante ha ritirato le sue piastre ombelicali e i cordoni ombelicali sono stati sigillati per impedire che il propellente in eccesso si sfogasse nel veicolo orbitante. Dopo che i bulloni attaccati agli attacchi strutturali sono stati tagliati, l'ET si è separato dal veicolo orbitante. Al momento della separazione, l'ossigeno gassoso è stato scaricato dal naso per far rotolare l'ET, assicurando che si rompesse al rientro. L'ET era l'unico componente principale del sistema dello Space Shuttle che non era stato riutilizzato e avrebbe viaggiato lungo una traiettoria balistica nell'Oceano Indiano o nel Pacifico. [18] : 422

Per le prime due missioni, STS-1 e STS-2, l'ET è stato ricoperto da 270 kg (595 libbre) di vernice al lattice ignifuga bianca per fornire protezione contro i danni causati dalle radiazioni ultraviolette. Ulteriori ricerche hanno determinato che la stessa schiuma arancione era sufficientemente protetta e che l'ET non era più ricoperto di vernice al lattice a partire da STS-3. [14] : II-210 Un carro armato leggero (LWT) fu lanciato per la prima volta su STS-6, che ridusse il peso del carro armato di 4.700 kg (10.300 libbre). Il peso dell'LWT è stato ridotto rimuovendo i componenti dall'LH2 serbatoio e riducendo lo spessore di alcuni pannelli di pelle. [18] : 422 Nel 1998, un superleggero ET (SLWT) volò per la prima volta su STS-91. L'SLWT utilizzava la lega alluminio-litio 2195, che era il 40% più resistente e il 10% meno densa rispetto al suo predecessore, la lega alluminio-litio 2219. L'SLWT pesava 3.400 kg (7.500 libbre) in meno dell'LWT, il che ha permesso allo Space Shuttle di trasportare elementi pesanti nell'orbita ad alta inclinazione della ISS. [18]: 423–424

Potenziatori a razzo solido Modifica

I Solid Rocket Booster (SRB) hanno fornito il 71,4% della spinta dello Space Shuttle durante il decollo e la salita, ed erano i più grandi motori a propellente solido mai volati. [23] Ogni SRB era alto 45 m (149,2 piedi) e largo 3,7 m (12,2 piedi), pesava 68.000 kg (150.000 libbre) e aveva un esterno in acciaio di circa 13 mm (0,5 pollici) di spessore. I sottocomponenti dell'SRB erano il motore a propellente solido, l'ogiva e l'ugello del razzo. Il motore a propellente solido comprendeva la maggior parte della struttura dell'SRB. Il suo involucro era costituito da 11 sezioni di acciaio che costituivano i suoi quattro segmenti principali. L'ogiva ospitava i motori di separazione in avanti e i sistemi di paracadute utilizzati durante il recupero. Gli ugelli del razzo potrebbero oscillare fino a 8° per consentire le regolazioni in volo. [18]: 425–429

I motori a razzo sono stati riempiti ciascuno con un totale di 500.000 kg (1.106.640 libbre) di propellente per razzi solidi (APCP + PBAN) e uniti insieme nel Vehicle Assembly Building (VAB) a KSC. [18]: 425–426 Oltre a fornire spinta durante la prima fase di lancio, gli SRB fornivano supporto strutturale per il veicolo orbitante e l'ET, poiché erano l'unico sistema connesso alla piattaforma di lancio mobile (MLP). [18] : 427 Al momento del lancio, gli SRB erano armati a T-5 minuti e potevano essere accesi elettricamente solo una volta che i motori RS-25 si erano accesi e non avevano avuto problemi. [18] : 428 Ciascuno di essi forniva 12.500 kN (2.800.000 lbf) di spinta, che fu poi migliorata a 13.300 kN (3.000.000 lbf) a partire dall'STS-8. [18] : 425 Dopo aver consumato il carburante, gli SRB furono gettati a mare circa due minuti dopo il lancio ad un'altitudine di circa 46 km (150.000 piedi). Dopo la separazione, hanno dispiegato drogue e paracadute principali, sono atterrati nell'oceano e sono stati recuperati dagli equipaggi a bordo delle navi MV Stella della libertà e MV Stella della Libertà. [18] : 430 Una volta restituiti a Cape Canaveral, furono puliti e smontati. Il motore a razzo, l'accenditore e l'ugello sono stati quindi spediti a Thiokol per essere rinnovati e riutilizzati sui voli successivi.[9] : 124

Gli SRB hanno subito diverse riprogettazioni durante la vita del programma. STS-6 e STS-7 utilizzavano SRB che erano 2.300 kg (5.000 libbre) più leggeri delle custodie di peso standard a causa delle pareti più sottili di 0,10 mm (0,004 pollici), ma che risultavano essere troppo sottili. I voli successivi fino all'STS-26 hanno utilizzato valigie di 0,076 mm (0,003 pollici) più sottili delle valigie di peso standard, che hanno consentito di risparmiare 1.800 kg (4.000 libbre). Dopo il Sfidante disastro a causa del guasto di un O-ring a bassa temperatura, gli SRB sono stati riprogettati per fornire una tenuta costante indipendentemente dalla temperatura ambiente. [18]: 425–426

Veicoli di supporto Modifica

Le operazioni dello Space Shuttle sono state supportate da veicoli e infrastrutture che hanno facilitato il trasporto, la costruzione e l'accesso dell'equipaggio. I trasportatori cingolati hanno trasportato l'MLP e lo Space Shuttle dal VAB al sito di lancio. [24] Gli Shuttle Carrier Aircraft (SCA) erano due Boeing 747 modificati che potevano trasportare un orbiter sulla schiena. L'originale SCA (N905NA) è stato pilotato per la prima volta nel 1975 ed è stato utilizzato per l'ALT e per trasportare l'orbiter da Edwards AFB al KSC in tutte le missioni precedenti al 1991. Un secondo SCA (N911NA) è stato acquisito nel 1988 ed è stato utilizzato per la prima volta trasportare Tentativo dalla fabbrica al KSC. Dopo il ritiro dello Space Shuttle, l'N905NA è stato esposto al JSC e l'N911NA è stato esposto al Joe Davis Heritage Airpark di Palmdale, in California. [14] : I–377–391 [25] Il Crew Transport Vehicle (CTV) era un ponte aereo modificato che veniva utilizzato per aiutare gli astronauti a uscire dall'orbiter dopo l'atterraggio, dove sarebbero stati sottoposti ai controlli medici post-missione. [26] L'Astrovan trasportò gli astronauti dagli alloggi dell'equipaggio nell'edificio operazioni e checkout alla piattaforma di lancio il giorno del lancio. [27] La ​​ferrovia della NASA comprendeva tre locomotive che trasportavano segmenti SRB dalla Florida East Coast Railway a Titusville al KSC. [28]

Preparazione al lancio Modifica

Lo Space Shuttle è stato preparato per il lancio principalmente nel VAB al KSC. Gli SRB sono stati assemblati e fissati al serbatoio esterno dell'MLP. Il veicolo orbitante è stato preparato presso l'Orbiter Processing Facility (OPF) e trasferito al VAB, dove è stata utilizzata una gru per ruotarlo nell'orientamento verticale e accoppiarlo al serbatoio esterno. [9] : 132-133 Una volta che l'intero stack è stato assemblato, l'MLP è stato trasportato per 5,6 km (3,5 mi) al Launch Complex 39 da uno dei trasportatori cingolati. [9] : 137 Dopo che lo Space Shuttle è arrivato a una delle due piattaforme di lancio, si sarebbe connesso alle strutture di servizio fisse e rotanti, che fornivano capacità di manutenzione, inserimento del carico utile e trasporto dell'equipaggio. [9] : 139–141 L'equipaggio fu trasportato alla rampa di lancio alle ore T-3 ed entrò nel veicolo orbitante, che fu chiuso alle ore T-2. [14] : III–8 LOX e LH2 sono stati caricati nel serbatoio esterno tramite ombelicali attaccati al veicolo orbitante, che è iniziato alle ore T-5 e 35 minuti. A T-3 ore 45 minuti, LH2 il riempimento rapido era completo, seguito 15 minuti dopo dal LOX. Entrambi i serbatoi sono stati riempiti lentamente fino al lancio mentre l'ossigeno e l'idrogeno evaporavano. [14]: II–186

I criteri del commit di lancio consideravano precipitazioni, temperature, copertura nuvolosa, previsioni di fulmini, vento e umidità. [29] Lo Space Shuttle non è stato lanciato in condizioni in cui avrebbe potuto essere colpito da un fulmine, poiché il suo pennacchio di scarico avrebbe potuto innescare un fulmine fornendo un percorso di corrente a terra dopo il lancio, avvenuto sull'Apollo 12. [30] : 239 Il La regola dell'incudine della NASA per il lancio dello Shuttle affermava che una nuvola di incudine non poteva apparire entro una distanza di 19 km (10 nmi). [31] Lo Shuttle Launch Weather Officer ha monitorato le condizioni fino a quando non è stata annunciata la decisione finale di cancellare un lancio. Oltre alle condizioni meteorologiche nel sito di lancio, le condizioni dovevano essere accettabili in uno dei siti di atterraggio dell'interruzione transatlantica e nell'area di recupero dell'SRB. [29] [32]

Avvia Modifica

L'equipaggio della missione e il personale del Launch Control Center (LCC) hanno completato i controlli dei sistemi durante il conto alla rovescia. Due pause integrate a T-20 minuti e T-9 minuti hanno fornito pause programmate per affrontare eventuali problemi e ulteriore preparazione. [14] : III–8 Dopo l'attesa incorporata a T-9 minuti, il conto alla rovescia veniva controllato automaticamente dal Ground Launch Sequencer (GLS) presso l'LCC, che interrompeva il conto alla rovescia se rilevava un problema critico con uno qualsiasi dei I sistemi di bordo dello Space Shuttle. [32] A T-3 minuti e 45 secondi, i motori iniziarono a condurre test cardanici, che si conclusero a T-2 minuti e 15 secondi. Il sistema di elaborazione del lancio a terra ha passato il controllo ai GPC del veicolo orbitante a T-31 secondi. A T-16 secondi, i GPC hanno armato gli SRB, il sistema di soppressione del suono (SPS) ha iniziato a inzuppare le trincee MLP e SRB con 1.100.000 L (300.000 US gal) di acqua per proteggere il veicolo orbitante dai danni causati dall'energia acustica e dallo scarico dei razzi riflessa dalla trincea delle fiamme e MLP durante il decollo. [33] [34] A T-10 secondi, gli accenditori a idrogeno sono stati attivati ​​sotto ogni campana del motore per sedare il gas stagnante all'interno dei coni prima dell'accensione. La mancata combustione di questi gas potrebbe far scattare i sensori di bordo e creare la possibilità di una sovrapressione ed esplosione del veicolo durante la fase di sparo. Il LH2 le prevalvole sono state aperte a T-9,5 secondi in preparazione per l'avvio del motore. [14]: II–186

A partire da T-6,6 secondi, i motori principali sono stati accesi in sequenza a intervalli di 120 millisecondi. Tutti e tre i motori RS-25 dovevano raggiungere il 90% di spinta nominale entro T-3 secondi, altrimenti i GPC avrebbero avviato un'interruzione RSLS. Se tutti e tre i motori indicavano le prestazioni nominali di T-3 secondi, veniva loro comandato di eseguire il gimbal per la configurazione di decollo e il comando sarebbe stato emesso per armare gli SRB per l'accensione a T-0. [35] Tra T-6,6 secondi e T-3 secondi, mentre i motori RS-25 stavano accendendo ma gli SRB erano ancora imbullonati al pad, la spinta disassata avrebbe causato l'inclinazione dello Space Shuttle di 650 mm (25,5 pollici) misurati all'estremità del serbatoio esterno il ritardo di 3 secondi ha permesso allo stack di tornare quasi verticale prima dell'accensione dell'SRB. A T-0, gli otto dadi frangibili che fissavano gli SRB al pad sono stati fatti esplodere, gli ultimi cavi ombelicali sono stati scollegati, gli SSME sono stati comandati al 100% dell'acceleratore e gli SRB sono stati accesi. [36] [37] A T+0.23 secondi, gli SRB hanno accumulato una spinta sufficiente per iniziare il decollo e hanno raggiunto la pressione massima della camera di T+0.6 secondi. [38] [14] : II–186 A T-0, il Centro di controllo della missione JSC assunse il controllo del volo dall'LCC. [14]: III–9

A T+4 secondi, quando lo Space Shuttle ha raggiunto un'altitudine di 22 metri (73 piedi), i motori RS-25 sono stati accelerati fino al 104,5%. A circa T+7 secondi, lo Space Shuttle è rotolato verso un orientamento a testa in giù a un'altitudine di 110 metri (350 piedi), che ha ridotto lo stress aerodinamico e ha fornito un migliore orientamento di comunicazione e navigazione. Dopo circa 20-30 secondi dall'ascesa e un'altitudine di 2.700 metri (9.000 piedi), i motori RS-25 sono stati ridotti al 65-72% per ridurre le forze aerodinamiche massime a Max Q. [14]: III-8-9 Inoltre, la forma del propellente SRB è stata progettata per far diminuire la spinta al momento di Max Q. [18] : 427 I GPC potrebbero controllare dinamicamente l'acceleratore dei motori RS-25 in base alle prestazioni degli SRB. [14]: II–187

A circa T + 123 secondi e un'altitudine di 46.000 metri (150.000 piedi), i dispositivi di fissaggio pirotecnici hanno rilasciato gli SRB, che hanno raggiunto un apogeo di 67.000 metri (220.000 piedi) prima di paracadutarsi nell'Oceano Atlantico. Lo Space Shuttle ha continuato la sua ascesa utilizzando solo i motori RS-25. Nelle missioni precedenti, lo Space Shuttle è rimasto in orientamento a testa in giù per mantenere le comunicazioni con la stazione di tracciamento alle Bermuda, ma le missioni successive, a partire da STS-87, sono passate a un orientamento a testa in giù a T+6 minuti per la comunicazione con il costellazione satellitare di monitoraggio e trasmissione dati. I motori RS-25 sono stati strozzati a T+7 minuti e 30 secondi per limitare l'accelerazione del veicolo a 3 g. A 6 secondi prima dell'interruzione del motore principale (MECO), che si è verificata a T+8 minuti e 30 secondi, i motori RS-25 sono stati ridotti al 67%. I GPC controllavano la separazione ET e scaricavano i restanti LOX e LH2 per evitare il degassamento durante l'orbita. L'ET continuò su una traiettoria balistica e si sciolse durante il rientro, con alcuni piccoli pezzi atterrati nell'Oceano Indiano o Pacifico. [14] : III–9–10

Le prime missioni usavano due lanci dell'OMS per raggiungere l'orbita, il primo fuoco alzava l'apogeo mentre il secondo faceva circolare l'orbita. Le missioni successive all'STS-38 hanno utilizzato i motori RS-25 per raggiungere l'apogeo ottimale e hanno utilizzato i motori OMS per circolarizzare l'orbita. L'altitudine e l'inclinazione orbitali dipendevano dalla missione e le orbite dello Space Shuttle variavano da 220 km (120 nmi) a 620 km (335 nmi). [14] : III–10

In orbita Modifica

Il tipo di missione a cui era assegnato lo Space Shuttle determinava il tipo di orbita in cui entrava. Il progetto iniziale dello Space Shuttle riutilizzabile prevedeva una piattaforma di lancio sempre più economica per distribuire satelliti commerciali e governativi. Le prime missioni trasportavano abitualmente i satelliti, che determinavano il tipo di orbita in cui sarebbe entrato il veicolo orbitante. Seguendo il Sfidante disastro, molti carichi utili commerciali sono stati spostati su razzi commerciali sacrificabili, come il Delta II. [14] : III-108, 123 Mentre le missioni successive lanciavano ancora carichi utili commerciali, gli incarichi dello Space Shuttle erano abitualmente diretti verso carichi utili scientifici, come il telescopio spaziale Hubble, [14]: III-148 Spacelab, [18]: 434-435 e la navicella Galileo. [14] : III-140 A partire da STS-74, il veicolo orbitante ha effettuato attracchi con la stazione spaziale Mir. [14] : III-224 Nel suo ultimo decennio di attività, lo Space Shuttle è stato utilizzato per la costruzione della Stazione Spaziale Internazionale. [14] : III-264 La maggior parte delle missioni prevedeva la permanenza in orbita da diversi giorni a due settimane, sebbene fossero possibili missioni più lunghe con il pallet Extended Duration Orbiter. [14] : III-86 La missione STS-80 di 17 giorni e 15 ore è stata la più lunga durata della missione dello Space Shuttle. [14] : III–238


Toyota prevede una perdita

@HornJM Includi @HornJM nel tuo post e questa persona lo farà
essere avvisato via e-mail.

…Solo un argomento di discussione.
Non ho avuto la possibilità di leggere nessuno degli articoli (anche se probabilmente non crederei a nulla di quello che ho letto dai miei media statunitensi locali, comunque), ma ho visto e sentito i titoli delle notizie: “Toyota prevede la perdita in 2009”.
Trovo alquanto contraddittorio affermare che un sistema snello o, più specificamente, un Toyota Production System, può riconoscere le condizioni di mercato e non essere in grado di apportare le modifiche necessarie per ottenere profitti in un determinato periodo di tempo (soprattutto quando quel periodo di tempo è un ANNO ). Voglio dire…basta guardare l'inizio del secondo paragrafo nel primo capitolo della Terza Edizione del Dr. Monden“Toyota Production System”:
“Anche durante i periodi di crescita lenta, Toyota potrebbe realizzare un profitto riducendo i costi attraverso un sistema di produzione che elimina completamente le scorte eccessive e la forza lavoro.”
Cosa mi sto perdendo?

@Les Includi @Les nel tuo post e questa persona lo farà
essere avvisato via e-mail.

Inventario e lavoratori in eccesso non sono gli unici costi operativi di una fabbrica aziendale, gestione, impegni pubblicitari, garanzia, contenzioso, ricerca e sviluppo, progetti futuri, pensioni, ecc. Lean può affrontare solo costi variabili (a breve termine).
Perché un'azienda sia redditizia, i ricavi devono superare le spese – né Lean né SS possono prometterlo. Possono promettere di aumentare il differenziale ma non possono promettere di fornire risultati aggregati positivi.

Non sottovalutare la capacità di Toyota di intraprendere azioni rapide ed efficaci. A mio avviso, la radice degli attuali problemi finanziari globali può essere trovata nella City di Londra. Ciò che mi preoccupa è lo spettacolare fallimento della qualità come disciplina … soprattutto Six Sigma nel settore finanziario. Forse dovremmo dedicare meno tempo a contare opportunità e difetti e più tempo a chiedere quale metrica i clienti possono utilizzare per misurare la qualità di una banca, compagnia assicurativa o brokeraggio.

@garyacone Includi @garyacone nel tuo post e questa persona lo farà
essere avvisato via e-mail.

Les, sono d'accordo con le tue affermazioni.
Penso che la verità più grande sarà nella grandezza del problema. Se torni indietro e guardi ciò che Toyota e Honda stanno prevedendo è vicino a zero profitti, forse una piccola perdita.
Entrambe le società sono conservatrici per natura, vediamo qual è il risultato effettivo.
Vediamo come sta accanto a Detroit 3, Hyundai, Mercedes, …
I loro sistemi hanno reagito più rapidamente perché la loro base di approvvigionamento è più locale e più disciplinata. Vai a dare un'occhiata al contenuto nazionale di Accord e Camry. Vai a dare un'occhiata alla capacità effettiva dei loro fornitori di parti (reale, non ciò che è scritto sul PPAP). Toyota e Honda non tollereranno il livello di problemi comuni quotidiani per i fornitori della Detroit 3.
Compro ancora Ford (D’oh) per lealtà verso mio padre che mi ha sempre detto che i Coni comprano Ford, ma rispetto la disciplina di Toyota e Honda.
Posso solo sperare che parte della ristrutturazione lasci dietro di sé sistemi disciplinati e persone.

@GrayR Includi @GrayR nel tuo post e questa persona lo farà
essere avvisato via e-mail.

Hai sopravvalutato il periodo di tempo per la reazione di Toyota o di qualsiasi azienda allo stato attuale delle cose. Ancora nel maggio 2008, Toyota stava battendo tutti i suoi record di profitti e ricavi. Ecco una citazione di Watanabe, “Per questo anno fiscale (che termina a marzo 2008), abbiamo pubblicato i nostri risultati più alti di sempre per profitti e ricavi”. Allo stesso tempo, anche Toyota prevedeva un rallentamento dell'economia e stava iniziando a prepararsi per questo.
Questo non è un “periodo di lenta crescita” come nel commento di Monden il TPS non può risolvere il problema con il sistema finanziario che implode negli ultimi sei mesi.


RECENSIONI DI PERSONE CHE NORMALMENTE NON SCRIVONO RECENSIONI

“I funghi Reishi, criniera di leone, chaga e cordyceps contengono potenti proprietà”

Dott. Mark Hyman

Medico e autore di bestseller del New York Times

Chelsea Yamase

Influencer, speaker e direttore artistico

Rotolo ricco

Triatleta e autore di ultra-resistenza

“I funghi Reishi, criniera di leone, chaga e cordyceps contengono potenti proprietà”

Dott. Mark Hyman

Medico e autore di bestseller del New York Times

La criniera dei quattro leoni di Sigmatic è una parte indispensabile della mia routine mattutina.

Chelsea Yamase

Influencer, speaker e direttore artistico

Posso onestamente dire che gli adattogeni e le miscele di funghi di Four Sigmatic sono stati una componente integrante e strumentale della mia equazione di successo.

Rotolo ricco

Triatleta e autore di ultra-resistenza

Influencer, speaker e direttore artistico

Triatleta e autore di ultra-resistenza


Contenuti

DMAIC è l'abbreviazione dei cinque passaggi di miglioramento che comprende: Definisci, Misura, Analizza, Migliora e Controlla. Tutte le fasi del processo DMAIC sono necessarie e procedono sempre nell'ordine indicato.

Definisci Modifica

Lo scopo di questo passaggio è di pronunciare chiaramente il problema aziendale, l'obiettivo, le risorse potenziali, l'ambito del progetto e la tempistica del progetto di alto livello. Queste informazioni vengono in genere acquisite all'interno del documento di Project Charter. Scrivi ciò che sai attualmente. Cerca di chiarire i fatti, fissare obiettivi e formare il team di progetto. Definire quanto segue:

Misura Modifica

Lo scopo di questo passaggio è misurare la specificazione del problema/obiettivo. Questa è una fase di raccolta dei dati, il cui scopo è stabilire le linee di base delle prestazioni del processo. La base di riferimento della metrica delle prestazioni dalla fase di misurazione sarà confrontata con la metrica delle prestazioni alla conclusione del progetto per determinare oggettivamente se è stato apportato un miglioramento significativo. Il team decide cosa misurare e come misurarlo. È normale che i team investano molto nella valutazione dell'idoneità dei sistemi di misurazione proposti. I buoni dati sono al centro del processo DMAIC.

Analizza Modifica

Lo scopo di questo passaggio è identificare, convalidare e selezionare la causa principale per l'eliminazione. Un gran numero di potenziali cause alla radice (input di processo, X) del problema del progetto viene identificato tramite l'analisi delle cause alla radice (ad esempio un diagramma a lisca di pesce). Le prime 3-4 potenziali cause alla radice vengono selezionate utilizzando il voto multiplo o altri strumenti di consenso per un'ulteriore convalida. Viene creato un piano di raccolta dati e vengono raccolti i dati per stabilire il contributo relativo di ciascuna causa principale alla metrica del progetto, Y. Questo processo viene ripetuto fino a quando non è possibile identificare le cause principali "valide". All'interno di Six Sigma vengono utilizzati strumenti di analisi spesso complessi. Tuttavia, è accettabile utilizzare strumenti di base se appropriati. Delle cause alla radice "convalidate", tutte o alcune possono esserlo.

  • Elenca e dai priorità alle potenziali cause del problema
  • Dare priorità alle cause alla radice (input chiave del processo) da perseguire nella fase di miglioramento
  • Identificare come gli input di processo (Xs) influenzano gli output di processo (Ys). I dati vengono analizzati per comprendere l'entità del contributo di ciascuna causa principale, X, alla metrica del progetto, Y. I test statistici che utilizzano valori p accompagnati da istogrammi, grafici di Pareto e grafici a linee vengono spesso utilizzati per farlo.
  • È possibile creare mappe di processo dettagliate per aiutare a individuare dove risiedono le cause principali del processo e cosa potrebbe contribuire all'occorrenza.

Migliora Modifica

Lo scopo di questo passaggio è identificare, testare e implementare una soluzione al problema in parte o in toto. Questo dipende dalla situazione. Identificare soluzioni creative per eliminare le principali cause alla radice al fine di risolvere e prevenire i problemi di processo. Usa il brainstorming o tecniche come Six Thinking Hats e Random Word. Alcuni progetti possono utilizzare strumenti di analisi complessi come DOE (Design of Experiments), ma cerca di concentrarti su soluzioni ovvie se queste sono evidenti. Tuttavia, lo scopo di questo passaggio può anche essere quello di trovare soluzioni senza implementarle.

  • Creare
  • Concentrati sulle soluzioni più semplici e facili
  • Testare le soluzioni utilizzando il ciclo Plan-Do-Check-Act (PDCA)
  • Sulla base dei risultati PDCA, tentare di anticipare eventuali rischi evitabili associati al "miglioramento" utilizzando la modalità di errore e l'analisi degli effetti (FMEA)
  • Crea un piano di implementazione dettagliato
  • Implementa miglioramenti

Controllo Modifica

Lo scopo di questo passaggio è incorporare le modifiche e garantire la sostenibilità, a volte viene indicato come rendere il cambiamento "attento". Il controllo è la fase finale del metodo di miglioramento DMAIC. In questo passaggio Modificare le modalità di lavoro Quantificare e approvare i vantaggi Tracciare il miglioramento Chiudere ufficialmente il progetto Ottenere l'approvazione per il rilascio delle risorse. [3]

  • Una carta di controllo può essere utile durante la fase di controllo per valutare la stabilità dei miglioramenti nel tempo fungendo da 1. guida per continuare a monitorare il processo e 2.fornire un piano di risposta per ciascuna delle misure monitorate nel caso in cui il processo diventi instabile. (SOP) e lavoro standard
  • Conferma del processo
  • Piani di sviluppo
  • Piani di transizione
  • Piano di controllo
  • Consegna dei vantaggi

Critiche Modifica

Una critica comune a DMAIC è che è inefficace come struttura di comunicazione. Molti professionisti del miglioramento tentano di utilizzare lo stesso processo DMAIC, efficace nel risolvere il problema, come struttura per la comunicazione solo per lasciare il pubblico confuso e frustrato. Una soluzione a questo problema è la riorganizzazione delle informazioni DMAIC utilizzando gli strumenti SCQA e MECE del Principio della piramide di Minto. Il risultato è una soluzione incorniciata con una logica facilmente seguita. [1]

Replica e ringrazia i team Modifica

Questo è aggiuntivo rispetto ai passaggi DMAIC standard, ma dovrebbe essere considerato. Pensa a replicare i cambiamenti in altri processi. Condividi le tue nuove conoscenze all'interno e all'esterno della tua organizzazione. È molto importante fornire sempre un supporto morale positivo ai membri del team nel tentativo di massimizzare l'efficacia del DMAIC.

Replicare i miglioramenti, condividere il tuo successo e ringraziare i membri del tuo team aiuta a costruire il consenso per future iniziative di miglioramento o DMAIC.

Passaggi aggiuntivi Modifica

Alcune organizzazioni aggiungono a Rriconoscere passo all'inizio, ottenendo così una metodologia RDMAIC. [4]


Come chiudere forzatamente i programmi in esecuzione su macchine non Windows

I programmi software e le app a volte smettono di rispondere e non si chiudono anche su Apple, Linux e altri sistemi operativi e dispositivi. Non è certamente un problema esclusivo delle macchine Windows.

Su un Mac, è meglio eseguire l'uscita forzata dal Dock o tramite il Uscita forzata opzione dal menu Apple. Puoi anche premere Comando + Opzione + Fuga combinazione di tasti per visualizzare una finestra di chiusura forzata delle applicazioni.

In Linux, il xkill comando è un modo davvero semplice per forzare l'uscita da un programma. Apri una finestra di terminale, digitala, quindi fai clic sul programma aperto per terminarlo. C'è di più su questo nel nostro elenco di comandi del terminale Linux che sconvolgeranno il tuo mondo.

In ChromeOS, apri Task Manager usando CAMBIO + ESC e quindi selezionare il programma che si desidera terminare, seguito da Fine del processo pulsante.

Per forzare l'uscita da un'app su dispositivi iPad e iPhone, premi due volte il tasto Home, trova l'app che desideri chiudere, quindi scorrila su come se lo stessi lanciando fuori dal dispositivo.

I dispositivi Android hanno un processo simile: scorri verso l'alto dalla parte inferiore dello schermo e poi scorri ulteriormente l'app che non risponde, fuori dallo schermo. Oppure, per alcuni dispositivi Android, tocca il pulsante quadrato multitasking, trova l'app che non risponde e quindi eliminala dallo schermo. sinistra o destra.


Capitolo III TECNICHE DI RILIEVO GEODETICA

Il dizionario definisce il verbo sondaggio come "determinare e delineare la forma, l'estensione, la posizione, ecc., di, come tratto di terra, prendendo misurazioni lineari e angolari e applicando i principi della geometria e della trigonometria". Una delle funzioni della scienza della geodesia è stata definita nell'Introduzione come la determinazione delle posizioni esatte dei punti sulla superficie terrestre. È stato inoltre spiegato che la tecnologia moderna ha portato con sé un problema di posizionamento nella misura in cui sono coinvolte armi difensive a lungo e medio raggio. Le operazioni che verranno discusse in questo capitolo sono strettamente legate all'intero problema di Quanto lontano? In quale direzione?, ecc. Quattro tecniche di rilevamento tradizionali (1) posizionamento astronomico, (2) triangolazione, (3) trilaterazione e (4) traversata sono generalmente utilizzate per determinare le posizioni esatte dei punti sulla superficie terrestre. Negli ultimi anni, i moderni sviluppi tecnologici hanno aggiunto diversi nuovi metodi che utilizzano satelliti terrestri artificiali. Altri metodi rilevanti per il rilevamento geodetico sono in fase di sviluppo e sono discussi nel capitolo VII. Un altro campo di attività, la fotogrammetria, ha contribuito al rilevamento geodetico per molti anni, ma non viene discusso in questa pubblicazione ad eccezione dell'osservazione dei satelliti da parte di fotocamere, inclusa nel capitolo VI.

Determinazione della posizione astronomica

La posizione di un punto può essere ottenuta direttamente osservando le stelle. Il posizionamento astronomico è il metodo di posizionamento più antico. È stato utilizzato per molti anni dai marinai e, più recentemente, dagli aviatori per scopi di navigazione. Gli esploratori hanno spesso utilizzato il metodo astronomico per localizzarsi in aree inesplorate. I geodeti devono utilizzare le posizioni astronomiche insieme ad altri tipi di dati di rilievo come la triangolazione e la trilaterazione per stabilire posizioni precise. Le singole posizioni astronomiche non interconnesse da rilievi geodetici non possono essere correlate tra loro con sufficiente accuratezza per il calcolo della distanza e della direzione tra i punti.

Come suggerisce il nome, le posizioni astronomiche si ottengono misurando gli angoli tra il filo a piombo nel punto e una stella o una serie di stelle e registrando l'ora precisa in cui vengono effettuate le misurazioni. Dopo aver combinato i dati con le informazioni ottenute dai cataloghi stellari, viene calcolata la direzione del filo a piombo (direzione zenitale).

Mentre i geodeti utilizzano tecniche elaborate e molto precise per determinare la latitudine astronomica, il metodo più semplice, nell'emisfero settentrionale, è misurare l'elevazione della Polare sopra l'orizzonte dell'osservatore. Ai fini di questa pubblicazione, la latitudine astronomica è definita come l'angolo tra la perpendicolare al geoide e il piano dell'equatore. Figura 6.

La longitudine astronomica è l'angolo tra il piano del meridiano di Greenwich (Primo Meridiano) e il meridiano astronomico del punto. Figura 6.

In realtà, la longitudine astronomica viene misurata determinando la differenza di tempo, la differenza in ore, minuti e secondi tra il tempo in cui una stella specifica si trova direttamente sul meridiano di Greenwich e il tempo in cui la stessa stella si trova direttamente sul piano meridiano del punto. Le apparecchiature radio a onde corte vengono utilizzate per ottenere segnali orari che possono essere riferiti al Greenwich Mean Time mentre i cronometri (orologi molto precisi) vengono utilizzati per misurare l'ora in quel punto. Facendo riferimento a un catalogo di stelle, si ottiene l'esatto tempo medio di Greenwich in cui la stella era sopra il Primo Meridiano. La differenza tra l'ora del punto e l'ora di Greenwich viene utilizzata per calcolare la longitudine astronomica del punto. Poiché un punto della Terra ruota di 360° in 24 ore, la differenza di ora locale tra due punti può essere facilmente convertita in differenza di longitudine.

Un'altra osservazione astronomica relativa al posizionamento orizzontale è l'azimut astronomico. Azimut molto precisi sono usati nel controllo dell'orientamento della triangolazione del primo ordine che è il prossimo argomento da discutere. Riferendosi ancora alla figura 6 e al punto P, l'azimut astronomico di qualche altro punto Q visto da P è definito come l'angolo tra il piano meridiano del punto P e il piano contenente sia Q che la perpendicolare al geoide in P. Questo l'angolo è calcolato da nord a P in senso orario da O° a 360°.

Le osservazioni astronomiche sono effettuate da strumenti ottici - teodolite, fotocamera zenitale, astrolabio prismatico - che contengono tutti dispositivi di livellamento. L'asse verticale dello strumento, opportunamente regolato, coincide con la direzione della gravità ed è quindi perpendicolare al geoide. Pertanto, le posizioni astronomiche sono riferite al geoide. Poiché il geoide è una superficie irregolare, non matematica, le posizioni astronomiche sono completamente indipendenti l'una dall'altra.

Il tipo più comune di rilevamento geodetico è noto come triangolazione. Differisce dal rilevamento aereo menzionato in precedenza in quanto vengono utilizzati strumenti più accurati, gli errori strumentali vengono rimossi o predeterminati in modo che possano essere compensati nei calcoli e vengono impiegate procedure più rigorose per ridurre gli errori di osservazione. Un'altra differenza molto importante è che tutte le posizioni stabilite dalla triangolazione sono matematicamente correlate tra loro.

Fondamentalmente, la triangolazione consiste nella misurazione degli angoli di una serie di triangoli. Il principio della triangolazione si basa su semplici procedure trigonometriche. Se si misurano accuratamente la distanza lungo un lato di un triangolo e gli angoli a ciascuna estremità del lato, è possibile calcolare gli altri due lati e l'angolo rimanente. Normalmente, tutti gli angoli di ogni triangolo sono misurati per la minimizzazione dell'errore e per fornire dati da usare nel calcolo della precisione delle misurazioni. Figure 7. Inoltre, la latitudine e la longitudine di un'estremità del lato misurato insieme alla lunghezza e alla direzione (azimut) del lato forniscono dati sufficienti per calcolare la latitudine e la longitudine dell'altra estremità del lato.

Il lato misurato del triangolo di base è chiamato linea di base. Le misurazioni vengono effettuate nel modo più accurato e accurato possibile con nastri o fili appositamente calibrati di invar, una lega altamente resistente alle variazioni di lunghezza dovute alle variazioni di temperatura. I nastri oi fili vengono controllati periodicamente rispetto a misure di lunghezza standard (presso il Bureau of Standards negli Stati Uniti e le agenzie corrispondenti in altri paesi). Il geodimetro e il tellurometro, operanti rispettivamente su principi elettro-ottici ed elettronici, hanno sostituito nelle recenti rilevazioni i vecchi metodi di misura di base. Il lavoro può essere completato in modo più rapido e preciso rispetto a filo o nastro. Il geodimetro dotato di laser si è dimostrato il più preciso e può misurare distanze molto più lunghe senza perdere precisione.

Per stabilire un arco di triangolazione tra due località molto separate, è possibile misurare una linea di base e determinare la longitudine e la latitudine per il punto iniziale a un'estremità. Le posizioni sono quindi collegate da una serie di triangoli adiacenti che formano quadrilateri che si estendono da ciascuna estremità. Figura 7. Con la longitudine, la latitudine e l'azimut dei punti iniziali, vengono calcolati dati simili per ciascun vertice dei triangoli stabilendo così stazioni di triangolazione o stazioni di controllo geodetico. Le coordinate di ciascuna delle stazioni sono definite come coordinate geodetiche. Figura 8.

La triangolazione viene estesa su vaste aree collegando ed estendendo serie di archi e formando una rete o un sistema di triangolazione. La rete è regolata in modo da ridurre al minimo l'effetto degli errori di osservazione. Una distribuzione più densa del controllo geodetico si ottiene in un sistema suddividendo o completando altre indagini. La figura 9 serve ad illustrare, in maniera generale, le principali reti di triangolazione che sono state stabilite.

Ci sono quattro ordini generali di triangolazione. Primo ordine (Controllo orizzontale primario) è la triangolazione più accurata. È costoso e richiede tempo utilizzando i migliori strumenti e metodi di calcolo rigorosi. La triangolazione del primo ordine viene solitamente utilizzata per fornire il quadro di base del controllo orizzontale per una vasta area come per una rete nazionale. È stato anche utilizzato in preparazione per l'espansione metropolitana e per studi scientifici che richiedono dati geodetici esatti. La sua precisione dovrebbe essere di almeno una parte su 100.000.

Secondo ordine, La classe I (Controllo Orizzontale Secondario) comprende le reti d'area comprese tra gli archi del Primo Ordine e le indagini di dettaglio in aree territoriali di altissimo valore. I sondaggi di questa classe rafforzano la rete nazionale di controllo orizzontale degli Stati Uniti e vengono adattati come parte della rete. Pertanto, questa classe include anche il quadro di base per un'ulteriore densificazione. Le chiusure interne della triangolazione di secondo ordine, classe I dovrebbero indicare una precisione di almeno una parte su 50.000. La richiesta di indagini di controllo orizzontale affidabili in aree che non sono in un elevato stato di sviluppo o dove non è previsto tale sviluppo nel prossimo futuro giustifica la necessità di una triangolazione classificata come Secondo Ordine, Classe II (Controllo Orizzontale Supplementare). Questa classe viene utilizzata per stabilire il controllo lungo la costa, le vie navigabili interne e le autostrade interstatali. I dati di controllo contribuiscono alla Rete Nazionale e sono pubblicati come parte della rete. La precisione minima consentita nella Classe II del secondo ordine è di una parte su 20.000.

Terzo Ordine, Le classi I e II (controllo orizzontale locale) sono utilizzate per stabilire il controllo per miglioramenti e sviluppi locali, rilievi topografici e idrografici o per altri progetti per i quali forniscono una precisione sufficiente. Questa triangolazione è accuratamente collegata alla Rete Nazionale. Il lavoro deve essere eseguito con una precisione sufficiente per soddisfare gli standard di una parte su 10.000 per la Classe I e una parte su 5.000 per la Classe II. Guglie, pile, tubi verticali, aste di bandiere e altri oggetti identificabili posizionati con questa precisione hanno anche un valore significativo per molti progetti di rilevamento e ingegneria.

L'unico requisito di precisione per Quarto ordine la triangolazione è che le posizioni siano localizzate senza errori apprezzabili su mappe compilate sulla base del controllo.

Normalmente, la triangolazione viene eseguita da gruppi di topografi che occupano posizioni prestabilite (stazioni) lungo l'arco ed eseguono tutte le misurazioni man mano che procedono. Quando le distanze tra due punti erano troppo lunghe per i metodi convenzionali, le connessioni venivano talvolta effettuate con un metodo noto come triangolazione del flare. Le stazioni erano occupate su entrambi i lati del divario e razzi al magnesio venivano paracadutati dagli aerei o "sparati" in aria dalle navi in ​​punti adeguati tra di loro. Intersezioni di linee sono state realizzate simultaneamente in tutte le stazioni e sono stati stabiliti "ponti" ragionevolmente precisi. Un collegamento di questo tipo è stato stabilito tra Norvegia e Danimarca. Tuttavia, la geodesia satellitare (Capitolo VI) ha risolto il problema di colmare ampie lacune.

Un altro metodo di rilevamento che è stato utilizzato prevede l'uso di radar e aerei. I sistemi elettronici di misurazione della distanza SHORAN, HIRAN e SHIRAN sono stati applicati all'esecuzione di rilievi geodetici mediante una tecnica nota come trilaterazione. Figura 10. Poiché questi sistemi possono misurare linee molto lunghe (fino a 500 miglia), le reti di triangolazione geodetica sono state estese su vaste aree in periodi di tempo relativamente brevi. Inoltre, le tecniche sono state collegate alle indagini di isole e persino continenti separati da estese barriere d'acqua. La rete canadese SHORAN che collega le aree costiere e insulari settentrionali scarsamente popolate con la parte centrale del paese e la rete HIRAN del Nord Atlantico che collega il Nord America all'Europa sono esempi dell'applicazione della tecnica della trilaterazione. La Figura 11 mostra queste e molte altre reti di trilaterazione (SHORAN e HIRAN) che sono state stabilite in tutto il mondo. SHIRAN è stato utilizzato all'interno del Brasile.

Solo le distanze vengono misurate in trilaterazione e ciascun lato viene misurato ripetutamente per assicurare la precisione. L'intera rete viene quindi regolata per ridurre al minimo gli effetti degli errori di osservazione. Gli angoli dei triangoli sono calcolati in modo da ottenere le posizioni geodetiche come nella triangolazione.

Il metodo più semplice per estendere il controllo è chiamato traverse. Il sistema è simile alla navigazione stimata in cui vengono misurate le distanze e le direzioni. Nell'eseguire una traversa, il topografo parte da una posizione nota con un azimut (direzione) noto verso un altro punto e misura gli angoli e le distanze tra una serie di punti di rilevamento. Con le misure angolari si può calcolare la direzione di ogni linea della traversa e con le misure della lunghezza delle linee si può calcolare la posizione di ogni punto di controllo. Se la traversa ritorna al punto di partenza o in un'altra posizione nota, è una traversa chiusa, altrimenti si dice che la traversa è aperta. Figura 12.

Da quando sono diventate disponibili apparecchiature elettroniche per la misurazione della distanza, la precisione dei rilievi trasversali è aumentata in modo significativo. Il tellurometro (microonde) è stato utilizzato in Australia per completare una rete (Australian Geodetic Datum) che copre quel continente. La lunghezza media del ciclo è di circa 900 miglia, la chiusura media del ciclo di questo lavoro è di 2,2 parti per milione. Il geodimetro dotato di laser è stato utilizzato per produrre precisioni interne migliori di una parte per milione nello stabilire la traversata transcontinentale negli Stati Uniti. La traversata consiste in una serie di determinazioni ad alta precisione di lunghezza, angolo e azimut astronomico che corrono approssimativamente da est a ovest e da nord a sud attraverso gli stati limitrofi, formando anelli piuttosto rettangolari. Figura 13. Questa traversata sarà la "spina dorsale" di un riadattamento della rete di controllo orizzontale in questo paese.

I metodi celesti in geodesia comportano la determinazione della posizione di un osservatore dalle osservazioni della luna, delle stelle e dei satelliti. La triangolazione celeste consente l'estensione di lunghi archi attraverso oceani e terreni spaziali inaccessibili. I satelliti consentono inoltre di determinare la forma della terra e forniscono importanti conoscenze sul suo campo gravitazionale (la discussione della geodesia satellitare è riservata al capitolo VI). Tutti i metodi celesti possiedono una caratteristica comune: i dati osservati non sono influenzati dalla direzione della verticale nel punto di osservazione.

Esperimenti geodetici sono stati eseguiti in passato con l'eclissi solare, l'occultazione delle stelle e i metodi della fotocamera con posizione lunare, ma per vari motivi gli esperimenti non hanno prodotto risultati geodetici utili. Le tre tecniche sono state sostituite dall'osservazione e dal tracciamento di satelliti terrestri artificiali.

Il rilevamento verticale è il processo di determinazione delle altezze-elevazioni sopra la superficie del livello medio del mare. Come notato in precedenza, il geoide corrisponde al livello medio del mare aperto. Nei rilievi geodetici eseguiti principalmente a scopo cartografico, non vi è alcun problema nel fatto che le posizioni geodetiche siano riferite ad un ellissoide e le quote delle posizioni siano riferite al geoide. Tuttavia, i dati geodetici per i missili richiedono un aggiustamento delle informazioni sull'elevazione per compensare le ondulazioni del geoide sopra e sotto la superficie matematica regolare dell'ellissoide. La regolazione utilizza complesse tecniche geodetiche avanzate. Un metodo basato sul Teorema di Stokes è menzionato nella discussione sulla geodesia fisica (Capitolo V).

Il livellamento geodetico preciso viene utilizzato per stabilire una rete di base di punti di controllo verticali. Da questi, l'altezza di altre posizioni nel rilievo può essere determinata con metodi supplementari. Il livello medio del mare superficiale utilizzato come riferimento (dato verticale) è determinato ricavando una media delle altezze orarie dell'acqua per un periodo di alcuni anni ai mareografi.

Esistono tre tecniche di livellamento, differenziale, trigonometrica e barometrica, che forniscono informazioni di accuratezza variabile. Figura 14. Livellamento differenziale è il più accurato dei tre metodi. Con lo strumento bloccato in posizione, le letture vengono effettuate su due aste calibrate tenute in posizione verticale davanti e dietro lo strumento. La differenza tra le letture è la differenza di elevazione tra i punti.

Lo strumento ottico utilizzato per il livellamento contiene un tubo a bolle per regolarlo in posizione parallela al geoide.Quando correttamente "impostato" in un punto, il telescopio è bloccato in una posizione perfettamente orizzontale (livellata) in modo che ruoti attraverso un arco di 360. L'esatta elevazione di almeno un punto in una linea di livellamento deve essere nota e il resto deve essere calcolato da essa.

Livellamento trigonometrico comporta la misurazione di un angolo verticale da una distanza nota con un teodolite e il calcolo dell'elevazione del punto. Con questo metodo, è possibile effettuare misurazioni verticali mentre vengono misurati gli angoli orizzontali per la triangolazione. Si tratta quindi di un metodo un po' più economico ma meno accurato del livellamento differenziale. Spesso è l'unico metodo pratico per stabilire un controllo accurato dell'elevazione nelle aree montuose.

Nel livellamento barometrico, le differenze di altezza sono determinate misurando la differenza di pressione atmosferica a varie quote. La pressione dell'aria viene misurata da barometri a mercurio o aneroide o da un termometro a punto di ebollizione. Sebbene il grado di precisione possibile con questo metodo non sia grande come nessuno degli altri due, è un metodo che ottiene altezze relative molto rapidamente in punti abbastanza distanti. È ampiamente utilizzato nelle ricognizioni e nei rilievi esplorativi in ​​cui misurazioni più rigorose verranno effettuate in seguito o non sono necessarie.


Utilizzando le informazioni più recenti sulle minacce, la correlazione avanzata e il potente apprendimento automatico, Qualys Cloud Platform assegna automaticamente la priorità alle vulnerabilità più rischiose e alle potenziali minacce sulle tue risorse più critiche, riducendo migliaia di vulnerabilità alle poche centinaia che contano.

Distribuisci automaticamente la patch sostitutiva più pertinente per correggere rapidamente vulnerabilità e minacce in ambienti di qualsiasi dimensione. Se un dispositivo sembra sospetto, mettilo in quarantena finché non sarà possibile indagare.

L'integrazione è stata una delle nostre sfide chiave mentre stavamo attraversando un consolidamento di molti strumenti. Riunire tutto e ottenere visibilità in un'unica dashboard Qualys ci ha aiutato. Ora abbiamo una dashboard in cui siamo in grado di vedere tutto e agire rapidamente".

Hemanta Swain Vicepresidente e CISO, TiVo Corporation

Il compressore d'aria non si avvia

Ci sono molti tipi di compressori d'aria in uso in tutto il Nord America, e sebbene molti di loro abbiano un aspetto diverso dagli altri compressori d'aria, e certamente variano in dimensioni e in altre aree, ci sono somiglianze che ti permetteranno di controllare e vedere perché "un compressore d'aria il compressore non si avvia, da solo e si spera che non lo porti in un negozio che è sia costoso che dispendioso in termini di tempo. Segui la guida qui sotto per capire perché un compressore d'aria non si avvia.

C'è alimentazione al tuo compressore d'aria?

Lo so, lo so, è una domanda stupida, ma va fatta.

Se stai usando una barra di alimentazione o una ciabatta... non farlo! Collega il tuo compressore d'aria direttamente a una presa a muro. La ciabatta potrebbe essersi guastata.

Se stai usando una prolunga... non farlo! Stai mettendo uno starter sull'alimentazione al tuo compressore a meno che il cavo di prolunga non sia 25 o meno e almeno 10 gauge.

Spostare il compressore d'aria per avvicinarlo alla presa a muro, assicurarsi che ci sia alimentazione alla presa a muro e collegare lì il compressore.

Il compressore d'aria non si avvia... Continua a leggere!

Il compressore è acceso?

Se il tuo compressore d'aria è uno di quelli che viene fornito con un interruttore ON/OFF, separato o parte del pressostato, assicurati che sia acceso.

Ovviamente, se hai utilizzato il compressore e non si avvia, è probabile che l'interruttore di alimentazione sia già acceso. Ma per ogni evenienza, controlla comunque.

Qual è la pressione dell'aria nel serbatoio del compressore?

Quando il mio compressore d'aria non si avvia, controllo sempre l'indicatore del serbatoio per vedere qual è la lettura della pressione nel serbatoio.

Il motivo è che se il pressostato è impostato con un'interruzione della pressione (l'impostazione alla quale si avvia il compressore d'aria) che è inferiore alla pressione dell'aria attualmente nel serbatoio del compressore, allora il pressostato del compressore non è scattato su on , al motore del compressore d'aria non arriva corrente, quindi il motore non può avviarsi.

Anche se la pressione dell'aria nel serbatoio è inferiore al taglio del compressore d'aria nell'impostazione della pressione, parte della diagnosi sul motivo per cui non si avvia, consiste nello svuotare tutta l'aria dal serbatoio del compressore.

Prova a svuotare il serbatoio del compressore

Scollegare o spegnere il compressore.

Drenare il serbatoio dell'aria collegando uno strumento pneumatico o una pistola di soffiaggio al tubo e soffiando via tutta l'aria, è possibile scaricare il serbatoio del compressore aprendo la valvola di scarico del serbatoio e consentire a tutta l'aria (e all'acqua intrappolata) di far fuoriuscire lo scarico del serbatoio cosa che dovresti comunque fare regolarmente, oppure puoi svuotare il serbatoio del compressore e testare contemporaneamente la valvola limitatrice della pressione del compressore d'aria, tirando l'anello PRV (indossare i guanti è una buona idea). Ciò consentirà a tutta l'aria di fuoriuscire dal serbatoio e si assicurerà che i meccanismi interni del PRV funzionino effettivamente. Dopo che tutta l'aria del serbatoio è andata via, reinserisci la valvola PRV e la tua valvola PR viene ripristinata.

Perché svuotare il serbatoio del compressore?

Svuotando il serbatoio stai emulando la funzione della valvola di scarico nel caso in cui quella del tuo compressore d'aria non funzioni correttamente. Una descrizione completa di cosa è e fa la valvola di scarico si trova nella pagina della valvola di scarico.

Lo svuotamento di tutta l'aria dal serbatoio dell'aria consente all'aria intrappolata sul pistone del compressore – o sui pistoni del compressore – di fuoriuscire anche attraverso il serbatoio. Se c'era aria intrappolata, il carico aggiuntivo sul motore del compressore d'aria potrebbe aver impedito l'avvio del compressore.

OK. Ricollega il compressore o accendilo... hai avuto fortuna con l'avvio? No? OK allora, andiamo avanti.

Il mio compressore d'aria non si avvia – ancora!

Sappiamo di avere l'alimentazione dalla presa a muro al compressore, ora sappiamo che una valvola di scarico malfunzionante non è il problema, supponiamo che se il tuo compressore d'aria ha un interruttore ON/OFF che è acceso, e ora?

La potenza arriva al motore del compressore?

Sapere che la potenza arriva al compressore non significa che la potenza arrivi al motore. Oltre all'interruttore ON/OFF che potrebbe trovarsi nel circuito tra la presa a muro e il motore del compressore c'è il pressostato. Se il pressostato del compressore non è scattato per consentire alla potenza di fluire attraverso di esso al motore, il compressore non può avviarsi.

Sfortunatamente, se non hai una sonda poke o un multimetro, avrai difficoltà a fare il prossimo controllo.

Maggiori informazioni sui problemi di avviamento del compressore sono disponibili nella pagina successiva. Segui il link... altri motivi per cui un compressore d'aria non si avvia.


Guarda il video: 12-18 Luglio 2021Qualcuno Si Distacca Per Trovare Chiarezza Tarocchi Previsioni Settimana (Dicembre 2021).