Skocz do zawartości

astroccd

Społeczność Astropolis
  • Postów

    341
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez astroccd

  1. Wiem dlaczego satelity lecące na jednej linii widzą siebie pod kątem 90 stopni do toru lotu. Zanim światło od obiektu dotrze do kamery, kamera ulegnie przesunięciu, jednak należy pamiętać że zanim światło od soczewki dotrze do matrycy kamery, matryca też ulegnie przesunięciu, a ponieważ obraz w soczewce jest odwrócony nastąpi odwrotny efekt przywracający obraz obiektu w miejsce na matrycy gdzie by był gdyby nie było ruchu kamery i obiektu. A więc natura wymyśliła mechanizm samo niwelacji efektu ruchu, uważam że trudność skonstruowania urządzenia które by było w stanie wykryć ruch jest porównywalna do zbudowania perepetum mobile. Nie jesteśmy w stanie określić czy poruszający się obiekt porusza się pod kątem prostym do kierunku patrzenia. Przykładowo strzelając kulą z lewej strony jadącego samochodu w prawą stronę i obserwując zdarzenie z dachu samochodu, kula wydaje się lecieć pod kątem 90 stopni do toru jazdy samochodu, jednak dla samolotu lecącego szybciej w tym samym kierunku co samochód kula będzie lecieć po skosie, to samo jeśli będziemy obserwować z lecącego wolniej od samochodu helikoptera. Tak samo będzie z promieniem lasera, wydaje nam się że puszczamy światło lasera pod kątem 90 stopni do ściany w pokoju, w rzeczywistości ustalenie co jest kątem 90 stopni dla ruchomego obiektu jakim jest foton z promienia lasera jest niemożliwe. Istnieje mechanizm samoniwelacji efektu ruchu dla światła lasera, niezależnie jak szybko porusza się nasz pokój razem z ziemią i tak siedząc w pokoju promień lasera będzie skierowany dla nas zawsze w ten sam punkt i pod takim samym kątem np.: 90 stopni do ściany. Można uważać że teoria o stałej prędkości światła jest błędna bo istnieje mechanizm w naturze dający fałszywy wynik stałej prędkości światła, dlatego używanie światła do pomiarów odległości jest błędne. Można też uważać że skoro istnieje mechanizm dający wynik stałej prędkości światła to można używać światła do pomiaru odległości. Jeśli Einstein cokolwiek zmodyfikował we swoich wzorach pod wpływam odkrycia że światło porusza się zawsze z tą samą prędkością to jest to błędne, ale też są 2 inne możliwości, światło może poruszać się ze stałą prędkością mimo istnienia mechanizmu dającego złudzenie poruszania się ze stałą prędkością fal które nie poruszają się ze stałą prędkością lub fałszywy wynik poruszania się światła ze stała prędkością jest wystarczający aby używać światła do pomiarów odległości skoro otrzymujemy efekt zniwelowania prędkości światła do stałej wartości, zatem wzory Einsteina mogą być prawdziwe. Próba rozwiązania problemu satelitów lecących w jednej linii widzących się w kącie 90 stopni do kierunku ruchu, bez znajomości triku z przesunięciem matrycy i odwrotnym obrazem soczewki niwelującym efekt ruchu może prowadzić do stworzenia teorii niejednoczesności zdarzeń czy zatem Einstein wpadł w tę pułapkę, a może ten problem satelitów niepotrzebnie utożsamiam z Ogólna Teorią Względności. Bo wydawało mi się że bez przekształceń Lorenca i Ogólnej Teorii Względności nie rozwiąże problemu satelitów. Że stwierdzenie o tym że dla układu w ruchu nic się nie zmienia jest rozwiązaniem problemu. Co do statyczności wszechświata, paczkę falową wyobrażam sobię jako przeskok elektronu na inną orbitę dający skok poziomu pola magnetycznego, przykładowo zawsze utrzymywało się na poziomie 2 teraz jest na poziomie 1, powstaje stopień o pewnej szerokości czasowej czyli stromości stopnia, pytanie jak długo się on tak utrzyma, we wodzie lub powietrzu pewnie niezbyt długo, ulegnie rozmyciu w czasie, stopień stanie się mniej stromy, ale czy dyskietki zawierające pole magnetyczne są wieczne i czy nie ulegną samorozmagnesowaniu, czy jest możliwe aby pole magnetyczne rozmagnesowywało się samoistnie w próżni i powstał efekt mniej stromego stopnia?
  2. No to niech satelity poruszają się przed linią startu i zatrzymają się na starcie, a my dalej lecimy, więc satelita nr 2 zacznie zostawać w tyle po 10 sekundach od czasu gdy minęliśmy linię startu, a satelita nr 3 po 20 sekundach. Światło porusza się nieskończenie szybko, tylko my jesteśmy opóźnieni w czasie w stosunku do kolesia który czeka na światło naszej latarki, dlatego mimo że wyślemy mu je nieskończenie szybko to musi sobie poczekać kiedy naciśniemy przycisk włącznika, co z tego że zsynchronizowaliśmy zegarki kiedy oddalając się od siebie uległy rozsynchronizowaniu. Wydaje mi się że Einstein właśnie to wymyślił tylko fizycy to poknocili. Był w necie taki PDF z testem dylatacji czasu, który żadnej dylatacji nie wykrył, bo jak miał wykryć skoro występuje ona tylko przy dużej odległości. Problem kartki papieru, jeśli ustawimy ją krawędzią do nas żeby nie dało się nic przeczytać, zgasimy światło, ale wiemy że kartka była duża i daleko więc światło od niej będzie do nas lecieć jeszcze minutę, mamy zatem czas aby przesunąć się w bok i przeczytać karkę, przeczytanie kartki będzie niemożliwe, nie będzie chciała się ustawić pod innym kątem niż krawędzią do nas, ustawi się inaczej dopiero wtedy gdy już nie będzie światła.
  3. Problem satelity, który nie wystartował, a widzimy że wystartował, przewidując przyszłość. Ustawmy na linii startu satelity, które po jednoczesnym starcie mają lecieć w tym samym kierunku i z taką samą prędkością. Siedzimy w jednym satelicie i przed startem widzimy drugiego satelitę w kącie 90 stopni od kierunku ruchu, drugi satelita jest oddalony o np.: 10 s czasu światła, po starcie mimo że satelity wystartowały razem obraz drugiego startującego satelity powinien dotrzeć do nas z 10-cio sekundowym opóźnieniem zatem widzimy go zostajacego coraz dalej w tyle, dopiero po 10-ciu sekundach będzie widać że wystartował jednak nadal jest w tyle np.: na kącie 91 stopni od kierunku ruchu. Tymczasem jest zupełnie inaczej prędkość jest względna i w poruszającym się układzie wszystko będzie tak jak by stał w miejscu, satelity lecą jednakowo, stojąc w miejscu względem siebie, a więc drugi satelita będzie widoczny w kącie 90 stopni. Co się stanie w sytuacji gdy drugi satelita w ogóle nie wystartuje, pozostając na linii startu. Przez pierwsze 10 sekund po naszym starcie będziemy go widzieli w kącie 90 stopni tak jak by wystartował, dopiero po 10-ciu sekundach zacznie zostawać w tyle. Co ciekawe gdyby drugi satelita zmieniał kolory to zobaczymy że są one spóźnione o 10 sekund, a więc satelita nie wystartował bo widzimy jego opóźniony obraz, tylko czemu jest w kącie 90 stopni? Nie jest to prosta transformacja Lorenca przesuwająca obraz w danym kierunku gdyż dodając satelitę nr 3 w odległości 20-tu sekund świetlnych, który również nie wystartował z linii startu. Przez pierwsze 10 sekund po naszym starcie oba satelity będą w kącie 90 stopni, następnie odłączy się satelita nr 2 zaczynając pozostawać w tyle, po 20 sekundach satelita nr 3 zacznie pozostawać w tyle. Przez 20 sekund satelita nr 3 musi pozostać w kącie 90 stopni, gdyż gdyby wystartował jednocześnie z nami stanowił by coś w rodzaju bryły sztywnej w której moglibyśmy połączyć go prętem z nami, w takim układzie nic się nie może zmienić, niezależnie czy cały układ stoi czy się porusza wszystko musi się odbywać jak by stał w miejscu.
  4. To niech autor przeglądarki internetowej ją opanuje, zawszę poprawiam podkreślone na czerwono zdania, aby nie były podkreślone, tak długo przerabiam ó na u, rz na ż aż podkreślenie zniknie, być może jest jakiś błąd innego typu pomylisz l z ł a myślisz że pomyliłeś ó z u wtedy przerabiasz ó na u i podkreślenie znika mimo że jest błąd ortograficzny. Taka głupia przeglądarka nic na to nie poradzę że zmusza ludzi do przerabiania ó na u gdy popełnisz błąd mniejszej wagi pomylisz l z ł i dodatkowo akceptuje błędną poprawkę ó na u. Albert Einstein zakłada pomiar odległości światłem, jeśli przyjmiemy że poruszamy się 2x szybciej od światła to światło biegnąc od przodu statku do tyłu pokona drogę w 3x krótszym czasie, zatem jesteśmy 3x krótsi, a wszystkie przedmioty wokół nas 3x dłuższe. Tym samym nie przekraczamy prędkości światła względem otoczenia, mimo że mierząc odległości zwykłą miarką przekraczamy prędkość światła. Zdanie "nie można przekroczyć prędkości światła" jest wyrwane z kontekstu bo nie zawiera informacji o sposobie pomiaru odległości. Einstein na podstawie błędnie skonstruowanego aparatu Michelsona i Morleya doszedł do wniosku że najlepszym sposobem pomiaru odległości jest światło bo porusza się zawsze ze stałą prędkością, cała współczesna fizyka ma się opierać na tym rozklekotanym aparacie i na twierdzeniu jednego fizyka którego nikt do dziś nie potwierdził że ma rację, trochę to dziwne.
  5. A może tęgich "do robienia pieniędzy", ciekawe ile zarobił Einstein na swoich teoriach. Uważam że żaden fizyk nie potwierdził czy Einstein ma rację, powinniśmy raczej czytać notatki Einsteina, a nie tłumaczenia jego tekstów przez innych fizyków, którzy błędnie tłumaczą nie do końca rozumiejąc co miał na myśli, a miał on na myśli że w danym układzie odniesienia nic się nie zmienia nie zależnie jak szybko się porusza bo prędkość jest względna jeśli coś się porusza to równie dobrze można przyjąć że stoi w miejscu. Można założyć że Einstein miał rację i nikt go nie rozumie nie wie co miał na myśli lub sam wiedział że nie ma racji tylko robi kasę bo gdyby odrzucił swoją teorię to chodził by po śmietnikach. Wolę informatyczne książki pisane przez polaka niż tłumaczone z języka angielskiego gdy sam tłumacz nie rozumiał co tłumaczy, przetłumaczył słowa, a nie sens. Myślę że fizycy mylą obraz jaki zobaczymy z dylatacją czasu, jeśli jesteśmy w odległości od innego obiektu takiej aby różnica czasu wynosiła np.: 10s i przybliżamy się do niego aby ta różnica stopniała do zera to fizycy mówią o dylatacji czasu, tymczasem to tylko złudzenie bo obserwując obraz przybliżającego się do nas obiektu faktycznie będzie się tak poruszał jak by czas płyną mu szybciej, ale my obserwowani z pokładu obiektu który się do nas przybliża też będziemy wyglądali jak by to nam czas szybciej płynął. Bo prędkość jest względna i nie wiadomo co się porusza my czy drugi obiekt. Odrzucam fizykę nierelatywistyczną, nie ma takiej fizyki w której istnieją rzeczy nie mające racjonalnego wytłumaczenia, może istnieć najwyżej brakująca cegiełka naszej wiedzy, nie możemy oglądać nieskończenie małych obiektów dlatego nigdy nie dowiemy się z czego naprawdę zbudowany jest świat. Ponoć sam Einstein nie był nieskończenie mądry i sam modyfikował własne wzory, aby pasowały do ówczesnych odkryć, odkryto że prędkość światła jest taka sama we wszystkich kierunkach, ale są tacy co podważają eksperyment Michelsona i Morleya jako że ich instrument był błędnie skonstruowany i nic nie miał prawa wykryć. Czasem nie potrzeba wielkich wzorów na potwierdzenie własnych teorii wystarczy drobny ale świetny pomysł, otórz odrzucam teorię że czas powstał w chwili wielkiego wybuchu, gdyż nie pasuje mi to do rachunku prawdopodobieństwa, otórz zakładając że czas istniał nieskończoną ilość lat prawdopodobieństwo powstania żeczy nieprawdopodobnie mało prawdopodobnej jest równe 1. Jeśli założymy że powstanie wszechświata jest nieprawdopodobniew małe równe zero to przy nieskończenie długo trwającym czasie prawdopodobieństwo będzie równe 1.
  6. Ale nie pola magnetycznego, pole magnetyczne osiąga największą moc gdy przechodzi przez zero, a wtedy pole elektryczne ma największą wartość napięcia. Tak zwane przejście przez zero gdy wieje silny wiatr ciśnienie może wynosić 1013hPa, a mimo to moc wiatru może być bardzo duża. Gdy znajdujemy się w centrum wyżu i gdybyśmy byli wstanie słyszeć dźwięki oddalone o setki kilometrów to będziemy mieli efekt Doplera. W kosmosie możemy znajdować się w centrum wyżu pola magnetycznego, w którym linie pola magnetycznego wieją w kierunku odległych galaktyk spowalniając prędkość światła, podobno prędkość światła jest stała, można to bardzo szybko obalić prostym eksperymentem, zbudujmy z kostek domina konstrukcję, niech każda kostka domina podnosi się na siłowniku tak aby powstająca fala kostek przybliżała się do nas z prędkością światła, można nawet zsynchronizować promień lasera, aby fotokomórka uwalniała podnoszenie kostki domina, wtedy przybliżamy się do kostek domina idąc z prędkością 5 km/h, nie widzę powodu, aby prędkość kostek fali domina nie zsumowała się w sposób klasyczny czyli c+5 co da nam przekroczenie prędkości światła o 5 km/h w stosunku do fali kostek domina, tak samo można puścić falę kostek domina z prędkością 2 razy większą od prędkości światła i nie widzę powodu żeby eksperyment miał nie zadziałać. Gdyż pojedyncza kostka nie przekracza prędkości światła tylko powstająca fala z nowych kostek. Różne Einsteiny mogą wam wciskać dowolny kit, skoro prędkość światła jest milion razy większa od dźwięku to tak łatwo nie potwierdzicie czy mieli rację. Uznaję własną teorię opóźnienia czasowego tak zwanej bryły sztywnej pola magnetycznego, ruszając przewodem w przód i w tył obok magnesu można wytworzyć w nim prąd elektryczny, tak samo ruszając magnesem obok nieruchomego przewodu również wytworzymy prąd elektryczny czy natomiast komuś uda się wytworzyć prąd w przewodzie jeśli zostanie od na stałe przymocowany w pewnej odległości od magnesu, aby ruch magnesu powodował poruszanie się przewodu w tym samym kierunku co daje brak ruchu przewodu względem magnesu. Otóż moja teoria opóźnienia czasowego nie tylko wyklucza istnienie cząstek, ale wylkucza istnienie fal to natomiast tłumaczy fakt że fala może się rozchodzić w niczym czyli próżni gdyż naprawdę ta fala nie istnieje, istnieje tylko opóźnienie czasowe pomiędzy obiektami, przy czym my znajdujemy się w centrum układu i wszystkie inne obiekty wydaja się opóźnione względem nas, ale to tylko nam się tak wydaje gdyż dla innego układu odniesienia to my mamy opóźnienie, opóźnienie czasowe zależy od odległości nie zależy od prędkości poruszania się, gdy jeden obiekt porusza się tak samo prędko i w tym samym kierunku co drugi to liczy się tylko odległość między nimi, a nie liczy prędkość. To z koleji tłumaczy fakt że prędkość światła zmierzona na ziemii jest taka sama we wszystkich kierunkach, gdyz źródło światła porusza się razem z nami. Zatem każdy układ może względem innego układu przekroczyć prędkość światła i nie będzie efektu opóźnienia czy wręcz nie dotarcia fali światła. Czyli jest to teoria że pole magnetyczne porusza się razem z magnesem, dopiero jego zatrzymanie czyli spowodowanie przeciążenia powoduje zabużenia rozchodzenia się linii pola magnetycznego, energia na zatrzymanie magnesu jest przenoszona zaburzeniam pola magnetycznego jako że nic w przyrodzie nie ginie.
  7. Ale chyba nie takie duże jak najdalsze galaktyki. A o rozmiarze kątowym się uczyłeś? A w jakim poruszają się elektrony? Fale to fale, prawdopodobieństwo bierze się ze skwantowania, dowód że rozchodzą się w czymś złożonym z atomów, jak elektrony w metalu. Fale elektromagnetyczne od atomów są spolaryzowane kołowo, audycje radiowe można nadawać w polaryzacji pionowej, poziomej i kołowej. Polaryzacja kołowa to taka sprężynka w przestrzeni. Dlatego jedna paczka falowa jest w stanie wytworzyć krążek airego w teleskopie. Mimo że postawi tylko jeden punkt foton, to nie postawi go tam gdzie nie ma krążka airego. Ogólnie robi się tak, przepuszcza się światło niekoherentne przez szczelinę żeby stało się koherentne, a następnie przepuszcza przez 2 szczeliny aby wytworzyć prążki interferencyjne. Światło niekoherentne różni się od koherentnego tylko tym że prążki interferencyjne w świetle koherentnym nie zmieniają położenia w czasie, a w świetle niekoherentnym zmieniają się tak szybko że nie jesteśmy w stanie ich zobaczyć, ale też powstają. Mogą nie działać na siebie 2 fale radiowe w polaryzacji pionowej i poziomej, ale 2 fale spolaryzowane kołowo zawsze działają na siebie. Skoro elektron w atomie reaguje na tylko jedną częstotliwość pola magnetycznego jest wahadłem które obcina wstęgi górne i dolne i dla elektronu krótki impuls falowy trwa w nieskończoność i ma mniejszą amplitudę, dlatego elektron może pamiętać poprzednią paczkę falową z przed miliardów lat, drugi krótki impuls falowy nałoży się na ten pierwszy. Fizycy nie zdają sobie sprawy z możliwości fal, dlatego wymyślili cząsteczki, ale wszystko można wyjaśnić falowo. Wszystko można wyjaśnić falowo, a właściwie polowo, powinno się mówić że mamy korpuskularną i polową naturę świata. Fala powstaje poprzez zaburzenie pola rozchodząc się w przestrzeni, elektron może krążyć sobie wokół atomu jako pole wytwarzając falę 0Hz nie niosącą energii więc może robić to w nieskończność. Elektron ma kilka oddziaływań elektrostatyczne, elektryzowanie kota pocierając go pałeczką, odpycha się ładunek ujemny i przyciąga do dodatniego np.: protonu, oraz ma oddziaływanie elektryczne występuje jako pole elektryczne wytwarzając też pole magnetyczne. Cząstka jako krążące wokół siebie pola może istnieć i jest to pole, a nie cząstka, czemu mówić że i pole i cząstka jednocześnie, skoro to pole. Mówi się że foton jest tak duży jak długość fali, jeśli wytwarzamy stałe pole magnetyczne 0Hz to jest nieskończenie wielki, tak samo elektron tylko że przenikalność elektryczna prożni jest mała i dla tego pole elektryczne trzyma się blisko atomu. Jeśli płynie prąd stały w kablu to mówi się że to elektrony płyną tylko że one mają 0Hz i są nieskończenie wielkie, gdybyś chciał wytworzyć obraz w mikroskopie elektronowym to musiał byś najpierw nadać częstotliwość elektronom żeby zmniejszyć długośc fali i ogniskował byś uciekające zaburzenie pola elektrycznego, a nie pole elektryczne skierowane w stronę obserwowanego obiektu. Możesz mieć: 0-1-2-3-4-5... 0.1-1.1-2.1-3.1-4.1... 0.5-1.5-2.5-3.5-4.5... Prawdopodobieństwo że punkt skwantowania ustawi się tak aby odebrać falę o nieskończenie małej amplitudzie jest nieskończenie małe. Moim zdaniem, jeśli leci sobie paczka falowa jako rosnący balon, pojawia się tylko tam gdzie trafiła na poziom skwantowania mniejszy od swojej amplitudy, jest to punkt, można by go nazwać fotonem, ale ten punkt nie leci po linii prostej tylko pojawia się zawsze w innym losowym miejscu na rosnącym balonie. Prawdopodobieństwo trafienia na poziom skwantowania umożliwiający odbiór nieskończnie małej fali jest nieskończenie małe, ale powierzchnia balonu jest wtedy nieskończenie wielka, zatem zawsze prawdopodobieństwo pojawienia się fotonu na całym balonie nie zależnie od jego wielkości wynosi 1. Wracając do mojej drugiej teorii że stygnie i kurczy się coś w czym poruszają się fotony, może po prostu zapadać się grawitacyjnie. Albo jakieś własne siły elektrostatyczne przyciągają do siebie to coś więc się kurczy.
  8. Jeśli krótki imuls fali pozbawisz wstęgi górnej i dolnej, fala będzie trwać w nieskończoność jednak jej amplituda spadnie bo perpetum mobile nie istnieje. Jeśli składamy wiele paczek falowych przesuniętych w czasie o np.: 1/100 długości paczki to w rzeczywistości wzmacniamy wstęgę dolną. Wierz mi naprawdę kiedyś pisałem takie softwarowe korektory graficzne dla muzycznej wieży i działały, wzmacniały niskie częstotliwości. Nie było tam transformaty Fouriera tylko składanie wielu przesuniętych w czasie próbek dźwięku. Podobno impulsy falowe nie muszą się nawet nakładać. Niech jakaś krótka fala napędzi wahadło mające taką samą częstotliwość rezonansową co ta fala, kiedy za jakiś czas puścimy drugą falę nie musi być ona zgodna w fazie z wychyleniami wahadła może nawet trafić się odwrotna faza i wygasić wahadło. Dlatego paczki falowe nie muszą się nawet nakładać aby występowały straty mocy. Wydaje mi się że 2 krotne wydłużenie czasu trwania fali daje 4x większą moc. Wahadło to takie urządzenie które reaguje na tylko jedną częstotliwość dlatego obcina wstęgi górne i dolne powodując że krótki imuls fali trwa dla niego nieskończoność, ale ma mniejszą amplitudę. Puszczanie krótkich impulsów falowych nie zgodnych w fazie w pewnych odstępach czasowych miedzy sobą takich aby fale się wzajemnie nie nałożyły na siebie dla wahadła jest nałożeniem na siebie nieskończenie długo trwających fal o rożnych fazach. Jeśli chodzi o nakładanie nieskończenie długo trwających fal o identycznych fazach to amplituda rośnie proporcjonalnie do ilości złożonych fal, a moc rośnie z kwadratem ilości fal. Jeśli chodzi o nakładanie nieskończenie długo trwających fal o losowych fazach to amplituda rośnie jako pierwiastek z ilości fal, a moc jest proporcjonalna do ilości fal. Foton jest proporcjonalny do mocy dlatego nie istnieje, można by sztucznie powielać fotony nakładając fale w tej samej fazie. Myślałem że zostanę zaatakowany z innej strony nikt nie będzie kwestionował składania paczek ale powie czemu nie składają się paczki falowe gwiazd i niema przesunięcia ku czerwieni gwiazd, skoro gwiazda jest nieskończenie mała, mniejsza od krążka Airy'ego w teleskopie, krążek Airy'ego jest koherentny, każda fala niekoherentna czyli niezdolna do wytwarzania prążków interferencyjnych po przejściu przez maleńki otwór mniejszy od długości fali staje się koherentna, otwór nie musi być mniejszy od długości fali wystarczy że ogniskowa będzie na tyle długa że będzie widać rozmycie wywołane długością fali. Gwiazda wysyła miliardy paczek falowych mniej od całej galaktyki i trzeba by sprawdzić ile paczek falowych wysyła w ciągu sekundy gwiazda i czy przemnażając przez czas trwania paczki falowej pomieszczą się wszystkie w czasie sekundy. Paczka falowa to rosnący balon cieńszy od bańki mydlanej na powierzchni którego jest jeden punkt foton, wycinek tego balona to krótko trwający impuls fali. Nikt nie obserwował fotonu między nadajnikiem i odbiornikiem, dlatego mówimy o prawdopodobiestwie znalezienia fotonu w całym balonie. Moim zdaniem pole magnetyczne jest skwantowane, nie może się zmienić o wartość większą od skwantowanej, przy czym skwantowanie nie polega na prostym obcięciu liczb po przecinku np.: z 1.001 obcinamy ulamek i zostawiamy 1, a z 0.999 obcinamy ułamek i zostaje 0, tylko punkt skwantowania jest losowy może wynosć np.: 0.2-1.2-2.2-3.2... czyli z 0.1999 otrzymamy 0, a z 0.21 orzymamy 1. Może to wynikać z tego że cała przestrzeń wypełniona jest falami, co prawda nas interesuje fala o jednej częstotliwości i inne nie działają na nasz odbiornik, ale te inne fale wynoszą poziom pola magnetycznego na wyższą wartość dlatego poziom skwantowania jest inny niż te 0.999-1.000. Natura broni się przed całkowitą anihilacją, znalazła sposób aby odzyskać pełną moc fotonu z nieskończenie małej fali. To tak jak by fala tsunami została wywołana przez trzęsienie ziemi o sile 9 stopni w skali Rihtera i rozeszła się po oceanie, aby tysiące km od epicentrum wywołać falę o amplitudzie 1 mm, jednak jeśli jakiemuś ogromnemu zbiornikowi wody brakowało 1 mm wody aby pęknąć to może ten 1 mm fali wywołać zniszczenia identyczne z epicentrum trzęsienia ziemi. Inna moja teoria na temat efektu Doplera to stygnięcie tego czegoś w czym rozchodzi się foton, to coś się kurczy dlatego pędzi w stosunku do dalekiej galaktyki dajac efekt Dopplera. Ale odległości między galaktykami pozostają bez zmian. Gdyby wszechświat wypełnić metalem to elektron podobnie jak foton mógł by się rozchodzić jako zaburzenie pola elektrycznego, jednak w tym metalu musi jednak być ten elektron można pozbawić metal elektronów i nici z fali. Musi też być to coś w czym rozchodzi się foton. Obserwując fale na wodzie przy 2x większym promieniu mamy 2x większy obwód, a mimo to amplituda fali spada 1.4x gdyż ma nadwyżkę mocy, woda jest ciężka i łatwiej jest jej się podnieść do połowy wysokości więc mamy nadwyżkę mocy, dlatego fala podnosi się jeszcze wyżej. Tak samo jest z falą magnetyczną jest jej ciężko więc przestrzeń nie może być pusta. Gdyby poprowadzić nieskończenie długi pręt ze zmiennym polem elektrycznym to wokół niego krążyło by zmienne pole magnetyczne rozchodząc się w przestrzeni i tracąc amplitudę wraz z odległością identycznie do fali na wodzie. W tym przypadku powstaje rosnący walec. Nie mylić z rosnącym balonem.
  9. Moja własna teoria rozjeżdżania paczek falowych. Żaden atom nie emituje światła ciągłego, tylko krótkie zaburzenie pola jako przeskok elektronu na inną orbitę. Nie da się wyemitować częstotliwości trwającej przez krótki czas bez udziału innych częstotliwości, tak zwane wstęgi górne i dolne. Bez których fala trwała by w nieskończoność. Światło Słońca nie jest koherentne. Jeśli światło odległej galaktyki stawało by się coraz bardziej koherentne wraz z przyrostem jej odległości, coraz bardziej przypominało światło lasera, paczki falowe mogły by się zacząć rozjeżdżać, wysokie częstotliwości paczki falowej by zniknęły, została by najniższa składowa wstęga dolna, która może mieć dowolnie niskie częstotliwości słabnące ze spadkiem częstotliwości, jednak nałożenie ogromnej ilości paczek falowych obcinało by górne częstotliwości tak że tworzył by się wierzchołek w jakieś niższej częstotliwości. Ten wierzchołek mógł by się płynnie przesuwać w zależności od ilości rozjechanych paczek falowych, a ilość rozjechanych paczek falowych zależała by od odległości czyli jak bardzo fala stała się koherentna. Być może fizycy odrzucali tę tezę gdyż wiązali każdą paczkę falową z konkretnym fotonem, jeśli od galaktyki dotrze do nas kilka fotonów to dotrą wszystkie paczki falowe od fotonów które nie trafiły w obiektyw. Miliardy gwiazd w galaktyce i każda nie wiadomo jak dużo atomów i te wszystkie paczki fotonowe do nas dotrą. Nas powinny interesować jedynie te kilka paczek od których rejestrowaliśmy tych kilka fotonów, a może nie, jeśli wierzyć że foton powstaje dopiero na odbiorniku. Analogia do stackowania klatek, jeśli stackujemy szumy przesunięte o 1 piksel dla każdej klatki to w przypadku kiedy stackujemy takie same klatki z takim samym wzorkiem szumu na każdej klatce to widmo wysokich częstotluiwosci zostaje obcięte, natomiast w przypadku kiedy na kazdej klatce jest inny wzorek szumu widmo pozostaje bez zmian, nie mamy obcięcia wysokich częstotliwości. Nasza paczka falowa to stały wzorek, który zostanie pozbawiony wysokich częstotliwości podczas gdy pozostałe pasmo nie zostanie obcięte, widzimy pełen zakres częstotliwości docierającej od galaktyki.
  10. Ludzie myślą że dynamika jest zawsze stała, tymczasem im mniej mamy fotonów tym bardziej spada zakres dynamiki, a więc im czulsza kamera w sensie mniejszych szumów odczytu tym może posiadać mniejszą dynamikę nic nie tracąc. Gdyby kamerka nie miała szumów odczytu to żeby zwiększyć dynamikę 2x wystarczyło by skrócić czas ekspozycji 2x, a potem zestackować 2 klatki, mielibyśmy zysk na dynamice bez utraty czasu. Niestety w kamerce mamy szumy odczytu co komplikuje sprawę. Jeśli dynamikę obcina nam light pollution to na każde 2 krotne zmniejszenie szumów odczytu kamerki można skrócić czas ekspozycji 4 krotnie, gdyż szum kwantowy 4x słabszego tła będzie 2x mniejszy. 4x krótszy czas ekspozycji pomieści 4x jaśniejszy sygnał bez prześwietlenia, oczywiście trzeba potem złożyć 4 klatki, aby odzyskać stosunek sygnał szum. Gdyby udało się zmniejszyć szumy odczytu Atika z 3e do 1e to spokojnie można by mu obciąć studnię potencjału 9-cio krotnie, a i tak tyle samo dynamiki pomieści. Tyle że potem trzeba złożyć 9 klatek zamiast jednej. Ale czas ekspozycji pojedynczej klatki jest 9x krótszy więc tyle samo czasu łącznie będziemy eksponować 9-cio klatkowy materiał. Tak zwane EMCCD posiadające mnożnik elektronów w pikselu na pierwszy rzut oka wydaje się kiepskim pomysłem, bo żeby zmniejszyć szumy odczytu 2x musimy pomnożyć elektrony w pikselu 2 krotnie co zmniejszy nam studnię potencjału 2 razy, jednak w rzeczywistości 2 krotne zmniejszenie szumów odczytu pozwoli pomieścić 4x więcej dynamiki co przy naszej 2 krotnie zmniejszonej studni potencjału pomieści 2x więcej dynamiki.
  11. Piszesz o tak zwanym "DR (stops)" czyli "Dynamic Range stop", stosunku sygnału do "szumu poza obiektem", ja natomiast pisałem o szumie na obiekcie. Myślę że Atik pod względem DR (stops) nie jest gorszy od np.: Nikona D3s. Atik ma studnię 10200e co przy szumach odczytu 3e daje stosunek sygnał szum 10200e/3e = 1:3400 = 2^11.7 czyli 11.7 DR (stops), dokładnie tyle samo ma Nikon D3s http://www.sensorgen...o/NikonD3s.html Jeśli kamerce kolor z szumami odczytu 5e (ICX262AQ) w miejskich warunkach DR (stop) zaczyna psuć light pollution już po 15 sekundach naświetlania przy f/5. To na kamerce mono z szumami 3e nastąpi to ze 10x szybciej. Załużmy że mamy wiejskie niebo 4 mag lepsze 40/10 = 4 x dłużej trzeba by czekać żeby kamerka naświetliła tło do poziomu 9e co da szum kwantowy 3e równy szumowi odczytu 3e.
  12. Wynik próby liczenia ADU/elektron dla matrycy KAF-5101CE i czułości 100 ISO na podstawie stosunku sygnał szum, to znaczy dzielimy sygnał przez szum, a prezentowany wynik to stosunek szumu do stosunku sygnał szum, np.: kamerka pokazuje poziom szumu 20 mając jednocześnie stosunek sygnał szum 1:10, to znaczy że mamy 2 ADU/elektron. 1/4000s -> 29,76 1/2000s -> 17,08 1/1000s -> 8,90 1/500s -> 5,48 1/250s -> 3,71 1/125s -> 3,11 1/60s -> 2,88 1/30s -> 2,79 1/15s -> 3,48 1/8s -> 4,9 1/4s -> 7,42 1/2s -> matryca prześwietlona Dla zbyt krótkich czasów wynik jest zawyżony bo zakłucają go szumy odczytu, w teorii im bardziej naświetlamy tym lepiej bo zmniejszamy wpływ szumu odczytu w praktyce pojawiają się szumy od drugiej strony. Więc kamerka posiada tylko jeden optymalny punkt do naświetlania począwszy od którego będzie lepsza poprawa ze "stackowania z przesunięciem o np.: kilka pikseli na klatkę" niż dalszego wydłużania czasu ekspozycji, zaznaczyłem go kolorem zielonym.
  13. Zdecydowanie powierzchnia lustra górą, założyłem sobie kiedyś obiektyw typu zoom do kamery przemysłowej, taki co ma stałe światło na całym zakresie zooma, to mi gały wyszły jak szybko przybywało gwiazd w mieście, 6x większy zoom, 36x większy zasięg. Bo jeśli zwiększasz sprawność kwantową kamerki to zwiększasz wpływ light pollution, a przy zoomie ze stałym światłem masz taki sam wpływ light pollution. Zestaw 2 ze względu na obiektyw będzie miał zasięg większy 1.7777777x = (400/300)^2. Zestaw 2 ze względu na sprawność kwantową kamery będzie miał zasięg mniejszy 1.18181818x = sqrt(65/55). Zestaw 2 ze względu na wielkość piksela będzie miał zasięg mniejszy 1.08823529x = 7.4/6.8. Zestaw 2 razem będzie miał zasięg większy 1.38x = 1.7777777/1.18181818/1.08823529.
  14. astroccd

    Magnitudo

    To moja własna obserwacja, podobna do tej że szum na zoomie cyfrowym odczuwamy jako 6db większy. Audiofile używają szumu różowego żeby słyszeć wszystkie częstotliwości równo, ale to dotyczy chyba tylko słuchu, odnośnie wzroku wystarczy generować szum biały i będziemy widzieć "równo" zarówno w sensie osi czasu jak i płaskiej powierzchni x i y. Integracja pamięciowa. Postawmy komuś na plecach 10 palców razem, a potem dotykajmy każdym palcem osobno nie ma to znaczenia i tak odgadniemy figurę bo pamiętamy poprzednie palce. Nieintegrowalność szumów, jako że zawierają części zintegrowane, integracja jako zabieg kosmetyczny. Częstotliwość: Przyjmijmy że jeśli obiekt przesuwa się z prędkością jednego piksela na klatkę to ma częstotliwość najwyższą. Gdy porusza się 2x wolniej i pozostaje w tym samym miejscu na 2 klatkach częstotliwość 2x mniejsza. Gdy porusza się 3x wolniej i pozostaje w tym samym miejscu na 3 klatkach częstotliwość 3x mniejsza. Gdy nie porusza się wcale i pozostaje w tym samym miejscu na wszystkich klatkach częstotliwość najmniejsza. Można sobie wyobrazić oś czasu dla jednego piksela jako długą linię na której obiekt poruszający się szybko zostawił 1 ślad, a ten poruszający się 2x wolniej 2 ślady obok siebie, ten poruszający 3x wolniej 3 ślady, ten bez ruchu cały czas zostawia ślad. Otóż obiekt o danej prędkości czyli częstotliwości oddziaływuje tylko z szumem o takiej samej częstotliwości. Szum o innej częstotliwości nie oddziaływuje na obiekt. Przykład jeśli mamy nieruchomy punkt i mamy nieruchome hot piksele to nie wiemy gdzie jest punkt. Jeśli mamy ruchomy punkt i nieruchome hot piksele to wiemy gdzie jest punkt. Jeśli mamy nie ruchomy punkt i ruchome hot piksele też wiemy gdzie jest punkt. Jeśli mamy ruchomy punkt i ruchome hot piksele każdy w innym kierunku to nie wiemy gdzie jest punkt. Jeśli punkt porusza się z inną prędkością niż hot piksele to wiemy gdzie jest punkt. Nie jest to zasługa tylko pracy mózgu bowiem komputer przy użyciu filtrów o różnych częstotliwościach też będzie wiedział gdzie jest punkt. Wzór który mówi o tym że punkt musi być 5x jaśniejszy od średniego szumu statystycznego by można było go odróżnić od szumu jest tylko prawdziwy dla pojedynczej fotki. W animacjach w osi czasu, częstotliwość nieruchomego punktu jest najniższa i może zostać on zagłuszony tylko poprzez nieruchomy szum o najniższej częstotliwości, szumy o wysokich częstotliwościach nie zagłuszają nieruchomego punktu nie oddziaływują z nim, szum statystyczny zawiera odrobinę bardzo niskich częstotliwości, dlatego uda nam się w końcu zagłuszyć nieruchomy punkt, ale poziom szumu średniego na pojedynczej klatce musi być o wiele wyższy. Przykład z płaskim nie animowanym obrazkiem (w osi x i y, nie czasu), pojedynczy punkt musi być 5x jaśniejszy od szumu średniego, aby można go było odróżnić od szumu, nie dotyczy to jednak dużych obiektów np.: 100x100 pikseli, jako że składają się z niskich częstotliwości nie oddziaływują one z wysokimi częstotliwościami, dopiero niskie częstotliwości mogą zagłuszyć duży obiekt, ponieważ szum statystyczny dla niskiej częstotliwości (obszaru 100x100) jest 100x mniejszy to poziom szumu średniego możemy zwiększyć 100x i dopiero wtedy zagłuszymy duży obiekt. Wysokie częstotliwości nie oddziaływują z niskimi, możemy obrazek pojechać filtrem dolnoprzepustowym gaus o średnicy 100 pikseli żeby pozbyć się brzydkich pikseli, wygładzić go, ale to tylko zabieg kosmetyczny, upiększający, nie wnosi informacji. Przykład: jeśli ze szumu statystycznego wytniemy najniższe częstotliwości (w osi x i y) nigdy nie uda nam się zagłuszyć dużego obiektu np.: 100x100 pikseli, szum będzie wtedy oscylował według sinusa od wartości ujemnych do dodatnich, przypominając coś na wzór śladu maski bayera, maskę bayera można traktować jako częstotliwość najwyższą nie zagłusza ona niskich częstotliwości. Szum statystyczny jest zbiorem sinusoid o wszystkich częstotliwościach i jednakowych amplitudach, przyczym częstotliwości układaja się liniowo np.: zakres 1-2 Hz jest równoznaczny z 1001-1002 Hz. Jeśli ułożymy częstotliwości logarytmicznie zakres 1-2 Hz będzie równoznaczny z 1000-2000 Hz, szum taki będzie rosnąć o 3db z każdym podwojeniem częstotliwości. Wracając do animacji i nieruchomego punktu, pozbawiając szum statystyczny niskich częstotliwości w osi czasu nigdy nie zagłuszymy nieruchomego punktu bowiem szumy będą oscylować wokół sinusa, zawsze będzie można odróżnić nasz punkt. Integracja jest zabiegiem czysto kosmetycznym, upiększającym, wycinamy wysokie częstotliwości obraz wygląda ładniej, ale pamiętajmy że usuwamy szumy które i tak nie oddziaływały na nieruchomy punkt bo miały inną wyższą częstotliwość więc nic nie zyskujemy poprzez integrację nie zwiększamy zasięgu. Pamiętajmy że każdy szum statystyczny składa się ze wszystkich częstotliwości, niskie częstotliwości zawierają zintegrowany obraz dlatego nie musimy obrazu integrować bo już jest zintegrowany. Dawno już zauważyłem że w kamerze przemysłowej po włączeniu uśredniania typu 1+2+3+4 potem 2+3+4+5 potem 3+4+5+6 nie przybywa gwiazd, mimo że obraz robi się gładki, oto rozwiazanie problemu, uśrednianie to zabieg kosmetyczny i upiększający nie wnosi informacji, kamerka wywaliła tylko to co i tak nie było w stanie popsuć zasięgu czyli szum o wysokich częstotliwościach. Dla astronoma mogła by tego nie wywalać bo i tak zasięg nie rośnie, dla lepszej kompresji może sobie wywalać. Częstotliwość: Jak to się dzieje że pojedynczy piksel zawiera niskie częstotliwości, a mimo to widzimy go jako pojedynczy punkt. Jeśli pojedynczy punkt pojedziemy filtrem dolnoprzepustowym o rozmiare 2x1 to otrzymamy obraz nizszej częstotliwości z jednego piksela zrobią się dwa, jest to dowód że pojedynczy piksel zawiera niższe częstotliwości, ale czemu ich nie widzimy, otórz aby pojedynczy piksel miał reprezentować tylko wysoką częstotliwość musiał by mieć brata negatywa, na szarym tle obok białego piksela musimy postawić czarny piksel wtedy mamy wysoką częstotliwość, jeśli pojedziemy go filtrem dolnoprzepustowym o rozmiarze 2x1 zupełnie zniknie jest to dowód że nie zawiera niskich częstotliwości. Nasz pojedynczy piksel to suma częstotliwości niskich i wysokich, częstotliwości wysokie to nasz biały piksel ze swoim czarnym braciszkiem, częstotliwości niskie to nasze dwa białe piksele, jeśli zsumujemy oba obrazy otrzymamy pojedynczy piksel. Tym samym dwa bardzo odległe od siebie piksele mogą być połączone bardzo niskimi częstotliwosciami. A tylko dla tego je widzimy obobno że nasz monitor ma idealnie liniowa charakterystykę czestotliwości, jeśli coś się zepsuje lub wstawimy jakiś filtr, mozemy zobaczyć że dwa punkty są zintegrowane.
  15. astroccd

    Magnitudo

    Ogólnie noktowizory nie mają wysokiej sprawności kwantowej 100% jak CCD tylko może 10%, korzystają głównie na braku szumów odczytu. Stare ruskie noktowizory pierwszej lub nawet zerowej kategorii miały kiepską sprawność kwantową. Pręciki w ciemności widzą wąski zakres fal pomiędzy kolorem zielonym, a niebieskim, a mimo to zasięg gwiazdowy jest podobny do noktowizora łapiącego kolory niebieski, zielony, czerwony i podczerwony. Można przypuszczać że zakładając na noktowizor wąski filtr podobny do czułości pręcików zupełnie go oślepimy. Posiadając Newtona 150/900, wyobrażałem sobie noktowizor jako okular, ogniskujesz obraz z teleskopu na detektorze i oglądasz z tyłu na ekranie. Był to bardzo długoogniskowy okular bo powiększenie bardzo małe odpowiednik ogniskowej 43,5 mm. Mój najdłuższy prawdziwy okular jaki posiadałem miał 20 mm więc obraz był ciemniejszy, ale niewiele, dam sobie głowę uciąć że gdybym ten noktowizor podłączył do teleskopu o ogniskowej 2x większej i takiej samej średnicy żeby powiększenie było identyczne to obraz był by tak samo jasny. Ideologia noktowizora pierwszej i zerowej kategorii to własny oświetlacz terenu podczerwienią. Poza tym nie można założyć prawdziwego okularu 43.5mm do obiektywu 100/2 bo źrenica wyjściowa będzie miała 21.8 mm, a noktowizor można, obraz pojaśnieje i będzie wykorzystywana cała powierzchnia obiektywu. Odnośnie integracji wydaje mi się że nasz mózg tak działa że jeśli na ekranie mamy krążki o różnej średnicy to ten o większej średnicy będzie się wydawał jaśniejszy, tak rysowane są gwiazdy w komputerowych planetariach, to samo dotyczy czasu, krążek zapalany na 1/10s będzie się wydawał jaśniejszy od tego świecącego przez 1/20s, nie dotyczy to tylko wzroku tylko wszystkich zmysłów, można dzwonić do drzwi przez 1/20s i 1/10s można się ukłuć w palec przez 1/20s i 1/10s. Zawsze ten dłużej trwający bodziec będzie wydawał się intensywniejszy. Czy jest zatem sens uśredniać wartości z dwóch próbek czasowych by potem odtwarzać je 2x wolniej, skoro nasz mózg już to zrobił. Tak samo z płaskim obrazkiem, jeśli ustawimy obok siebie 4 kwadraty o boku 2x2 pikseli, żeby powstał jeden o boku 4x4 to czy jest sens binnować obraz 4x4 i skalować spowrotem do oryginalnego rozmiaru, skoro nasz mózg już to zrobił.
  16. astroccd

    Magnitudo

    A czy podkręcając czułość softwaerowo na obrazku z lustrzanki jesteś w stanie zwiększyć ilość widocznych gwiazd, podkręcasz czułość, podkręcasz szumy i widzisz tyle samo gwiazd. Z góry zakładasz że rozwiązanie problemu jest tylko jedno, może te testy w PDFach są prawdziwe, ale taki sam wynik otrzymasz w inny sposób, Ziemia krąży wokół Słońca, Słońce wokół Ziemi, wyniki pomiarów będą takie same. Nie widzisz pulsów 3Hz bo integracja wynosi 3Hz, nie widzisz pulsów 3Hz bo jeden foton przypada na 3Hz. Są to 2 różne rozwiązania tego samego problemu. Nie rozumiesz ani słowa z tego co napisałem o szumie błękitnym i z góry zakładasz że nie mam racji. Poprawka, niskie częstotliwości nie są stackiem wysokich, to pojedynczy foton zawiera odrobinę niskich częstotliwości, dlatego możemy wyciąć wysokie częstotliwości i nie pozbędziemy się fotonu, przy dwóch fotonach w większej odległości czasowej te niskie częstotliwości się sumują. Jeśli nasz mózg promuje niskie częstotliwości zamienia szum błękitny na biały widzimy te sumy fotonów. Po co zatem mamy stackować, stackowanie to całkowite wycinanie wysokich częstotliwości, ogranicza nam rozdzielczość czasową do pojedynczych przedziałów np.: 0.3s i powoduje smużenie satelitów. Całkowite wycinanie wysokich częstotliwości nie poprawia jakości niskich częstotliwości. Szum odtwarzany z 2x mniejszą prędkością odczuwamy jako 3db silniejszy. Stack 2 klatek poprawia stosunek sygnał szum o 3db, ale zmniejsza prędkość 2x więc odczuwamy go jako 3db silniejszy czyli taki sam, stack nic nie daje. Jeśli np.: stackujesz dane z noktowizora przez godzinę by otrzymać jedną fotkę, to jest to odpowiednik przyspieszenia czasu, nieskończoną ilość razy, bowiem godzinę integracji widzisz natychmiast. Niestety niektórzy mylą stack pojedynczej fotki ze stackiem w czasie rzeczywistym. Być może zakładasz że oko ma szumy odczytu, jeśli kamera CCD ma szumy odczytu to integracja 2x poprawia stosunek sygnał szum o 6db i wtedy taka integracja ma sens, niestety jest to integracja sekund typu 1+2+3+4 potem 5+6+7+8 potem 9+10+11+12, satelita wtedy porusza się skokowo, takiej integracji w oku na pewno nie ma. Inny rodzaj integracji czyli uśredniania klatek 1+2+3+4 potem 2+3+4+5 potem 3+4+5+6 nie poprawi stosunku sygnał szum o 6db na 2 uśrednione klatki tylko o 3db, a ponieważ szum odtwarzany z 2x mniejszą prędkością postrzegamy jako 3db większy nic ta integracja nam nie da. Czemu postrzegamy szum odtwarzany 2x szybciej jako 3db mniejszy bo jest zintegrowany w naszym mózgu, ale w sprytny sposób że każdą klatkę widzimy osobno, po co zatem ma być integracja prymitywna na siatkówce. Integracja typu klatka 1+2+3+4 prowadzi do wzrostu szumów odczytu, jeśli przykładowo widzisz nieruchomy punkt bo jego fotony się dodały, nie zobaczysz go w ruchu, bo się nie dodadzą i szum odczytu je zagłuszy. Odnoszę wrażenie że ruch dla oka w ciemności nie ma żadnego znaczenia, oczywiście umiarkowany ruch. Może to być dowód na brak szumów odczytu lub brak integracji. Czasem jakiś prosty eksperyment może dowieść czegoś bez wnikania w budowę oka. Odnoszę wrażenie że ze wszystkich informacji wybierasz tylko te które pasują dokładnie do zmierzonego przez ciebie zasięgu 7.6 mag, temat cię nie interesuje tylko bronisz swojego zdania, czy dyskutował byś gdyby ktoś inny wyznaczył te 7.6 mag, a nie ty? Co do lustrzanki analogowej, otwierasz klapę na film, zdejmujesz obiektyw i masz super precyzyjną migawkę.
  17. astroccd

    Magnitudo

    Jeśli każda kolejna próbka to odcinek czasu, integrację możemy rozumieć jako usunięcie z widma szumu wysokich częstotliwości, otrzymamy efekt smużenia np.: satelity. Szum losowy jest biały, zawiera po tyle samo mocy dla liniowo rozłożonych częstotliwości. Ponieważ to czas biegnie liniowo, częstotliwości ułożą się logarytmicznie, a więc szum biały stanie się błękitny, w którym moc rośnie wraz z częstotliwością. Okazuje się że szum błękitny postrzegamy jako biały, mózg uwypukla niskie częstotliwości, szum odtwarzany z mniejszą prędkością bardziej dokucza. Jeśli przyjąć że niskie częstotliwości to integracja wysokich, widzimy jednocześnie obraz zintegrowany i nie zintegrowany. Nie potrzebujemy go integrować bo już jest zintegrowany, nie ma efektu smużenia bo zawiera też sygnał bez integracji. Możliwe że przy odtwarzaniu animacji z odstępami między klatkami powyżej 0.3s mózg postrzega obrazek jako stały, więc nie ma znaczenia czy odstępy wynoszą 10s czy 1s, dokuczliwość szumu jest taka sama. Zmienia się zatem charakterystyka postrzegania szumu jako białego i nie ma już auto integracji mózgowej, potrzebujemy prawdziwej. Eksperyment z łapaniem fotonów, znajdźmy najsłabszy świecący punkt widoczny przez 100% czasu po pełnbej adaptacji do ciemności, zamknijmy oczy i otwórzmy na możliwie najkrótrzy czas jaki to możliwe, nie zobaczymy punktu, bo prawdopodobnie nie było fotonu, po iluś próbach udaje się go zobaczyć co by sugerowało złapanie fotonu. Można by powtórzyć eksperyment z migawką lustrzanki analogowej, znając precyzyjnie czas otwarcia migawki, liczbę prób i jasność gwiazdy, obliczyć ile fotonów odbiera oko na jednostkę czasu.
  18. astroccd

    Magnitudo

    Normalnie przez noktowizor patrzysz jak przez lunetę, jeśli otworzysz drugie oko to widzisz że obiekty są tej samej wielkości. Tak podają w katalogach że wzmacnia wiele tysięcy razy, bo jeden foton padający na sensor wybija tysiące fotonów z luminoforu na ekranie, ale te fotony z ekranu rozbiegają się w promieniu 180 stopni do oka trafi niewiele. Kiedyś podłączyłem kamerę z tyłu noktowizora i udało się podnieść jasność obrazu tylko 10x, okazało się że powierzchnia obiektywu noktowizora była 10x większa od powierzchni obiektywu kamery, po przymknięciu średnicy obiektywu noktowizora do rozmiaru średnicy obiektywu kamery obraz był tak samo jasny jak ze samej kamery bez noktowizora. To stary ruski noktowizor pierwszej generacji, bez własnego oświetlacza terenu mało użyteczny. Taki samo czuły jak oko, więc kupiłem trzecie oko, po co mi trzecie oko? Bo do swojego nie założę soczewki o światłosile 1:1, bo nie musi się przyzwyczajać godzinę do ciemności od razu jest gotowy. Nie bo na CCD jest tak samo, spokojnie sobie fotografuję z miasta gwiazdki 8 mag, bez obróbki, wyostrzania, rozciągania histogramu, przy ogniskowej 8 mm na kompakcie, daje to pole widzenia 49 stopni, przy rozdzielczości 1024x768 masz ok. 3' na piksel. Jeśli np.: masz tło naświetlone do 100 elektronów, to szum średni będzie 10, żeby zobaczyć gwiazdę musi ona mieć co najmniej 5x większą jasność od szumu średniego czyli 50. Zmniejszając ilość światła 10x, tło naświetlisz do 10 elektronów co da szum 3.3, a gwiazda będzie miała jasność 5, a więc będzie niemożliwa do wyłowienia z szumu tła, gdybyś usunął light pollution to zobaczysz gwiazdę na czystym tle. A więc przymykając obiektyw zmniejszasz ilość światła od gwiazdy liniowo proporcjonalnie do powierzchni obiektywu, natomiast poziom szumu od tła zmniejsza się z pierwiastkiem kwadratowym zmniejszania powierzchni obiektywu. Zmniejszając powierzchnię obiektywu 10x musisz jednocześnie wyjechać za miasto tam gdzie light pollution będzie 10x mniejsze żeby uzyskać taki sam zasięg. No przecież cały post na to poświęciłem, czy muszę np.: szukać potwierdzenia tezy że przy zoomie cyfrowym szum bardziej mi dokucza, mimo że pomiar "odchylenia standardowego" nie wykazuje wzrostu szumu. Jeśli robisz binnowanie softwaerowe 2x2 to pomniejszasz rozmiar obrazu i masz poprawę, ale czy robiąc to samo bez pomniejszania uzyskasz poprawę? Tak samo ze strumieniem fotonów w przestrzeni 3D, nie tylko płaska powierzchnia ekranu na który pada foton się liczy, ale też droga po jakiej pędzą fotony. Uśredniając fotony musisz skrócić drogę (zwiększyć prędkość) bo inaczej nie zobaczysz poprawy, a więc po co w oku mała by być integracja 0.3s skoro nic ona by nie dała bo nie skracasz drogi.
  19. astroccd

    Magnitudo

    Okazuje się że nie kontrast jest przyczyną, jeśli do noktowizora założysz obiektyw Helios 58/2 żeby mieć powiększenie 1x, zobaczysz wszystkie gwiazdki 8 mag naraz i to z centrum miasta, jeśli natomiast przymkniesz obiektyw do średnicy ludzkiego oka, zasięg gwiazdowy ograniczy ci szum kwantowy tła nieba. Odnośnie integracji 0.3s w oku polecam obejrzeć animację satelity z integracją 0.3s http://www33.zippyshare.com/v/19410649/file.html trzeba kliknąć download i pobrać animację, na pewno integracja w stylu klatka 1+2+3+4 potem 5+6+7+8 potem 9+10+11+12 w oku nie występuje bo byśmy widzieli ruch satelity skokowo, co najwyżej może być uśrednianie 1+2+3+4 potem 2+3+4+5 potem 3+4+5+6 wtedy animacja będzie płynna, ale będzie występować smużenie, obserwując w nocy nie widzę smużenia, mam kamerkę telewizji przemysłowej w której można włączyć integrację np.: 0.3 s lub uśrednianie więc mam porównanie jak by to kiepsko wyglądało. Otóż oko to najdoskonalszy instrument do rejestracji super słabych satelitów lub meteorów żadna kamerka nie zastąpi oka bo nadaje się tylko do bolidów. Oko to nie elektroniczna maszyna, ale podobieństwa do noktowizora dostrzegam, noktowizor działa w czasie rzeczywistym nie ma integracji, fotografując w milionowych częściach sekundy na luminoforze ekranu noktowizora widział byś tylko jeden foton, oczywiście luminofor nie jest doskonały obraz znika z niego przez jakiś czas, dlatego mamy uśrednianie fotonów. Oko nie ma integracji, machając ręką przed oczyma widzisz rozmazany obraz, ale machając na tle monitora komputerowego CRT mrugającego 85 razy na sekundę widzisz ostre krawędzie, co sugeruje że oko działa płynnie, co najwyżej mamy uśrednianie 1+2+3+4 potem 2+3+4+5 potem 3+4+5+6 raczej nie zamrożonych klatek tylko fragmentów czasu na podobieństwo luminoforu. Odnośnie zarzutu że za bardzo przyrównuje oko do elektroniki, otóż istnieje coś takiego interpretacja wad obrazu i wtedy mnie nie interesuje skąd obraz pochodzi bo może pochodzić z kliszy fotograficznej, jeśli ktoś podaje że sprawność kwantowa kliszy wynosi 1% to jest to interpretacja wad obrazu i oznacza dla mnie jedno, szumy na całym obrazie będą 10x większe, a dynamika będzie rosła w tempie 3db na każde podwojenie jasności. Natomiast jeśli ktoś pomylił sprawność kwantową z innymi wadami jak ziarno fotograficzne to może oznaczać że dynamika będzie rosła 6db na każde podwojenie jasności. Może śmieszne jest podawanie rozmiaru ziarna fotograficznego jako szum odczytu w elektronach, jednak szum odczytu to ważny parametr obrazu. Wiem oko to nie elektronika, ale duże podobieństwo obrazu do noktowizora jest, efekty małej ilości kwantów: mrowienia, zasięg gwiazdowy jest identyczny, na kamerce CCD to bym musiał włączyć mnożnik integracji 6x1/50s żeby uzyskać taki sam zasięg, nie ma tu charakterystycznego mrowienia małych porcji kwantów, szum odczytu tnie równo dynamikę małych porcji kwantów w cieniach, integracja w sensie wydłużania czasów ekspozycji jest przydatna dla urządzeń posiadających szumy odczytu typu kamerka CCD, pozwala uzyskać poprawę dynamiki 6db na każde 2 krotne wydłużenie czasu ekspozycji, w przypadku urządzeń bez szumów odczytu jak noktowizor integracja niewiele by pomogła, zwykle tylko 3db na podwojenie czasu ekspozycji i to tylko w przypadku 2 krotnego przyspieszenia odtwarzania zarejestrowanego obrazu. Tak zwane zjawisko większej dokuczliwości szumu przy jego wolniejszym odtwarzaniu, jeśli odtwarzamy z taśmy magnetowidowej szum i spowolnimy odtwarzanie 2 krotnie, szum stanie się bardziej dokuczliwy. Próba poprawiania jakości zaszumionej audycji radiowej poprzez wycinanie wysokich częstotliwości (odpowiednik uśredniania) jest mało skuteczna, do pełnej poprawy musielibyśmy nadawać audycję w zwolnionym tempie, nagrać i odtworzyć w przyspieszonym. A i tak poprawa to tylko 3db/2 krotną zmianę częstotliwości. Dlatego noktowizor nie ma integracji i doskonale się spisuje, oko też nie ma integracji na pewno nie 0.3s może ma 0.02s uśredniania na podobieństwo luminoforu. Najsłabszy punkt możliwy do zaobserwowania w ciemnym pokoju okiem po całkowitej adaptacji do ciemności przez ponad godzinę, przypomina niestabilne światło świecy na wietrze, mimo iż pochodzi od stabilnej diody, odbijającej się od klosza żyrandola, dlatego nie ma szans zaobserwowania pulsów 3Hz. Cały czas z zamkniętymi oczyma po całkowitej adaptacji do ciemności lata mi jakis szum przed oczyma, jest tak szybki jak z TV 1/50s, nie przypomina ani tego wolnego szumu z kamerki przemysłowej po wlączeniu integracji np.: 14x1/50s, ani tego po włączeniu uśredniania klatek, kto ma kamerkę przemysłową to może lepiej zrozumie jak wygląda wolny szum.
  20. astroccd

    Magnitudo

    Co do ekstynkcji to wydaje mi się że podczas normalnej nocy tracę w mieście 1 magnitudę, tylko parę razy w roku nawet przy Księżycu udaje się zobaczyć gwiazdy o 1 magnitudo słabsze niż normalnie bez Księżyca. Mamy jeszcze w oku nie powlekaną powłoką antyodblaskową soczewkę i rogówkę od jednej strony soczewki potrafi się odbijać 10% światła. Odnośnie sprawności kwantowej, wyobraźmy sobie bardzo kiepskiego CMOSa, w którym powierzchnia fotoczuła wynosi 1% powierzchni piksela, potrzeba by wtedy 100 fotonów do wybicia 1 elektronu, ale zrozumiałym jest że jeśli pojedynczym fotonem nie uda się wybić elektronu to po 100 próbach jest to prawdopodobne że się uda trafić w to czułe miejsce. Teraz wyobraźmy sobie super czułą CCD ze 100% pokrycia piksela powierzchnią fotoczułą, zakładamy filtr szary przepuszczający 1% światła więc też potrzebujemy 100 fotonów do wybicia elektronu, czy zatem 1 fotonem nigdy nie uda nam się wybić elektronu? Nie prawda, po 100 próbach na pewno się to uda. Odnośnie oka, ostrość widzenia bardzo szybko spada wraz z oddalaniem się od centrum siatkówki. Może to być spowodowane tym że ilość elementów światłoczułych spada, oraz tym że nieachromatyczna soczewka rozmazuje obraz poza centrum. Udało mi się zaobserwować kontem oka moirę co wskazuje że odległości pomiędzy elementami światłoczułymi są duże, nie udało się zaobserwować kątem oka ślepych plamek pomiędzy elementami światłoczułymi, obraz jasnej diody zawsze jest widoczny, co oznacza że nieostrość od kiepskiej soczewki występuje na brzegach siatkówki i kompensuje odległości elementów światłoczułych. Nie prawdą jest zatem że bez 100 fotonów nie uda nam się nigdy zarejestrować zjawiska, być może wystarczy 100 prób z pojedynczym fotonem. Nie możliwe jest zrobienie kamery, która by potrzebowała 100 fotonów na zjawisko i jednocześnie nie była w stanie zarejestrować jednego fotonu, bowiem nie możliwe jest wypuszczenie 100 fotonów na raz, zawsze będzie zliczała sobie 1,2,3,4...98,99,100, a więc będzie wstanie zarejestrować pojedynczy foton, co najwyżej szumy odczytu mogą wynosić 100 elektronów, ale wtedy podawanie że kamera ma sprawność kwantową 1% jest nie poprawne, trzeba podać sprawność kwantową 100% i szumy odczytu 100 elektronów. Oko nie ma integracji i być może sprawność kwantowa jest mylona z szumami odczytu. Nie możliwe wydaje się aby szumy odczytu siatkówki były aż tak wielkie. Oko ma tak duży zakres dynamiki w cieniach że obstawiał bym że nie ma wcale szumów odczytu, porównując z kiepską lustrzanką o szumach 15e, która wydaje się być ślepa w cieniach. Jeśli okiem widzisz obiekt przez 25% czasu spróbuj poruszać teleskopem. Okazuje się bowiem że można poprawić widzenie przez teleskop poprzez potrząsanie nim, wtedy słaby obiekt mgławicowy wygląda lepiej, uśrednia się szum, co oznaczało by że mamy podobne zjawisko jak na matrycy CMOS, różnice między miernikami, siatkówka bardziej pasuje do CMOSa, bo ma tyle mierników co pikseli, w odróżnieniu od CCD gdzie mamy jeden miernik. Trzęsąc CCD nie poprawimy obrazu, raczej go zepsujemy, szczególnie jeśli nastawimy integrację np.: 0.3 sek. Okazuje się że siatkówka jest super szybka dla ciemnych obiektów, ruszanie teleskopem poprawia widoczność, a nie pogarsza, nie wiem czy dotyczy to gwiazd czy tylko obiektów mgławicowych i czy obiekt mgławicowy musi się sporo przesunąć w czasie 0.3s czy wystarczy nie więcej niż piksel i czy przesunięcie o np.: 20 pikseli w czasie 0.3s go rozmywa czy nie, bo integracja zachodziła by np.: w mózgu, trzeba by to sprawdzić. O poruszaniu teleskopem wyczytałem już dawno temu, był to pomysł na poprawienie widzenia przytoczony razem z metodą zerkania kątem oka.
  21. Źle się wyraziłem miałem na myśli tylko samą zmianę długości fali. Miałem na myśli detektory o płaskiej charakterystyce dla fal od czerwieni do fioletu. Wtedy światło lampy błyskowej 5500K jest białe. Tak z zestawu RGB. Gdyby ktoś chciał użyć szerszego filtra lub węższego to czy prawidłowo jest podawać taką samą magnitudę co w filtrze standardowym?
  22. astroccd

    Magnitudo

    Nie potrzebnie tyle obliczeń, na stronie http://spiff.rit.edu...gnal_illus.html jest podane że gwiazda 0 mag. emituje w filtrze V 866000 fotonów/sec/cm^2. Nie jest to wynik tylko samych obliczeń, potwierdziłem to przy pomocy CCD. Zakładając że sprawność kwantowa ludzkiego oka wynosi 1%. Ekstynkcja atmosferyczna 50%. Powierzchnia czynna nieachromatycznej soczewki oka 20 mm^2 liczona od średnicy 5 mm, reszta to promienie wokół gwiazdy. Polecam zakroplić atropinę rozszerzającą źrenice i popatrzeć w dzień pełną aperturą 8 mm - horror. Od gwiazdy 3.1 magnitudo mamy 1 elektron w oku na 1/50 s. Gwiazdy 3.1 widzimy na wprost, a więc łapiemy je szybkimi czopkami. Ponieważ ilość słabszych gwiazd rośnie lawinowo, pojawia się widzenie "virtualne", nie jesteśmy wstanie widzieć 100% gwiazd 8 magnitudo na raz, odzywa się jakiś ułamek procenta w danym czasie, a ponieważ jest ich strasznie dużo mamy złudzenie że cały czas widzimy gwiazdy 8 magnitudo. Np.: mamy 100 gwiazdek 8 mag., zapala się tylko jedna w danym czasie, gaśnie, zapala druga, gaśnie, zapala trzecia itp. Czy zatem mamy zasięg 8 magnitudo? Nie, to tylko widzenie "wirtualne".
  23. astroccd

    Magnitudo

    A nie były to przypadkiem pojedyncze fluktuacje? Jeśli na siatkówce oka pojedynczemu elektronowi na 1/50s odpowiadała by jasność 6 mag. to praktycznie każda ciemniejsza gwiazdka musi sobie kiedyś błysnąć do 6 mag. tylko odpowiednio rzadziej. Czy wogóle możliwe jest określenie zasięgu dla odbiorników bez szumów odczytu jak noktowizor czy oko? Jakieś przypadkowe gwiazdki puszczają sobie błyski, każda pewnie tylko raz, ale przy takiej ilości gwiazd na niebie cały czas to widać. Może mam sokoli wzrok i widzę pojedyncze fotony, ale nie podejmę się określenia zasięgu dla gwiazd słabszych od 6 mag. błąd pomiaru jest zbyt duży. Gwiazdy nie świecą ciągłym blaskiem, im gwiazdka ciemniejsza tym fluktuacje blasku większe,.a my łapiemy te najjaśniejsze momenty i możemy się nabrać że widzieliśmy naprawdę słabą gwiazdkę. Na kamerze CCD tego nie ma, ale jeśli ktoś bawił się kiedyś noktowizorem zrozumie w czym rzecz.
  24. Atlas fotograficzny, każda mgławica jest inna i nie da się porównać. Jasność obiektów wyznaczana jest na podstawie najjaśniejszych fragmentów mgławicy, każdy ma inne kryterium, często wyznaczana razem z gwiazdami świecącymi na tle mgławicy. W przypadku mgławic czerwonych nie podawana jest wcale, bo człowiek nie widzi barwy czerwonej w nocy. Filtr "Visual" odnosi się do widzenia dziennego, w nocy używamy pręcików, które są czułe na inne spektrum. Filtr Visual różni się od filtra Green tym że jest węższy przez to odporny na charakterystykę CCD. Nawet filtr G słabo sięga do linii OIII, filtr V na pewno tam nie sięgnie. Skala magnitudo nie ma nic wspólnego z ilością fotonów, jest to energia promieniowania, index B-V wynosi zero dla niebieskich gwiazd 10000K, podczas gdy matryca CCD widzi światło białe dla 5500K. Pozostaje jeszcze problem czy gwiazda zmierzona szerszym filtrem G ma większą jasność od filtra V bo zebrano więcej energii, czy też taką samą.
  25. Zamiast uśredniania lepiej użyć dodawania, stare klatki potraktować starym master darkiem i pododawać i nowe klatki potraktować nowym master darkiem i pododawać na koniec dodać do siebie sesje. Uśrednianie jest dobre tyko wtedy gdy mamy tyle samo klatek starego i nowego materiału. Chyba że potrafimy od starych klatek (każdej pojedynczo) odjąć starego master darka i od nowych nowego i na końcu (otrzymamy np.: 10 starych i 15 nowych klatek) wszystko uśrednić razem.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.