Jump to content

Leaderboard


Popular Content

Showing content with the highest reputation since 07/01/09 in Blog Entries

  1. 20 points
    Obserwuję polską astrofotografię od samego jej początku. Wydaje się, że mam już kilka spostrzeżeń, które w ostatnim czasie całkiem mocno promieniują na moje postrzeganie naszej branży. Jak wiecie, miałem przerwę ponad 3-letnią. Dobrze to i źle. Źle, bo bardzo mi tego brakowało, a dobrze dlatego, bo nabrałem pewnego dystansu - szerszej perspektywy. Robię znowu zdjęcia, rozmawiam z ludźmi, doradzam im, sprzedaję im sprzęt. Ale... 90% rozmów kończy się poradą, żeby nie kupowali nowego sprzętu. O ironio... dobry ze mnie handlarz - nie? No dobra, ale w czym rzecz? Dostrzegłem pewne procesy, które wg mnie, prowadzą donikąd. Kupujemy sobie jakiś sprzęt, potem szybko dopada nas frustracja, bo okazuje się, że ten sprzęt nie chce sam działać - jak to mówią amerykanie - "out of the box". Przykrość. Co robimy? Męczymy się z nim trochę, rzucamy w kąt, żeby po jakimś czasie wpaść na genialny pomysł. Kupujemy nowy sprzęt. Lepszy, droższy. No niestety - okazuje się, że ten droższy jest jeszcze gorszy. Cięższy, większy, więc trzeba zmienić montaż. Często jest to newton, więc dochodzi masakra związana z kolimacją. Kupujemy całą walizkę akcesoriów do kolimacji, bo jak się nauczę, to będzie fajnie. I tak generuje przychody dla branży astronomicznej całymi latami. Fajnie. Nakłada się tu jeszcze inny problem: chcemy mieć duży sprzęt. To mit pochodzący jeszcze z okresu obserwacji wizualnych, gdzie nie było innej drogi - kupowaliśmy wielkie lustra, żeby skompensować ograniczenia ludzkiego oka. Te zasady przenosimy do świata astrofotografii i choć oczywiście z punktu widzenia fizyki ciągle mają jakieś tam uzasadnienie, to jednak w świecie cyfrowym można hackować praktycznie wszystko - także ograniczenia wynikające z wielkości teleskopu. Zamiast kupować wielkiego newtona namawiam was, wręcz apeluję, kupujcie mniejsze teleskopy, lżejsze i prostsze refraktory i oddajcie się przyjemności astrofotografii. Z dzisiejszymi kamerami (mały piksel) możecie nawet wejść w świat obiektywów fotograficznych i uzyskać cudowne efekty. To zwykła funkcja czasu, który poświęcicie na zbierania fotonów i obróbkę - zamiast walki ze skomplikowanym sprzętem. Gorsze parametry mniejszego sprzętu można dzisiaj wspaniale kompensować narzędziami cyfrowej obróbki obrazu. Traktujcie matrycę jak kalkulator. Ma tylko policzyć wam fotony, a resztę już wyciągniecie sobie sami. Z moich eksperymentów wynika, że zamiast walczyć z szumem zdjęcia poprzez mnożenie wykładnicze czasu naświetlania (subekspozycji) znacznie taniej i efektywniej (w sensie czasu) jest nauczyć się uzyskiwać podobne efekty cyfrowo. Oczywiście nie twierdzę, że obróbką wygenerujecie fotony, które się nie zarejestrowały. Bynajmniej. Twierdzę jednak, że w szumie ukryta jest cała masa informacji i przy odpowiednich procedurach, da się ją wyłuskać i uzyskać bardzo akceptowalne zdjęcie. Trzeba oczywiście znaleźć złoty środek, ale z mojego doświadczenia wynika, że niezależnie od sprzętu w ciągu 3h (per kanał, kamera mono) da się zarejestrować praktycznie wszystko, co jest nam dalej potrzebne do obróbki. Możemy dalej świecić następne 3h, albo możemy zrobić to w komputerze w ciągu 30 minut, a w tym czasie zbierać materiał na kolejne zdjęcie. Co więcej, jak widać po wielu przykładach, taki ekwiwalent cyfrowy jest nierzadko lepszy, niż 3x dłuższe naświetlanie u osoby, która obrabiać nie potrafi. I tu dochodzimy do puenty, którą chciałbym dzisiaj zarysować i poddać pod dyskusję. Jak wiele powinniśmy inwestować w naukę obróbki? Jaka jest waga tej umiejętność w kontekście wartości sprzętu? Bo wg mnie wygląda to tak, że dobra warsztatowo osoba jest w stanie z taniego zestawu zrobić dużo lepsze zdjęcie, niż mierna na super wypasionym astrografie. Na pytanie "jak robić dobre zdjęcia" powinniśmy najpierw odpowiadać: ucz się obróbki materiału fotograficznego. Mi jest oczywiście łatwiej, bo blisko 20 lat zajmowałem się obróbką zawodowo, więc Photoshopem posługuje się sprawniej, niż moimi nogami. Teraz przynajmniej mogę wykorzystać te umiejętności na coś fajnego, a nie tracić czas na kolejne ch**** reklamy, których nikt nie cierpi. Z tej perspektywy czuję i widzę, jak to jest cholernie ważne. Nie twierdzę, że masz nie kupować sprzętu. Staram się przekazać, że zanim dokonasz świadomego upgradu sprzętu wyduś z aktualnego ostatnie soki. Zaszokuj nas swoimi umiejętnościami. Gwarantuję, że satysfakcja będzie po stokroć większa, niż chwilowa euforia z zakupu wypasionego sprzętu, który i tak, wcześniej czy później, skończy na giełdzie. Postaw sobie jakiś próg inwestycyjny, zaplanuj drogę i kolejne kamienie milowego tego planu realizuj dopiero, jak zamkniesz poprzednie. Inaczej mówiąc, nie kupuj nowego sprzętu, jeżeli nie uzyskałeś dobrych efektów z poprzednim. Brzmi dziwnie? Zauważcie, jak rzadkie jest to zjawisko. Na ogół sprzęt zmieniamy nie dlatego, że już robimy nim świetne zdjęcia, ale dlatego, że nic nam nie wychodzi. Jednocześnie nie zdajemy sobie sprawy z faktu, że droższy sprzęt w astrofotografii oznacza sprzęt znacznie trudniejszy. Zyskany czas i energię witalną przeznaczajmy na doskonalenie siebie - czyli umiejętności obróbki, które są absolutnie fundamentalne w naszym hobby. Mam nadzieję, że to, co tu napisałem rozjaśni komuś mrok frustracji astrofotograficznej i pozwoli podjąć lepsze decyzje. Jeżeli dla kogoś pieprzę oczywiste farmazony, to wybaczcie. Poniżej mały przykład. Ten sam materiał bez obróbki (wrzucony przez forumowicza) oraz zdjęcie po inwestycji w umiejętności obróbki - nie w sprzęt. Zadajcie sobie pytanie, ile trzeba palić to zdjęcie dłużej, żeby uzyskać zbliżony efekt bez zaawansowanej obróbki? i jeszcze cały crop 1:1 I na koniec - pamiętacie ten wpis? http://www.jesion.pl/blog/w-poszukiwaniu-zlotego-grala-taniej-astrofotografii-kamera-atik-314e/ Aktualizacja: wrzucam PSD-ka tego zdjęcia, czyli plik z Photoshopa, który mniej więcej pokazuje, jak wygląda mój proces. Jeżeli nie rozumiesz, co tam jest, to znaczy, że powinieneś zastanowić się nad zgłębieniem wiedzy. Żeby zobaczyć ten plik w pełnej krasie potrzebujesz Photoshopa CC (są tam smarty, i inne rzeczy, które nie działają w starych wersjach). https://www.dropbox.com/s/jj6iw2sgj3ty91w/NGC281_public.psd?dl=0
  2. 16 points
    Dzień dobry czytelniku, na starcie chciałbym podziękować Ci za zajrzenie tutaj. Jeśli dodatkowo zostawisz komentarz odnośnie rzeczy przeze mnie poruszanych - będę podwójnie wdzięczny! A co będę robił? W ostatnim czasie, zainspirowany tematami na forum poruszającymi wykonywanie fotometrii, zacząłem sobie przypominać czasy kiedy i ja to robiłem. A trzeba Ci wiedzieć, że na fotometri, w swoim czasie, zjadłem zęby. 7 lat studiowania astronomii na Uniwersytecie Warszawskim pozostawiło w moim mózgu głębokie bruzdy... W trakcie studiów interesowałem się przede wszystkim astronomią obserwacyjną, zaraz po pierwszym roku zacząłem jeździć do obserwatorium UW znajdującego sie pod Warszawą. To takie miejsce, gdzie studenci mogą w miarę nauczyć się na czym faktycznie polegają obserwacje, niektórym nawet udaje się mieć z tego publikacje, chociaż jest tam dość stary sprzęt i przydałoby się mu trochę modernizacji. Projekty obserwacyjne, w których brałem udział polegały na poszukiwaniu gwiazd zmiennych w gromadach otwartych. To ciekawy temat i całkiem wdzięczny, moim zdaniem znacznie wdzięczniejszy niżobserwowanie i analizowanie zmienności pojedynczej gwiazdy, trochę więcej w tym jest elementu odkrywania. Przez kilka lat obserwowałem szczególnie uważnie gromadę NGC 457, wizualnie obiekt dość nudny, ale za to w miarę widoczny cały rok, bo znajduje się w gwiazdozbiorze Kasjopeji. Obserwacje te sprowadzały się do siedzenia całą noc, przez wiele miesięcy, żeby zebrac trochę materiału, a potem analizowanie zdjęć, robienie fotometri i tworzenie krzywych blasku, w krzywych szukanie takich, które wykazują jakąś zmienność. Zainteresowanym mogę podpowiedzieć, że na 100% jest w tej gromadzie gwiazda, o której mało kto wie, że jest zmienna, bo nie jest nigdzie opublikowana. Obserwatorzy z Torunia też obserwowali tę gromadę, ale nie znaleźli tej gwiazdy, ze względu na inny sprzęt, który na to nie pozwala - ale! Historia na inny temat. Potem jeszcze promotor wysłał mnie dwa razy do obserwatorium Sutherland, w RPA, to tam gdzie stoi np. SALT. Studiów ostatecznie nie ukończyłem - zanim napisałem magisterkę i zanim oblałem różne przedmioty po raz kolejny, zrezygnowałem na koszt założenia startupu w Berlinie - ale to znowuż historia na zupełnie inną okazję Fotometrię przerobiłem od lewej do prawej. Astronomowie wykonują fotometrię i redukcje za pomocą zazwyczaj tych samych narzędzi. Jest to: IRAF, DAOphot, DoPhot. IRAF jest zestawem programów do robienia różnego rodzaju analizy danych, między innymi redukcji CCD. Można też w nim wykonać fotometrię zarówno aperturową jak i profilową - i to za pomocą dobrych algorytmów, bo tak naprawdę ma on w soich bebechach DAOPhota. DAOPhot jest programem napisanym specjalnie do robienia fotometri aperturowej, jego podprogramem (osobno kompilowanym i instalowanym) jest ALLstar, który wykonuje fotometrię profilową. Skoro więc DAOPhot i ALLstar są elementami IRAFA, to dlaczego ktoś chciałby ich używać wewnątrz IRAFA? Dlatego, że działanie tych programów jest wtedy nieco szybsze. Ale, czytelniku, nie daj się zwieźć. Kompilowanie DAOPhota to zadanie żmudne, upierdliwe i czasochłonne. Przy współczesnych, szybkich komputerach (DAOPhot pochodzi z lat 80.) i tak wszystko idzie całkiem szybko. DoPhot jest programem podobnym do DAOPhota, ja zawsze używałem DAO, ale w zasadzie można o nich myśleć jak o tym samym. A zatem zainstalowanie IRAFa wystarcza aby w sposób poprawny wykonać redukcje i fotometrię. Poprawny w sensie matematycznym, nie będzie błędów 'merytorycznych'. Używanie IRAFa jest jednak trochę dziwne, bo jego interfejs jest tekstowy i dość nietypowy. Dlatego właśnie na tym blogu chciałbym zebrać informacje o tym jak przejść przez całą procedurę. Specjalnie po to, też całą tę procedurę przejde od początku do końca, żeby móc zebrać możliwie dużo szczegółowych i precyzyjnych informacji. Dodatkowo, niedawno, natknąłem się na śmiesznie tanie matryce CCD. CO?! To oksymoron jakiś! Otóż właśnie nie do końca. Wyobraź sobie, że można w chinach kupić matrycę CCD KAF-1600 za mniej niż 50 USD (zależy gdzie szukać). OK, dla niektórych to nadal niemało pieniędzy, ale po pierwsze, i tak znacznie taniej niż gotowe kamery z chipem podobnych rozmiarów, a po drugie robienie rzeczy samemu najczęściej wcale nie jest metodą na oszczędzenie pieniędzy, a już na pewno kosztuje dużo czasu. Ale ja akurat to lubię, więc żeby inni nie musieli eksperymentować, ryzykować, to ja spróbuję. Oczywiście nie wiadomo jak z jakością tego chipu, spokojnie można spodziewać sie najgorszego, ale jeśli uda mi się złożyć z tego nawet słabą kamerę, to nada się jako prototyp dla prawdziwego chipu, a może nawet nada się na guider. W miarę postępu prac, będę tutaj gromadził, przemyślenia, plany, wyniki. Zobaczymy co z tego będzie. Uf! to tyle ze wstępu, jeszcze na zakończenie pokaże Ci zdjęcie CCD, przyszło do mnie dzisiaj Napisz proszę, jeśli interesują Cię zaproponowane przeze mnie tematy, w szczególności może któryś bardziej? Może coś innego Cie drażni? Na przykład forma zwracania się bezpośrednio?
  3. 12 points
    Witam! Zamiast pisać oddzielny temat, postanowiłem napisać w postaci bloga. Okres wakacyjny już minął, stąd nie ma teraz czasu na obserwacje nieba. Tak to będzie przez najbliższe kilka lat - przez trzy miesiące "masowo" zajmuję się astronomią praktyczną, pozostały czas to teoria. Czyli w większości szukanie informacji, co można robić kolejnym latem. Tym samym warto podsumować zmagania związane z rejestracją egzoplanet, które w moim życiu były dość przełomowe. Początki zainteresowań planet pozasłonecznych miały miejsce bodajże w 2012 roku, gdy Rafał Reszelewski został odkrywcą w projekcie Planet Hunters. Pomyślałem, że też spróbuję swojego szczęścia. Po przeanalizowaniu kilku tysięcy krzywych, zostałem wpisany do "odkrywców" trzech potencjalnych egzoplanet. Jaka była z nimi historia, tego nie mam pojęcia. Po trzech latach próbowałem zalogować się ponownie, ale odkryłem, że moje konto zostało usunięte. Co więcej, po wpisaniu czegokolwiek w Google, nic nie znalazło. Nawet na maila wciąż nie dostałem odpowiedzi. No trudno, ale przynajmniej nabyłem trochę doświadczenia z czym to się je. Ponieważ od wielu lat zajmowałem się obserwacją gwiazd zmiennych (oczywiście sporadycznie, były to oceny przypadkowych gwiazd), powoli wchodziłem coraz głębiej w temat fotometrii. Dlatego w 2011 roku planowałem wziąć udział w OZMA przedstawiając swój projekt dotyczący obserwacji gwiazd zmiennych rotacyjnych. Niestety, pogoda i czas nie pozwoliły uzyskać wystarczającej ilości danych, dlatego porzuciłem. W 2015 roku wróciłem ponownie do planet pozasłonecznych. Miałem już za sobą parę prób przeprowadzania fotometrii, ale wciąż nie znałem wiele podstaw. Spróbowałem swojego szczęścia łapiąc HD 189733 b w konstelacji Liska. Niestety, moja pierwsza próba była nieudana. Rozrzut pomiarów był tak duży i nie wiedziałem zbytnio czego mam oczekiwać. Czekałem na drugą próbę, jednak nie pozwoliły do tego warunki. Za każdym razem tej nocy niebo opanowały chmury. Tak się zakończyły obserwacje egzoplanet w 2015 roku - czyli w zasadzie nic ciekawego. Obiecałem sobie, że w 2016 roku zaobserwuję pierwszy tego typu obiekt w życiu. Nie było łatwo, gdyż zakupiłem nową kamerkę Altair GPCAMV2 IMX224. Żyjąc z myślą "niskie szumy, to i lepsze pomiary", narobiłem tylko trudu. Skala z 800mm była tak duża, że nie potrafiłem opanować całego zestawu. Stąd pierwsze trzy próby (TrES-2 b, WASP-33 b i CoRoT-2 były nieudane. Postanowiłem wrócić do Canona i założyłem obiektyw Pentacon 4/200 na mocowaniu M42. Kolejną (czwartą) próbę miałem przeprowadzić już z dwóch zestawów - lustrzanki i 200mm, oraz kamery na 600mm. W końcu się udało - zarejestrowałem tranzyt planety pozasłonecznej HD 189733 b! I to na dwóch detektorach! Byłem z tego powodu bardzo przeszczęśliwy. Zdarzyło mi się nawet skakać z radości! Marzenie od dawna zostało w końcu spełnione. Ale co dalej? Postanowiłem, że będę łapał kolejne tranzyty - również innych planet. Każda kolejna obserwacja dawała mi nieco doświadczenia. W tym momencie mogę zauważyć przynajmniej 6 rzeczy, które zrobiłem nie tak przy pierwszej próbie. Zaczynając od kiepskich parametrów ekspozycji, poprzez słabe ustawienie montażu na biegun i na obróbce danych kończąc. Kolejne próby z egzoplanetami szły jak z górki. W ciągu trzech dni miałem już na koncie drugą planetę pozasłoneczną - tym razem HD 209458 b (Ozyrys) w Pegazie. Co ciekawe, jest to pierwsza egzoplaneta zarejestrowana metodą tranzytu. Tym razem przełamałem kolejną barierę - przecież spadek jasności wynosi tylko 0.016 mag, podczas gdy HD 189733 b ma około 0.028 mag! Niestety, mój zestaw jest bardzo ograniczający. Można powiedzieć, że w zasięgu znajdują się tylko cztery egzoplanety dla 60D i Pentacona 4/200. Kolejne dwie (WASP-33 b i WASP-69 prawdopodobnie również się zarejestrowały, ale nie mam 100% pewności. Powtórka za rok będzie konieczna! Jako ciekawostkę dodam, że tę drugą łapałem na zlocie Astropolis. Chyba tylko kilka osób śledziło moje dokonania, które wyszły tak sobie. Ale nie ma co się zrażać - temat nie jest prosty i nie będziemy od razu ekspertami. Na następnym zlocie na pewno się uda Obserwowałem także jeden tranzyt, który wyszedł mi najlepiej niż kiedykolwiek. Miałem w planach przeprowadzenie również transmisji internetowej na żywo z takiego zjawiska. Dopiero czwarta próba była udana - cieszę się, że mamy takie zjawisko na koncie. To pierwsza tego typu transmisja w Polsce i druga na świecie! Warto zauważyć, że powyższe krzywe zawierają oceny tylko pojedynczych pomiarów. Zachęcony działaniami Scotta Degenhardt'a (w temacie "Live binning"), postanowiłem uśrednić pomiary do 29 sąsiednich, w celu uzyskania dokładniejszej krzywej kroczącej. Co wyszło z powyższej krzywej? Coś, czego nie spodziewałem się: Aż szkoda, że nie udało się zaobserwować końcówki przez chmury. Nawet ostatnie pomiary zdają się być niepoprawne, skoro tendencja jest nieprawidłowa. Ale warto zwrócić uwagę na resztę krzywej tranzytu. Z pojedynczych pomiarów o rozrzucie +/- 0.02 mag uzyskałem krzywą kroczącą, gdzie rozrzut wynosił już tylko +/- 0.0025 mag!!! To może być klucz do przyszłych rejestracji tranzytów egzoplanet. Jak można zauważyć, nawet lustrzanką można uzyskać doskonały kształt krzywej jasności. Jak się ma do metody "live binning"? Trudno powiedzieć. Osiągnąłem rozrzut o 16.7% lepszy niż w jego przypadku, więc nie było trzeba stosować krótkich ekspozycji. Ale z drugiej strony, ciekawe co by wyszło, gdybym faktycznie nagrywał tą metodą Jeszcze tydzień temu wybrałem sobie cel, aby w 2017 roku uzyskać dokładność pomiarową lepszą niż +/- 0.005 mag, aby łapać tranzyty o takim samym spadku jasności. A wystarczyło tylko jeszcze raz przejrzeć materiał, który uzyskałem nieco ponad 1.5 miesiąca temu. Dla mnie genialne - zwykłą lustrzanką można łapać tego tyle, aż w głowie się nie mieści. Już teraz liczba dostępnych obiektów (dla obecnego zestawu) zwiększyła się z 4 do 20. Co więcej, planowany zakup kamery ASI178MM-c powinien dodatkowo zwiększyć zasięg nawet do dwustu takich obiektów! W takim razie, jaki będzie główny cel na 2017 rok? Lubię ambitne plany i wybieram tak samo trudny, podobnie jak w przypadku pierwszej udanej rejestracji tranzytu egzoplanety. Chcę zarejestrować planetę należącą do grupy superziemi i przełamać kolejną barierę w obserwacji odległych światów. Takie rzeczy robi się na świecie, ale chyba nikt nie próbował robić tego lustrzanką. Mam nadzieję, że zdążę, ponieważ do zakupu ASI178 potrzebna będzie kwota pochodząca ze sprzedaży 60D. Realizacja będzie miała w ciągu najbliższych kilku miesięcy, a więc czekamy Dodam, że do zarejestrowania superziemi potrzebuję osiągnąć dokładność lepszą niż +/- 0.0020 mag. Jak widać, jesteśmy bardzo blisko tej granicy, gdyż nieświadomie udało się zejść do +/- 0.0025 mag.
  4. 9 points
    Jak ja lubię tę robotę Skończyłem właśnie zerowy przegląd montażu dla klienta, ale że jest to niezły rodzynek, to postanowiłem go wam pokazać. iOptron CEM25EC to najtańszy montaż na rynku, który wyposażony jest w "prawdziwy" enkoder w osi Ra, tzn. że bez guidowania jakość trackingu nie może być gorsza niż 0,3" kątowe, bo tyle wynosi błąd okresowy po skorygowaniu przez wspomniany enkoder (fizyczny na osi). Tym samy wchodzimy tu w kategorię najgrubszych maszyn, tj. Astro-Physics (wersja z endkoderami), 10Micron, ASA, itp., choć oczywiście z proporcjonalnie mniejszą nośnością (szczególnie do ceny). Jestem ekstremalnie ciekawy, jak to się w rzeczywistości spisuje. A poniżej mój "first look" na ten montaż. A jutro zapraszam na unboxing Moraviana G3 16200
  5. 9 points
    Dzień dobry, to jest pierwszy wpis dotyczący zrobienia samemu kamery CCD, postaram się tu opisać kroki niezbędne/przydatne do tego, żeby zabrać się za takie zadanie. A zadanie jest równocześnie łatwe i trudne w kolejnych częćiach tego wpisu odnajdziesz: 1. Wstęp o CCD, dla porządku, zdaję sobie sprawę, że prawdopodbnie istnieją lepsze... 2. Zastosowanie zasady działania CCD na konkretnym przypadku: KAF-1600. Przesuwanie pikseli do wzmacniacza. 3. Referencje - pare zebranych materiałów, artykułów, książek. 1. Najpierw warto zrozumięć jak działa kamera CCD, a w szczególności sama matryca. Matryca CCD działa w ten sposób, że ma piksele ułożone na pewnej powierzchni. Istnieją matryce liniowe, wtedy ta powierzchnia jest długa i wąska - takich matryc używa się w przemyśle, np do skanowania produktów na taśmach. Można tez takich matryc używać w astronomi - w sytuacji kiedy nie zależy nam na powierzchni, a na długości, czyli np. robimy spektroskopie pojedynczych gwiazd. Też nie w każdym przypadku można użyć takiej matrycy, bo np. spektrografy echelle dają widma o bardzo dużej powierzchni w obu osiach. Matryc takich możemy szukać pod hasłem "ccd linear sensor", wygłądają np. w ten sposób: Drugi rodzaj matryc, które można kupić, to matryce, które nas najczęściej interesują, czyli "ccd area sensor" - matryce o bardziej porównywalnych stosunkach długości boków. Matryce te mają tendencje do bycia bardzo drogimi, ale jeśli jesteśmy ryzykantami, to możemy spróbować wpisać KAF1600 (bez spacji!) na aliexpress i się okaże, że da się kupić taką matrycę za jakieś 50USD. Tak własnie zrobiłem i ja Czekałem na paczkę jakieś dwa tygodnie. Matryca taka składa się z kawałka krzemu pod którym poprowadzona jest sieć połączeń elektrycznych. Te wewnętrzne kabelki mają zadanie genrować pole elektryczne za pomocą którego przetrzymywane i transportowane są ładunki elektryczne. Ładunki te biorą się stąd, że kiedy foton uderza w kawałek krzemu, to może wygenerować elektron(y).Te elektrony są gromadzone w czasie trwania ekspozycji, a po jej zakończeniu. transportowane w miejsce, w którym mogą być odczytwane. Jest tak, że w typowym ccd jest tylko jedno miejsce służące odczytywaniu wartości piksela. To jest zaleta i wada - ponieważ jest tylko jedno takie miejsce, to wszystkie piksele odczytywane są z tymi samymi niedoskonałościami, to jest korzystne kiedy robimy pomiary. Z drugiej strony jest to też wąskie gardło, przez które musimy przeprowadzić wszystkie piksele naszej matrycy. I w ten sposób doszliśmy do znanej ilustracji z wiadrami wody zbierającymi deszczówkę: Piksele przesuwane są w stronę specjalnego rzędu pikseli (na ilustracji - w prawo), w tym rzędzie piksele przesuwane są do elementu odczytującego (w dół). To wyjście (Output Amplifier) służące odczytywaniu pikseli jest wbudowane w chip ccd. Zamienia ono ładunki elektryczne na napięcie, które możemy odczytać za pomocą konwertera analogowo cyfrowego (ADC, Analog to Digital Converter, zamienia napięcie w Voltach, na liczbę zapisaną w bitach, od 0 do maksymalnej wartości danego konwertera, np 255 albo 65535). Następnie to naszym zadaniem jest zapisać sobie liczbę, którą odczytaliśmy, pobrać następną liczbę, tak dla wszystkich pikseli, a potem zapisać w postaci obrazu, np fits, czy po prostu wysłać do komputera, a na komputerze utworzyć z tego plik graficzny. Szczegółowiej o obrazowaniu CCD zachęcam przeczytać w "Handbook of CCD Astronomy", Steve B. Howell, albo jeszcze szczegółowiej "Electronic Imaging in Astronomy, Detectors and Instrumentation", Ian S. McLean. 2. To tyle ogólników, to teraz trochę bardziej szczegółowo. Żeby cały ten proces przebiegł musimy dostarczyć do chipu ccd odpowiednie zasilanie i sygnały sterujące. Jakie sygnały to musimy przeczytać w nocie katalogowej, dla KAF-1600 https://www.dropbox.com/s/inhi195kiz4xwh9/kaf1600.pdf?dl=0 odnajdujemy tabele zawierające "Operating conditions". Przeczytamy tutaj, że na konkretnych nóżkach naszego ccd ma się pojawić konkretne napięcie, żeby coś się zadziało. Teraz będziemy te napięcia zmieniać synchronicznie, zgodnie z instrukcją w nocie katalogowej, w moim pliku z dropboxa, to strona 10, "frame timing". Mają się pojawiąc napięcia te wyższe i te niższe, i piksele będą przesuwane. Np. w przypadku KAF-1600 żeby w linijce odczytującej piksele jechały do wzmacniacza (to tam gdzie odczytujemy napięcie) trzeba przemieniać wysokie (+6V) i niskie (-4V) stany na nóżkach H1 i H2, Analogicznie, kiedy już przeczytaliśmy całą linijkę, to przesuwamy piksele za pomocą sygnałow na V1 i V2 (napięcie wysokie, high: +0.5V i niskie, low: -8V). W tabeli podane są wartości nominalne oraz maksymalne i minimalne. Żeby wszystko działało wystarczy być z tymi napięciami gdziekolwiek pomiędzy minimum, a maximum, ale bezpiecznie jest być na wartości nominalnej. Czytając notę katalogową łatwo zauważyć, że niektóre nóżki się powtarzają. Należy je wtedy zewrzeć ze sobą (na zewnątrz, jak będziemy projektować płytkę), nigdy nie pozostawiamy nóżki nie podłączonej do niczego, chyba, że nota katalogowa mówi inaczej (N/C - not connected) Ale skąd wziąć te napięcia? Odpowiednie napięcia możemy uzyskać dzięki stabilizatorom napięcia i specjalnym układom scalonym, driverom, dedykowanym CCD: "Vertical CCD Driver" oraz "Horizontal CCD Driver" Pozostaje jeszcze zamienić napięcie ze wzmacniacza na sygnał cyfrowy. Do tego służa konwertery analogowo cyfrowe. Chyba najważniejsza cecha charakteryzująca takie układy, to na ile kroków (bitów) potrafią podzielić odczytywane naięcia. Np. 12-bitowy konwerter da nam 4096 poziomów, które odczytujemy,a 16-bitowy da 65536 poziomów. Prawdę mówiąc nie wiem jakie są wady użycia 16-bitowego konwertera, no może trochę na siłę, to że pliki otrzymywane będą większe, bo każdy piksel zajmie 4 bity więcej. Ważne jest, żeby zrozumieć, że ta ilośćodczytywanych poziomów, nie spowoduje, że gwiazdy siębędą wcześniej saturować ani nic takiego. To oznacza, że pomiędzy pikselem całkowicie czarnym, a całkowicie białym, będzie wiecej pośrednich poziomów, czyli odczytamy precyzyjniej informację. Skoro juz mam gdzieś podaną liczbę w postaci cyfrowej, to wypadałoby coś z nią zrobić. I tu istnieje kilka rozwiązań. Niektórzy tworzą interfejs USB, którym wszystkim sterują i za pomocą ktorego po kolei pobierają na komputer wartość każdego piksela. Ja zdecydowałem się na użycie mikrokontrolera, którego wsad będzie sterował zachowaniem matrycy, migawki oraz mierzył temperaturę. Komputer będzie komunikował się z tym mikrokontrolerem, wysyłał komendy, które mikrokontroler będzie wykonywał (np. rozpocznij ekspozycję, zmierz temperaturę, podaj mi temperaturę, wyślij mi obraz). Zdecydowałem się na takie rozwiązanie, ponieważ moim zdaniem jest ono łatwe. Stosunkowo łatwo pisze się wsady do mikrokontrolerów (AVR-ów), a już na pewno ułatwieniem jest platforma ASCOM, która bardzo wiele rzeczy zrobi za mnie. 3. Na koniec chciałbym jeszcze zebrać tutaj garść pomocnych linków, tytułów, materiałów, z których ja korzystałem i które mogą pomóc wszystkim zainteresowanym. dośc już stare projekty: http://www.cfht.hawaii.edu/~baril/Pyxis/ http://www.astrosurf.com/audine/English/index0.htm http://www.willbell.com/ccd/ccd5.htm najaktualniejszy projekt jaki znam, część wpisów jest po angielsku. Jest temu projektowi poświecony ogromny wątek na Cloudy Nights. Pierwsze strony są na tyle stare, że linki są nieaktywne... http://astroccd.org/ http://www.cloudynights.com/topic/497530-diy-astro-ccd-16-bit-color-6mpx-camera/ Książki: "Handbook of CCD Astronomy", Steve B. Howell "Electronic Imaging in Astronomy, Detectors and Instrumentation", Ian S. McLean. Artykuły - na NASA ADS można wpisać "ccd camera" - wychodzi wtedy bazyliard artykułów, w części z nich można znaleźć naprawdę ciekawe rzeczy: http://adsabs.harvard.edu/cgi-bin/basic_connect?qsearch=ccd+camera&version=1
  6. 7 points
    We wczorajszym wpisie podniecałem się fajnym seeingiem - naprawdę był genialny, choć przy tak mocnym Księżycu kontrast nieba był fatalny. Niektórzy nawet w halpha wtedy nie fotografują, ale ja się nie pododaję To co wyszło z tej nocy bardzo mi się podoba. Ostrość jest absolutnie perfekcyjna jak na skalę 1,3" na piksel. Przy okazji wprowadzam tu sobie na blogu nową kategorię WIP. Te oznaczenia znane są na wielu forach poświęconych wszelakiej twórczości i mają pokazywać "work in progress", czyli dzieło nieukończone. W ten sposób wykorzystam bloga do pokazywania różnych procesów nie zaśmiecając przy tym forum. Zanim opublikuję zdjęcie zachęcam do ściągnięcia FITsa. To stack ~90 klatek po zaledwie 120 sekund (halpha 7nm), czyli jakieś 3 godzinki materiału. Stack jest surowy, po prostu połączone klatki po ditheringu, bez biasów, darków, flatów. Czyste jak dziewica. Link do stacka (64MB): https://www.dropbox.com/s/ykowwza1mveclgt/NGC281.fit?dl=0 Jeszcze ciekawsze jest to, jak naprawiłem ten montaż. Uczestnicy zlotu widzieli, jak szalał EQ6 (jednego z forumowiczów). Bo operacji i precyzyjnym tuningu działa jak malina. Sam jestem w szoku, że EQ6 jest w stanie uprowadzić perfekcyjnie (ziarnistość) skalę bliską 1 sekundzie kątowej. Przy klatkach 120 sek. czuje się ten montaż wyśmienicie i nie przeszkadza mu nawet dithering na 10px. Jak ktoś z Was nie lubi swojego EQ6, to dajcie znać. Zrobię z nim porządek. Aktualizacja: zrobiłem szybkie DDP i równowagę w tle. 15 min zabawy. Poważniejszą obróbkę dopiero tu zrobię, ale później, bo muszę wychodzić. CDN. PS. Jak Wam się podoba?
  7. 7 points
    Cześć! Astrofotografią zajmuję się od pół roku. Był (i jest) to dla mnie wspaniale spędzony czas. Ciągle się douczam w sprawach obróbki, jak i robienia samych fotek. Długo czekałem na moment, kiedy zrobię pierwsze zdjęcie obiektu głębokiego nieba. Było to dla mnie coś niemożliwego do zrobienia. Cały czas uważałem, że mam słaby aparat. I wreszcie się udało - znalazłem na zdjęciu M31. To było coś niebywałego. Nie byłem świadom, że można robić ładne fotki DS aparatem, któremu nikt nie daje szans. Sony A700, jedna klatka, ISO 2000, 20 sekund, 18 mm kit f/3.5, TO pierwsza fotka ze znalezionym obiektem DS. Parametry tu: http://astropolis.pl/topic/55248-m42-i-m43-oraz-m45-z-konca-wakacji/?do=findComment&comment=641161Ostatnio zrobione foty. Moja astrofotograficzna podróż diametralnie zmieniła swój bieg, gdy zakupiłem teleskop. Nie taki marketowy, jak poprzednie. To był taki z prawdziwego zdarzenia. MAK 127 przybył do mnie kilka dni przed tranzytem Merkurego. Pierwszy raz oglądałem wtedy Słońce, Księżyc, Marsa, Jowisza i Saturna w dużym powiększeniu. Tranzyt się udał. Zdjęcia są gdzieś we wnętrzu komputera. Jednak jedna rzecz mnie nie zadowalała. Zdjęcia planet. Niby miało być tak fajnie, a wyszło... sami oceńcie. Mnie to nie zadowoliło. W tym miejscu wybór padł na jedno - kamera planetarna. Początkowo miała to być ASI 120 MM zakupiona najpewniej w kwietniu przyszłego roku. Nagle jednak pojawiła się promocja Adama Jesiona. Pełno kamer ASI, do wyboru, do koloru. Tylko wybierać. Wybór padł na ASI 034 MC. Najtaniej, bo kasy nie mam, a że od ZWO to jakość musi pewnie być. Nie myliłem się. Przejdźmy do meritum sprawy. Czy ktoś, kto zaczyna z astrofotografią kamerkami planetarnymi powinien dozbierać na leszy model, czy może 034 to dobry model? Po pierwszym miesiącu mogę odpowiedzieć: "Tak! To dobra kamera." Zrobiłem nią kilka zdjęć Saturna i Marsa - teleskop nie był skolimowany. Fotek nie pokażę, bo nie nadają się do dalszej publikacji. Pierwsza "ciemna" rzecz, którą sfotografowałem kamerką to... Neptun. Tutaj cytat z postu LibMara o zakryciu "Złapałem coś takiego. Przy zakryciu jest na środku kadru miej więcej, a odkryciu na samym dole Użyłem ASI 034 MC i teleskopu MAK 127 z soczewką barlowa 1,5x; parametry: czas 1s, gain 30, f/17,7 [...] " No i wyszło coś takiego Dzisiaj wybór padł na jedno - M42. Z fotki jestem mega zadowolony, bo przerosła ona moje najśmielsze oczekiwania. Mimo, że nie ma na niej całej mgławicy, to i tak jestem zaskoczony, że cokolwiek tam się złapało. Oto co wyszło na fotce. To jest 341x6 sekund, gain 80, MAK 127 z reduktorem ogniskowej 0.5x. 34 minuty naświetlania przez okropną mgłę oraz cirrusy i mam coś takiego... wow! Kopara mi opada! Mimo, że wydaje się ucięta, to i tak mega mi się podoba Dodatkowa porcja fotek z ASI 034 MC Myślę, że co pewien czas będzie się pojawiała kolejna porcja wieści o ASI. Pozdrawiam Adam
  8. 7 points
    Dzień dobry, niniejszym wpisem zaczynam opisywanie wykonywania fotometrii za pomocą IRAFA. Rzecz jest niestety żmudna, upierdliwa, a co najgorsze - warta świeczki... Co jest środku: Trochę o IRAFie Nieco o dystrybucjach linuksa o instalowaniu IRAFa Appendix z paroma komendami używanymi podczas instalacji Parę słów komentarza i plany na kolejne wpisy 1. IRAF jest kawałkiem software-u służącym do analizy danych pochodzących z bardzo różnorodnych instrumentów, między innymi teleskopów. Nie posiada interfejsu graficznego, obsługuje się go wpisując komendy. Żeby prawidłowo przejść przez wszystkie kroki od redukcji, aż do redukcji trzeba się całkiem nieźle napracować. Da się napisać skrypty, które za nas wykonają robotę, np, jeśli często analizujemy podobne dane, to można sobie nieco ułatwić życie. Najczęściej jednak lepiej jest wszystko robić ręcznie, przynosi to lepsze rezultaty. Oryginalnie IRAF powstał dla użytkowników systemów UNIX, da się go jednak zainstalować i używać na Windowsach - działa pod Cygwinem. Zdecydowanie jednak odradzam próby używania IRAFA pod Windowsami. Działa, ale za to bardzo wolno, a żeby w ogóle go zainstalować trzeba poświęcić kilka godzin na rozwiązanie problemów, które na dowolnym linuxie by nie wystąpiły. No dobrze, skoro nie Windows, a linux - to jaki jaki linux? Ja na swoim komputerze zainstalowałem Ubuntu ( http://www.ubuntu.com/ ). Jest to popularna dystrybucja, w razie jakichś problemów można znaleźć dużo pomocy w internetach. Dobrym pomysłem jest zainstalowanie sobie Scientific Linuxa ( https://www.scientificlinux.org/ ). Jest to specjalna dystrybucja linuxa z od razu zainstalowanymi wieloma programami przydatnymi w analizie danych. Technicznie rzecz biorąc nic nie stoi na przeszkodzie, żeby zainstalować sobie linuxa na jakiejś wirtualnej maszynie - mnie osobiście irytuje ich użytkowanie (dlatego tak nie mam), ale wszystko powinno działać poprawnie. 2. Zainstalowanie współczesnych dystrybucji linuxów odbywa się bardzo przyjemnie. Bardzo ważne jest, że można bez problemu mieć na tym samym komputerze dwa systemy operacyjne. Sam linux podczas instalacji proponuje taką opcję. Jest to bardzo wygodna droga i w miarę bezpieczna. Żeby doinstalować linuxa równolegle do np. Windowsa warto się wcześniej upewnić, że dysk jest zdefragmentowany, a kluczowe dane mamy gdzieś indziej zabezpieczone. Doinstalowanie linuxa polega na tym, że wolna przestrzeń na dysku wykorzystana jest na utworzenie nowych partycji. Można oczywiście samemu wydzielić partycję na linuxa, albo zainstalować go na zupełnie innych dysku, a nawet pendrive-ie. Ja u siebie mam Windowsa na dysku SDD, a linuxa na zwykłym HDD, na którym wydzieliłem jakies 50 GB miejsca. Linux potrafi czytać i pisać partycje windowsowe, ale zasadniczo lepiej nie planować pracy w ten sposób. To pisanie i czytanie nie zawsze działa w sposób bezproblemowy, zatem warto zastanowić się nad większą ilością miejsca. Ja mam tak, że pliki którym chce zrobić redukcje i fotometrię kopiuje tymczasowo na partycje z linuksem, a jak skończę to kasuję. Wszystkich chętnych do przejścia przygody z fotometrią razem ze mną i IRAFem zachęcam już sobie zainstalować linuxa. Zapoznajcie się z systemem, a w szczególności zaprzyjaźnijcie z terminalami i poruszaniem w nich. Wyprobujcie komendy takie jak "cd", "ls", "cd ..", "ls -ltr", "cd {folder}". To będą Wasi przyjaciele przy dalszych krokach, np takim kroku jak instalacja IRAFA. 3. Do zainstalowania IRAFA istnieją w internecie poradniki. Niestety niektóre z nich są niekompletne Kilka tygodni temu, instalując IRAFA, opierałem się najbardziej na http://www.astronomy.ohio-state.edu/~khan/iraf/iraf_step_by_step_installation_64bit Chyba jedyny krok, którego brakuje, to dodanie użytkownika. IRAF do poprawnego działania wymaga utworzenia dodatkowego konta uzytkownika. Na to konto nikt się ma nie logować itp. ale IRAF z niego będzie korzystał, trochę dziwnie, ale co poradzić? Konto użytkownika można dodać z poziomu dowolnego terminala za pomocą komendy adduser. Żeby jednak ta komenda zadziałała trzeba ją wykonać jako administrator, dlatego wywołujemy dwie komendy w jednej linijce: sudo adduser iraf sudo to komenda, która powoduje wywołanie innych komend z uprawnieniami administratora. W linuksach można dużo dowiedzieć się o każdej komendzie / programie (tak naprawdę to te komendy, to są programy) wywołujac man. Np. man adduser Z zainstalowanym irafem wchodzimy do folderu, w którym trzymamy klatki ze zwierzę. Fitsy. W tym folderze wykonujemy mkiraf, w celu przygotowania folderu pod IRAFa. Utworzone zostaną odpowiednie pliki i foldery do trzymania parametrów później uzywanych. Technicznie rzecz biorąc istnieją projekty, które mają zadanie ułatwic użytkownikowi zainstalowanie IRAFa, np. http://astroconda.readthedocs.io/en/latest/installation.html Osobiście nigdy nie skorzystałem z żadnej z nich, ale głównym powodem był fakt, że nie widziałem powodu - instalują one dużo różnych rzeczy, które zazwyczaj już wcześniej mam. Wydaje mi się, że zainstalowanie IRAFa wykorzystując taką paczkę, to dobry pomysł, z zastrzeżeniem, że nie wiem co te paczki robią dokładnie. Ja preferuję robić rzeczy samemu, bo potem mam większą kontrolę i świadomość tego co się dzieje. Prawdopodobnie w ciągu paru najbliższych dni spróbuję zainstalować astrocondę na swoim komputerze i zobacze czy wszystko śmiga - chyba że jakiś śmiałek to zrobi wcześniej, to proszę napisać w komentarzach 4. Dodatek dla początkujących uzytkowników linuksa. Nie planuję tutaj (przynajmniej na razie) rozpisywać się na temat uzytkowania tego systemu. Powodów jest kilka, przede wszystkim jest pełno tego typu materiałów w internecie, a po drugie: zapewne jest pełno ludzi bardziej kompetentnych ode mnie. W razie jakichś pytań, wątpliwości - piszcie, będziemy rozwiązywac na bierząco W poźniejszych wpisach będę używał trochę podstawowych komend w terminalu - te pewnie skomentuję. Żeby przebrnąć przez instalację trzeba wywołać komendy tak jak w tutorialu zlinkowanym powyżej. Żeby zastartować napiszę czym one z grubsza są. Terminale otwiera się zazwyczaj łatwo we wszystkich dystrybucjach linuksów, ale bywa, że różnie się nazywają - xterm, xgterm, konsole itd. Najczęściej wyróżnia je charakterystyczna ikonka przypominająca stary monitor sudo apt-get install tcsh libxss1 lib32z1 lib32ncurses5 lib32bz2-1.0 libXmu6:i386 sudo - wykonuje komendy jako root (administrator) apt-get - program do instalowanie programów install - komenda do apt-get tcsh - rodzaj terminala do zainstalowania lib.... - biblioteki do zainstalowania wget ftp://iraf.noao.edu/iraf/v216/PCIX/iraf.lnux.x86_64.tar.gz wget - program do ściagania plików sudo mkdir /iraf mkdir - tworzy folder. W tym wypadku stworzy folder "na samej górze" czyli w / . sudo mv iraf.lnux.x86_64.tar.gz /iraf/iraf/. mv - przenosi pliki/fodery z jednego miejsca w drugie cd /iraf/iraf wchodzi do folderu sudo tar -zxf iraf.lnux.x86_64.tar.gz tar - program do rozpakowywania plików sudo rm iraf.lnux.x86_64.tar.gz rm - kasowanie plików (fodlery też kasuje, jeśli się go o to popros). sudo ./install ./install - w tym wypadku jest to program (lub skrypt), który znajduje się w ścieżce, w której się jest, to oznacza ta kropka w ./ sudo wget http://ds9.si.edu/archive/linux64/ds9.linux64.7.2.tar.gz ds9 - tu jest ściagany ds9, jest to program do oglądania i analizowania plików fits. Potem używa się go wewnątrz IRAFA, żeby np oszacować jasność tła i inne statystyki sudo chmod u=rwx iraf chmod - zmiana uprawnień do pliku. u oznacza, że użytkownicy będą mieli uprawnienia rwx czyli do czytania, edytowania i uruchamiania danego pliku. W tym wypadku iraf na końcu jest plikiem skompilowanym, tak samo działałoby to dla skryptów, które samemu się pisze. mkdir IRAF w tej komendzie niby chodzi o to, żeby utworzyć sobie folder do trzymania fitsów i zacząć pracę nad nimi. Na dobrą sprawę mógłby to być dowolny inny folder, ja np zazwyczaj mam ~/fits czyli w folderze użytkownika, moim, mam folder fits. mkiraf mkiraf to specjalna komenda (progrram, jak zwał tak zwał) do przygotowania folderu, w którym się jest, do pracy z IRAFem. Tworzy niezbędne pliki i foldery, w których potem trzymane są parametry i ustawienia. 5. UF! No to tyle! Nie ma w tym wpisie obrazków, mam nadzieję że mi wybaczycie W przyszłych odcinkach już będę się zajmował faktyczną fotometrią. Myślę, że zacznę od konwersji rawów do fitsów, bo IRAF łyka tylko fitsy i należy je prawidłowo przygotować - ze wszystkimi niezbędnymi kluczami w nagłówku. Potem porobimy redukcje, fotometrię aperturową i wreszcie profilową. Na koniec rysowanie krzywych zmian blasku. Długa droga przed nami Jeszcze może dodam dlaczego w ogóle warto się trochę pomęczyć z IRAFem. Otóż dla mnie najważniejsza zaleta to fotometria profilowa. Daje ona bardzo dobre oszacowania błędów, można dzięki temu bardzo skutecznie obrabiać dane (no chociażby niektóre punkty pomiarowe usunąć w sposób uzasadniony). Do całej tej akcji zainspirowała mnie prezentacja LibMara na ostatnim zlocie oraz wyniki przedstawiane przez niego i Grzędziela tu na forum. Nie znam innego programu, który pozwoliłby na zrobienie fotometri profilowej i był łatwiejszy w zainstalowaniu... Ponadto MuniWin, który wykonuje fotometrie aperturową moim zdaniem robi to źle - uważam, że błędnie szacuje błedy ;D Postaram się to potwierdzić lub obalić w przyszłych wpisach, jak już będziemy przerabiali fotometrię. Jeśli macie jakieś pytania, prośby, problemy - piszcie! Postaram się pomóc. Czy taki poziom szczegółow dot. linuksa jest wystarczający? W przyszłych wpisach będzie tego dużo, więc potrzebuję mieć jakąś metodę na wydajne pisanie co trzeba robić...
  9. 6 points
    Kilka miesięcy temu obstawiłem współpracę z ZWO trochę w ciemno. Widząc, co zrobili w świecie fotografii planetarnej założyłem, że to samo może się wkrótce stać z DSami. Bawiąc się ASI1600 nie mam wątpliwości, że są na dobrej ścieżce do tego, żeby zagarnąć praktycznie cały rynek "taniej" astrofotografii. Każdy kto dzisiaj kupuje ASI1600MM-C napotyka problem wyboru koła filtrowego. Są one drogie, albo za małe. Wygląda jednak na to, że wkrótce problem się rozwiąże, bo ZWO pokazało nowe koła filtrowe w kilku rozmiarach. Na zdjęciu widać małe koło (już dostępne), oraz 2 inne - 8 pozycji 1,25" oraz 7 dla filtrów 36 mm (idealnych pod chip 1600). Nowe koło jest bardzo lekkie (400 gramów) i ma być w 100% zasilane i sterowane przez hub np. ASI1600MM-C (albo każdej innej ASI z chłodzeniem). Na pewno koło tez będzie tanie (w porównaniu do innych). Zastanawiam się teraz, czy z dogrywką "akcji specjalnej" nie zaczekać do premiery nowych kół filtrowych, bo podejrzewam, że kilka osób będzie chętna na cały zestaw. Dowiem się, kiedy te koła będzie można zamawiać.
  10. 6 points
    Tak, jak obiecałem w poprzednim wpisie, nagrałem dzisiaj film pokazujący, jak wygląda i wstępnie działa kamera CCD czeskiej firmy Moravian. Zapraszam do oglądania, a poniżej dane techniczne: matryca: KAF-16200 C2 rozdzielczość: 4540 × 3640 wielkość piksela: 6 × 6 μm rozmiary matrycy: 27.2 × 21.8 mm studnia: ~41,000 e- szum odczytu: ~10 e- RMS ciemny prąd: 0.08 e-/s/pixel przy 0 °C sprawność kwantowa (większa niż KAF8300, zbliżona do 16803): 60% proporcje matrycy (prawie kwadrat): 5:4 czas odczytu klatki: ~ 19s rozdzielczość ADC: 16 bitów binning: 1-4x port: USB 2.0 High Speed
  11. 6 points
    Trochę żałuję, że nie nagrałem z tego filmu, bo pewnie wartość użytkowa byłaby znacznie większa. Nie mniej - publikuję zdjęcie z operacji na żywym sercu montażu AZ-EQ5, może komuś się przyda, jak będzie chciał sam majstrować. Dla mnie to ciekawostka, bo pierwszy raz miałem na warsztacie klienta, który zlecił przegląd, serwis i modyfikację tego montażu. Muszę przyznać, że mocno mnie ta konstrukcja zaskoczyła. Jest naprawdę bardzo fajnie pomyślany i w sumie nie dostrzegłem jakiś szczególnych błędów konstrukcyjnych. Generalnie to powinno całkiem fajnie działać, choć oczywiście kluczowa jest tu jakość wykonania elementów. O ile dosyć łatwo poprawić kwestię łożysk (szczególnie tych na ślimaku, bo one są absolutnie kluczowe dla jakości trackingu), to już samego ślimaka i ślimacznicy nie tanio nie poprawimy. To tyle dobrych informacji. Poniżej te gorsze. Montaż jest fatalnie poskładany. Jego konstrukcja wymaga od montażysty uwagi, myślenia i przede wszystkim wiedzy, jak to funkcjonuje. Niestety - egzemplarz który do mnie dotarł (praktycznie nowy) miał błędy montażowe praktycznie we wszystkich elementach - włącznie z fatalną regulacją napięcia paska, czy, co gorsza - dramatycznie ściśnięte łożyska na ślimaku (co oczywiście doprowadziło do ich uszkodzenia). Trochę to przykre W montażu, w smarze, wszędzie można było znaleźć sporo wiórów, opiłków i tym podobnych. Niestety - znalazłem je także w smarze na ślimacznicy (całe szczęście jeszcze nie uszkodziły w widoczny sposób samej powierzchni). Nie mniej - na pewno ta "ziarnistość smaru" nie jest dobrą cechą dla tak precyzyjnych zastosowań. Sama procedura modyfikacji tego montażu to mniej więcej 2-3 razy więcej czasu niż w przypadku starych konstrukcji (np. EQ6). Miejcie to na uwadze planując operację. Jest po prostu nieporównywalnie bardziej skomplikowany (w dobrym słowa znaczeniu). Montaż też wymaga (i to umożliwia) bardzo precyzyjną regulację kilku elementów - co będzie dla niego kluczowe (i czasochłonne). Podsumowując - ten montaż to bardzo fajna konstrukcja i ma wg mnie spory potencjał. Wrzucę wkrótce na warsztat także nowego EQ6 (na paskach), który przypomina konstrukcyjnie tego AZ-EQ5. Jestem ciekawy, co da się z niego wycisnąć. Gdyby wsadzić do nich precyzyjną ślimacznicę i ślimak, to ten montaż ma potencjał pracy jak AP, czy inny montaż premium. Reszta jest w nich naprawdę świetna.
  12. 5 points
    Witam, W ostatnim czasie przyszedł mi do głowy pewien pomysł, na podstawie którego można byłoby wyznaczyć prawdopodobieństwo zarejestrowania tranzytu. Polega to na tym, że na podstawie znanej już długości trwania tranzytu można określić po której stronie krzywej jasności znajduje się spadek jasności wynikający z obecności tranzytu. Aby tego dokonać, należałoby porównać średnią wszystkich ocen obejmujących potencjalny przedział tranzyt egzoplanety z każdej minuty. Wymyśliłem więc nazwę TTC - Transit Timing Comparison (porównanie momentu wystąpienia tranzytu do znanej danej). Weźmy sobie przykładowy tranzyt, którego czas trwania wynosi 120 minut. Początek ma miejsce o 23:00, a koniec o 01:00. Daną gwiazdę rejestrowaliśmy od 20:00 do 04:00, przez osiem godzin. Głębokość tranzytu wynosi 0.01 magnitudo. Przyjmujemy, że jedna klatka miała 10s ekspozycji i nie było żadnych przerw pomiędzy kolejnymi ujęciami. Korzystamy ze znanej danej, czyli długości trwania tranzytu - 120 minut. Jeśli jedna klatka miała 10s, to w ciągu 2 godzin wykonamy 120 x 6 = 720 klatek. Tak dużą liczbę pomiarów będziemy uśredniali przez całe dwie godziny trwania tranzytu. Wszystkie uzyskane przez nas pomiary fotometryczne wrzucamy do Excela i wykonujemy zwykłe uśrednianie dla kolejnych klatek. Można też przeprowadzić dla każdej minuty, czyli na przykład: Wszystkie pomiary uśrednione z przedziału 20:00 do 22:00. Wszystkie pomiary uśrednione z przedziału 20:01 do 22:01. Wszystkie pomiary uśrednione z przedziału 20:02 do 22:02. Wszystkie pomiary uśrednione z przedziału 20:03 do 22:03. [...] Wszystkie pomiary uśrednione z przedziału 01:59 do 03:59. Wszystkie pomiary uśrednione z przedziału 02:00 do 04:00. Teraz wyobraźmy sobie jakie uzyskamy pomiary. Przy pomiarach z przedziału od 20:00-22:00 do 21:00-23:00 nic się nie dzieje - gwiazda ma stałą jasność. Później coraz bardziej obejmujemy przedział z tranzytem. Ocena 23:00-01:00 powinna pokazać jak najniższą jasność. Później mamy już wszystko na odwrót, niemal jak lustrzane. Z reguły, rozrzut pomiarowy maleje wraz z pierwiastkiem drugiego stopnia ilości wykorzystanych klatek obejmujących cały tranzyt. Czyli, jeśli mamy na podstawie pojedynczej klatki: 1 klatka -> rozrzut +/- 0.04000 magnitudo 4 klatki -> rozrzut +/- 0.02000 magnitudo 16 klatek -> rozrzut +/- 0.01000 magnitudo 64 klatki -> rozrzut +/- 0.00500 magnitudo 256 klatek -> rozrzut +/- 0.00250 magnitudo 1024 klatek -> rozrzut +/- 0.00125 magnitudo Czy to się sprawdza? Trudno mi powiedzieć, gdyż rozrzut pomiarowy po uśrednieniu 29 pomiarów dla HD 189733 b (ten, co łapałem we wrześniu) wyszedł mi 8x mniejszy zamiast 5.38 razy (pierwiastek z 29 to 5.38). A więc wyszło jeszcze lepiej. Co przedstawia taka krzywa jasności uzyskana po uśrednieniu takich pomiarów? Jak wiadomo, będzie trzeba wykorzystać środkowy fragment z uśrednianego czasu. Więc jeśli przedział wynosi 2 godziny od 20:00 do 04:00, to na osi X będziemy mieli pomiary od 21:00 do 03:00. 1 - moment do odcinka 21:00-23:00, czyli ciągle obejmujemy moment, kiedy gwiazda zachowywała wciąż stałą jasność 2 - moment z 21:00-23:00, gdzie zaczynamy obejmować wejście planety pozasłonecznej na tle tarczy gwiazdy 3 - moment na przykład z 21:12-23:12, gdzie po dwunastu minutach egzoplaneta już całkowicie znajduje się na tle gwiazdy Coraz większy spadek jasności na skutek wejścia powoduje, że odcinek 2-3 nie jest stały. Podobnie będzie z 5-6. 4 - coraz bardziej obejmujemy obszar krzywej jasności z tranzytem, nie jest do odcinek stały ze względu na zjawisko dark limbening (najpierw planeta zakrywa brzegi gwiazd, które wykazują niższą jasność powierzchniową niż centralna część gwiazdy) 5 - dotarliśmy do momentu 22:48-00:48, gdzie od 00:48 stanowi trzeci kontakt (rozpoczęcie wyjścia z tarczy gwiazdy) 6 - minimum jasności, centralny moment tranzytu 7-11 - analogicznie do powyższych, lecz na odwrót (od 5 do 1) Jaki to miałoby sens w rejestrowaniu tranzytów? Wyznaczając szczyt uzyskanej piramidy, możemy określić moment minimum jasności. Ponieważ jasności są zakłamane (nie powinno się porównywać tak duży odstęp czasu), mówimy tutaj tylko o prawdopodobieństwu. Wyznaczając średnią dużej ilości pomiarów, możemy pokusić się o wyznaczenie Dlaczego wykres jest do góry nogami? Jeśli obserwujemy spadek jasności, to "piramida" powinna iść do dołu? Tak jak mówiłem, ten wykres nie obejmuje zmiany jasności, lecz prawdopodobieństwo wystąpienia tranzytu. Najniżej (0%) to fragmenty obejmujące maksymalną jasność, a najwyżej (100%) to te, które obejmują najmniejszy blask. Jeśli gwiazda ma 8.00 mag, a w maksimum osiągnie 8.01 mag, to 8.00 stanowi 0%, 8.005 - 50%, a 8.01 - 100%. Czy można wykorzystać tę metodę przy odkrywaniu egzoplanet? Tak, ale z ograniczeniem. Planeta musi być mała (czyli największe szanse, że nie została jeszcze zarejestrowana), a okres obiegu trwa jak najkrócej. Wówczas długość tranzytu będzie bardzo krótki i uda się nam objąć całą piramidę. Wiadomo też, że nie znamy długości trwania tranzytu. Niektóre można byłoby łapać od razu na krzywej pojedynczych pomiarów, inne niekoniecznie. A tym bardziej idąc w kierunku zmian o amplitudzie dziesięciotysięcznych części magnitudo. Stąd robimy taki wykres/mapę, gdzie na osi X byłby długość trwania zjawiska, a na osi Y amplituda zmian jasności. Mapka taka byłaby jakby obrazkiem, na przykład mającym 500x500 pikseli. Do tego byłoby trzeba napisać już program, gdyż w Excelu ciężko widzę takie obliczenia. Jeśli zarejestrujemy jakiś sygnał, to powinien pojawić się charakterystyczny pik. Daję tylko przykład pierwszego obrazka z Google'a, o co mi chodzi: Na koniec, przedstawię na szybko zrzut ekranu z Excelu. To, co widzicie, to jest ta metoda (TTC) przeprowadzona na archiwalnej obserwacji HD 189733 b (pierwszy udany tranzyt). Zjawisko trwało 105 minut, a ja rozpocząłem 40 minut przed i skończyłem 20 minut po. Skutek? Ucięta piramida! Mimo to, wciąż udało się uzyskać szczyt piramidy. Nie konwertowałem więc na prawdopodobieństwo i stąd zostawiłem też spadek w kierunku dolnym. Warto zauważyć, że różnica między dwiema poziomymi liniami to już tylko 0.0005 magnitudo! Analogicznie biorąc wszystkie wyliczenia, kamera ASI1600 (na próbnych testach przeprowadzonych przez Adama Jesiona) umożliwiłaby rejestrację tranzytu o 40% mniejszym rozrzucie pomiarowym niż dla lustrzanki (0.00015 a 0.00025 mag). Aby to powiedzieć, musiałbym użyć "półtora dziesięciotysięcznej" oraz "dwa i pół dziesięciotysięcznej" części magnitudo. W tym momencie chyba już mógłbym powiedzieć o stutysięcznej części magnitudo, aby było łatwiej A jak wyglądałby więc tranzyt na granicy możliwości? Piramida byłaby po prostu zamaskowana, a pomiary latałyby w górę i w dół. Jeśli jakikolwiek spadek się pojawi, to najprawdopodobniej jego minimum byłoby znacznie przesunięte. Plusy metody: - łatwość i szybkośc wykonania (możliwość przeprowadzenia takiej metody nawet podczas transmisji internetowych na żywo) - możliwość rejestrowania tranzytów o głębokości do 0.0003-0.0008 mag za pomocą lustrzanki (kamery jeszcze lepiej, być może i poniżej 0.0001 mag przez całonocną obserwację) - możliwość rejestrowania planety wielkości Ziemi na tle gwiazdy wielkości Słońca w odległości do 1000 lat świetlnych - można powiązać z pierwszą częścią metody live binning oraz lucky imaging, choć nie jest to konieczne - można powiązać z wyborem dynamicznych gwiazd referencyjnych - coś, co nie wykorzystywano do tej pory, więc jest szansa rozwinąć temat (?) - szansa na zarejestrowanie antytranzytu, gdyż krzywa ma podobny charakter Minusy metody: - brak możliwości wykorzystania metody uśredniania (etap 2/2 w live binning) - wymagany bardzo długi czas trwania obserwacji (letnie noce mogą być nawet nieco za krótkie) - tranzyt musi wypaść jak najbliżej momentu dołowania Słońca, aby załapać z jak największą dokładnością - dłuższe tranzyty są niemożliwe do zarejestrowania tą metodą - dla przykładu, 240-minutowy tranzyt wymaga minimum 12-godzinnej obserwacji (240 x 3 = 720 minut) - na ich podstawie nie uzyskamy dużej ilości sensownych danych - praktycznie nic więcej niż "o, złapało się!" - tylko do pojedynczych tranzytów egzoplanet, podwójne już nie
  13. 5 points
    Mam wrażenie, że rynek astro (kamer) zaczyna się trochę ruszać. W tym roku pojawiło się tyle nowości, ile nie było w ostatnich 10 latach. Dzisiaj mogę oficjalnie ogłosić, że Atik wprowadza na rynek nową kamerę z matrycą KAF16200. To o tyle ciekawe, że jest to pierwsza matryca na rynku konsumenckim zaprojektowana z myślą o astronomii. To przekłada się na całkiem dobre parametry - jak na tę półkę cenową. Atik 16200 stanowi świetną opcję na upgrade dla kamer z KAF8300. Przy podobnej wielkości piksela (a więc detalu zdjęcia) uzyskujemy znacznie większe pole (wzrost z 4/3 na APSh). Potwierdzam tu moje zdanie o tym, co pisałem już przy Moravianie 16200 - jest to matryca, która wypełnia sporą niszę w klasie średniej wielkości matryc, czy coś, co znajduje się pomiędzy 8300, a typowym Full Frame (KAI11002). Atik dla tej kamery zaprojektował zupełnie nową obudową i trzeba przyznać, że wygląda bardzo atrakcyjnie. Matryca zamknięta jest próżniowo, a komora wypełniona gazem szlachetnym (argon), co w połączeniu z podwójnym peltierem daje kamerze chłodzenie na poziomie 50 stopni Celsjusza (średnio -45). Sama elektronika też ma być na najwyższym poziomie i zapewnić szum odczytu nie gorszy niż 9e-. To oczywiście nie jest poziom nowych CMOSów, ale jak na CCD jest całkiem ok. To co jest bardziej niż zadawalające, to waga kamery - wynosi 1.3kg, co jak na kamery tej klasy jest chyba w tej chwili najlepszym wynikiem. Wygląda na to, że mamy kandydata na najpopularniejszą kamerę tego formatu w 2017 roku. I dobrze, niech to motywuje innych producentów, tym bardziej, że cena wynosi 2922 euro + VAT (w PL 23%). Do kupienia jest wersja mono, zaś kolorowa ma pojawić się w 2017 roku. Jak ktoś jest zainteresowany kamerą i chciałby być pierwszym jej użytkownikiem w PL, to oczywiście służę ofertą (niższą od katalogowej). A Wy, drodzy forumowicze, co sądzicie o tym produkcie? Ma on sens?
  14. 5 points
    Wskutek nieustannego ruchu Ziemi nie tylko wokół własnej osi, ale również wokół Słońca jako jej mieszkańcy możemy obserwować pewne zmiany na nieboskłonie. Jak to jest, że co jakiś czas nieboskłon dokonuje aktualizacji podmieniając nam niebo letnie na zimowe i zimowe na letnie? Co wtedy możemy zaobserwować? Aktualizacja wcześniej wspomnianych nieboskłonów dokonuje się w sposób nieustanny i niezwykle monotonny, dlatego trudno nam te zmiany od razu zauważyć. Cały proces przemiany jest ciągły i zależny od perspektywy, z której oglądamy nocne niebo. Ziemia wskutek ruchu wokół Słońca zmienia nieco ułożenie względem niego sprawiając tym samym, że gwiazdozbiory, które wschodzą latem w ciągu dnia; zimą wschodzą podczas nocy. Za nami, jeden z najpiękniejszych okresów w roku, który obfitował w ciepłe i pogodne noce, a jego nazwa to, jak nie trudno się domyślić - lato. Lato w pojęciu astronomicznym wiąże się z widokami nieba letniego, które pozwala nam na obserwacje m. in. gwiazdozbioru Lutni, Łabędzia, czy też Orła. Jeszcze przez kilka dobrych tygodni owe obiekty będą dostrzegalne, aczkolwiek wskutek wspomnianych przemian coraz mocniej odsuwają się na bok ustępując miejsca niebu zimowemu. Zima to ogółem powiedziawszy “okres przyjazny miłośnikom astronomii”, ponieważ odsłania nam o wiele więcej niż lato. Wszystko oczywiście dzięki dłuższym nocom i bardziej odczuwalnemu chłodowi. Wielu ludzi mogłoby teraz pomyśleć o tym, jak dziwnymi istotami są Ci pasjonaci nocnego nieba. W gruncie rzeczy dłuższe noce oznaczają dłuższe obserwacje, a niższa temperatura uspokaja nieco powietrze w atmosferze ziemskiej poprawiając jakość obserwacji przy użyciu sprzętów optycznych. Gdy do tego dodamy jeszcze “aktualizację” nieba na niebo zimowe zdaniem wielu będące ciekawszym - obserwacje mogłyby trwać bez przerwy. Mamy za sobą wrzesień, czyli okres przejściowy, w którym coraz częściej o normalnych godzinach zauważyć można było pierwsze okazy nieba zimowego. Z nocy na noc ów okazy stawały się coraz bardziej widoczne po to by w październiku być niemal na wyciągnięcie ręki. Pierwsze obiekty charakterystyczne dla nieba zimowego zaobserwować można już po godzinie 20:00 nad wschodnim horyzontem. Jednym z takich właśnie obiektów jest gromada otwarta gwiazd w Gwiazdozbiorze Byka o nazwie Plejady, która po 20:00 powinna być na wysokości umożliwiającej bezproblemowe obserwacje. Wyglądem ów gromada przypomina nieco asteryzm Małego Wozu, z którym z resztą przez amatorów astronomii nie raz bywa mylona. Choć ułożenie gwiazd w obu obiektach jest bardzo podobne to, jednak leżą one w znacznej odległości kątowej od siebie i różnią się wielkością. Gromada Plejady często bywa nazywana kosmicznym żłobkiem, a to dlatego że w jej skład wchodzą stosunkowo młode gwiazdy. W ludzkim pojęciu 200 milionów lat to niewyobrażalnie dużo, ale biorąc pod uwagę wiek wszechświata w pojęciu astronomicznym jest to naprawdę niewiele. Nawet nasze Słońce w porównaniu do wieku Plejad okazuje się być staruszkiem. W skład gromady wchodzi łącznie około kilkuset gwiazd, choć tylko kilkanaście z nich zaobserwować możemy gołym okiem. Najbardziej charakterystycznymi punktami wydają się być jednak gwiazdy Tajgeta, Maja, Elektra, Alkione, Merope i Atlas. To właśnie one tworzą zarys podobieństwa do “małego wozu” na nocnym niebie. Uśredniona odległość, która nas od nich dzieli wynosi około 444 lat świetlnych, co oznacza, że spoglądając na nie pogodną nocą widzimy tak naprawdę ich obraz z przeszłości, a konkretnie z 1572 roku. O tym, jak Plejady wyglądają dzisiaj prawdopodobnie dowiedzą się miłośnicy astronomii w 2460 roku. Źródła: Trójkąt Letni - Zrzut ekranu z programu Stellarium, Plejady - http://apod.nasa.gov/apod/image/0711/pleiades_fs_big.jpg- APOD Wiadomości - Wiedza własna + Wikipedia
  15. 5 points
    No dobra, czas na rozwiązanie tej zabawnej zagadki (link do wpisu z zagadką). Wydaje się banalna, ale wbrew pozorom jest bardzo pouczająca i pozwala zrozumieć pewne procesy. Co się w zasadzie wydarzyło? Po zlocie kiedy przyjechałem do obserwatorium nie dokręciłem śruby od ustawiania polarnej w elewacji, co spowodowało natychmiastowe opuszczenie się montażu (pewnie o parę stopni). Obserwatorium jest 30 km od miasta, gdzie mieszkam, więc jakoś nie znalazłem w sobie motywacji, żeby tam jechać i to poprawić. Postanowiłem, że zrobię to przy okazji następnej zaplanowanej wizyty. Złe ustawienie polarnej oznacza oczywiście rotację pola - w tym przypadku bardzo znaczną. Oczywiście rozwiązaniem są krótkie ekspozycje, co w przypadku ASI1600 nie stanowi problemu. Przy 120 sekundach w zasadzie nie widać grama rotacji, przy 300 sekundach jest już widoczna. Źle ustawiona polarna, to źle ustawiona polarna – po grzyba drążyć temat – pomyślicie. Przez tę wpadkę odkryłem jednak coś interesującego. Na walkę z hotpikselami i innymi defektami zawsze używam tzw. dithering, czyli przestawianie montażu po każdej klatce o kilka pikseli – dokładnie zawsze ustawiałem 4 px. Sądziłem, że to jest ok i tyle – nie myślałem nigdy o tym więcej. Tym razem też tak było. Po zestackowaniu materiału zobaczyłem jednak coś strasznego – kuliste smugi, których środek wypadał gdzież z prawej strony kadru. To mi wykluczyło pattern pochodzący z kamery. Podejrzewałem jakieś efekty dyfrakcyjne od jasne gwiazdy (widywałem to czasami). Ale po wykonaniu kolejnego zdjęcia, gdzie nie było jasnej gwiazdy z boku kadru, efekt był niestety dokładnie taki sami. Okrągłe dziwne smugi. Wkurzyłem się, więc podszedłem do tematu „naukowo”. Przenalizowałem dokładnie, co dzieje się z tym materiałem w czasie stackowania, przy okazji odkrywając dosyć oczywistą (jak się już wie) zasadę. Chodzi o rozmiar ditheringu w kontekście ilości klatek. Jeżeli mamy bardzo dużo klatek (100) to dithering na 4 piksele oznacza, że ten okrąg rozrzutu o średnicy 4 px będzie w dużej mierze zdominowany sygnałem z hotów, a jeżeli do tego mamy rotację, albo dryf guidera (stały, powolny), to muszą nam się ujawnić smugi, bo po prostu statystyczny udział nieprawidłowej wartości piksela w całym zbiorze (na obszarze ditheringu) będzie zbyt duży (wpłynie na ostateczną wartość tych pikseli po działaniu algorytmu). Wykonałem swoje wyliczenia i empiryczne doświadczenia, które potwierdziły, że wartość rozrzutu klatek w ditheringu powinna wynosić 0,1 x ilość klatek (wynik nie mniej niż 2). Wtedy algorytmy tupu Sigma Clip (czy SD Max Gralaka z Maxima) całkowicie eliminują zjawisko. Mam nadzieję, że w miarę jasno i logiczne to opisałem. Mi się ta widza przydała, bo ostatnie zdjęcie (Pacman) jest już perfekt pod względem jednorodności szumu (dithering 10px).
  16. 4 points
    Dzień dobry, dzisiaj o zasilaniu matryc CCD. Raczej krótko, bo dopiero w przyszłym tygodniu będę miał w domu potrzebne elementy, żeby już coś poskładać... 1. Wymagane napięcia 2. Układy zasilające 3. zakończenie, plany na przyszłość 1. Matryce CCD wymagają relatywnie dużo róznego rodzaju napięć. Naszym zadaniem jest o nich wszystkich przeczytać w nocie katalogowej, dla mojego chińskiego kaf-1600 znajdziemy: 3.2 DC Operating Conditions 3.3 AC operating Conditions Generalnie zawsze dobrze jest trzymać się nominalnych wartości, wyjątkiem są napięcia do przesuwania pikseli - V1, V2, H1, H2. Te akurat można zmieniać, oczywiście w zakresie podanym w nocie pomiędzy min a max. Zmiana różnicy napięć pomiędzy stanami niskimi i wysokimi (V1 Low <-> V1 High, V2 Low <-> V2 High itd.) zmienia skuteczność przesuwania pikseli po naszej matrycy. Specjalnie napisałem zmienia, zamiast poprawia / pogorsza, bo działa to w każdą stronę: Zwiększenie róznicy napięć poprawia przesuwanie pikseli (mniej pikseli zablokuje się na ewentualnych niejednorodnościach krzemu) Zwiększenie różnicy napięć powoduje, że nasze piksele dynamiczniej zmieniaja położenie i nabierają energii, która dodaje szum. Zmniejszanie działa odwrotnie. Gdzie leży złoty środek? Najprawdopodobniej w wartości nominalnej z noty katalogowej, ale warto to sprawdzić. No dobrze, zatem mamy listę napięć jakie będziemy musieli dostarczać do naszego chipu: -8, -5, -4, 0, 0.5, 2, 4, 6, 9, 11, 15 (wszystkie wartości w V). Trochę tego jest, a jeszcze przecież planuję wszystko obsługiwać mikrokontrolerem AVR ;D 2. Skąd wziąć taki zestaw napięć? Jest kilka rozwiązań. gotowe stabilizatory napięcia stabilizatory napięcia oparte o wzmacniacz operacyjny drivery CCD Można na rynku dostac gotowe stabilizatory napięcia, są to układy scalone, zawsze do nich znajdziemy noty katalogowe, gdzie będzie podane na tacy jakie napięcie dają, jaki maksymalny prąd, a także typowe zastosowanie, wraz ze schematem. Niestety nie zawsze uda nam się znaleźć układ scalony, który akurat się wpasuje do naszych potrzeb, ale jeśli sie uda, to warto pójść tą drogą, bo jest łatwo i wygodnie Jeśli nie ma na rynku gotowego układu scalonego, to możemy zastosować inny - wzmacniacz operacyjny. Wzmacniacze operacyjne, to taki specjalny rodzaj wzmacniaczy, o bardzo dużym gainie, z którego możemy sami wyprodukować inne klocki, takie jak np. stabilizator napięcia. Właśnie takie rozwiązanie zastosowano też w innych projektach DIY kamer CCD (Audine, Pyxis). Pewnie dlatego, że jest to całkiem dobre rozwiązanie Podoba mi się, też tak zrobię. (Poniższa grafika pochodzi właśnie z projektu Audine). Stabilizatory takie mają dość prostą konstrukcję: z jednej strony wzmacniacza doprowadzamy napięcie zasilania, które już mamy (np. z transformatorowego zasilacza), z drugiej strony będziemy mieli nasze napięcie wyjściowe, które wybieramy za pomocą oporników. Napięcie wyjściowe jest bardzo stabilne (ma mało odchyłek / tętnięć) dzięki pętli sprzężenia zwrotnego i kondensatorom. Szukając w googlach po angielsku należy sie kierować hasłem opamp voltage regulator. Ja planuję zrobić tak, że zamiast stałego opornika dam w prototypie potencjometr PR (taki na śrubokręt), żeby móc wpływac na moje napięcia. To mi da dokładną wartość opornika, którym potem wstawię zamiast potencjometru, ale też da mi możliwość płynnego wpływania na napięcia te do przesuwania pikseli. Przy tego typu eksperymentach należy pamiętać o pewnej bardzo ważnej rzeczy - nigdy nie kręcimy potencjometrem na włączonym zasilaniu, jeśli mamy do czynienia z urządzeniem delikatnym (np CCD , ale też lasery itp.). Chodzi o to, że podczas kręcenia mogą się przedostać bardzo nietypowe wartości, np. przez ułamek sekundy układ może być całkowicie zwarty. Wzmacniacze operacyjne można dostać różnej maści, pojedyncze, wielokrotne (kilka upakowanych w jednym układzie). Wady i zalety są dość oczywiste - więcej pojedynczych układów zajmuje więcej miejsca na płytce, układy wielokrotne będą trochę cieplejsze. Ja zastosuję układy LM2902 - są tanie i łatwo dostępne. Do niektórych matryc CCD powstały gotowe drivery CCD. Można ich znaleźć garstkę pod hasłami ccd vertical driver, ccd horizontal driver, ccd driver. To bardzo fajne rozwiązanie, żałuję że nie znalazłem odpowiedniego układu do mojej matrycy - te, które znalazłem mają napięcia na zegarach (vertical oraz horizontal clock, to ta część CCD do przesuwania pikseli), które są rozbieżne z moimi potrzebami, albo są podobne tylko w pewnym zakresie. Strata nie jest ogromna, bo i tak do tych układów musiałbym podostarczać napięcia, dopasowane sygnały... Dodatkowo, bez driverów, będę musiał sam zrobić odpowiedni układ, który przyjmie sygnał zerojedynkowy, a wypluje dwa odpowiednie napięcia. Tę funkcjonalność pewnie zrealizuję za pomocą układu MAX333, ciekawy układ, w zasadzie jest to taki przełącznik (jest też zaskakująco drogi ), znowu - takie rozwiązanie, jak w Audine. No to tyle jeśli chodzi o napięcia, ale jest jeszcze druga strona elektryczności - prąd. Należy zwrócić uwagę na to ile, jaki układ pobiera prądu i tworząc układy zasiilania zapewnić conajmniej tyle. Całe szczęście zazwyczaj spotkamy się z sytuacją, że to nie jest problemem, ale trzeba się upewnić. (to gdyby ktoś chciał pójść moim śladem, ale miał np. inną matrycę) Do pewnych rzeczy warto też pomyśleć o jakości elementów. Np. stabilność napięcia zasilania resetu ccd nie będzie miała dużego wpływu na szumienie, ale juz zasilanie wzmacniacza wyjściowego tak. Różnice w elementach będą największe w przypadku kondensatorów. Prawdę mówiąc, wiedząc to, planuję użyć elementów, które akurat mam (czyli byle jakich), a potem już z działającym prototypem, wymienić na lepsze. Zwyczajnie jestem ciekaw jaki faktyczny wpływ to będzie miało 3. To tyle na dzisiaj, na razie czekam na zamówione elementy, w międzyczasie czytam i planuję dalej. Bo nie myślcie, że ja to wszystko z głowy piszę i się po prostu wymądrzam ;p (lektury polecałem w pierwszym wpisie o kaf-1600 ). Jak będę miał elementy, to zacznę składać podzespoły - generalnie chodzi o to, aby jak najwięcej zrobić nawet nie dotykając samego CCD (chociaż kusi!). To ważne bo CCD jest bardzo czułe na wyładowania elektrostatyczne... W międzyczasie uczę się pisać drivery ASCOM i piszę trochę software-u w związku z fotometrią, jest trochę roboty Zrobiłem też już wstępną listę elementów - i ich cen. Szacuję, że elementy wyjdą mnie jakieś 200, 300 PLN (policzyłem ile czego, a potem pomnożyłem x2 ) Prawdopodobnie w październiku będę gromadził wiedzę i elementy, a w listopadzie/grudniu wezmę urlop na poskładanie całości (bo i tak potrzebuje wziąć urlop, a jest dobra okazja ) pozdrawiam i do następnego
  17. 3 points
    Witam, Naszło mnie, aby napisać nieco o tym, czym zajmuję się w ostatnim czasie. Mianowicie, chodzi o poszukiwanie nowych gwiazd zmiennych. Skąd to się wzięło i dlaczego kontynuuję ten temat? Ile czasu nad tym spędzam? Na te i inne pytania postaram się odpowiedzieć. Początki zainteresowań gwiazd zmiennych sięgają 2009 roku, kiedy to w wieku 13 lat wizualnie dokonywałem pomiarów wybranych gwiazd zmiennych. Najczęściej były to Beta Lyrae, Delta Cephei oraz W Bootis. Wystarczyło zaledwie wyjść na kilka minut, aby coś tam zmierzyć. Były to jeszcze czasy, kiedy poszukiwałem tematu, który w astronomii amatorskiej najbardziej mnie zafascynuje. Po paru latach, wybór padł na gwiazdy zmienne. Zawsze intrygowało mnie to, co widać na danym wykresie. W końcu, pośrednio rejestrujemy zjawiska dziejące się na gwieździe lub w jej obrębie. W 2013 roku dzięki stypendium zakupiłem lustrzankę Canon EOS 60D, za pomocą której po raz pierwszy rozpocząłem przygodę z fotometrią. Odkryłem, że można osiągnąć precyzję znacznie lepszą niż uchwyci to ludzkie oko. Jednak brak montażu powodował, że ograniczałem się tylko na jasnych obiektach. Ten zakup zrealizowałem dopiero w 2016, po kilku miesiącach prób astrofotografii z prowadzeniem na Sky-Watcher Virtuoso. Także w 2016 ustaliłem swoje pierwsze zadania do wykonania przez dany rok. Jednym z nich była próba rejestracji tranzytu planety pozasłonecznej. Wysoka poprzeczka spowodowała, że przysiadłem do fotometrii nieco dłużej. Wcześniej nie miałem nawet pełnej krzywej jasności jakiejś zmiennej zaćmieniowej, a tu próbuję złapać bardzo subtelne zjawisko. Precyzja pomiarów polepszała się, ale o poszukiwaniach zmiennych jeszcze nie myślałem... Zmieniło się to w kwietniu 2017 roku. Zachęcony poszukiwaniem planet pozasłonecznych w programie Zooniverse - Exoplanet Explorers, zauważyłem jak ogromna jest ilość gwiazd zmiennych na nocnym niebie. Wysoka precyzja instrumentu pozwoliła rejestrować także zmiany blasku, które w warunkach naziemnych są nieosiągalne. Dorwałem więc do danych Keplera i pobrałem pomiary z pola Campaign 8 misji K2. Krzywych było ponad 20 tysięcy, które zacząłem ręcznie przeglądać. Zacząłem wypisywać obiekty, które w bazie danych VSX nie istnieją, a wykazują dość spore zmiany blasku. Jeśli Kepler rejestrował zmiany blasku, to może spróbuję potwierdzić je za pomocą własnych pomiarów? Tak, na samym początku sierpnia 2017 roku dokonałem obserwacji gwiazdy HD 5843 w konstelacji Ryb. Według danych K2, miała to być zmienna pulsująca o okresie krótszym niż dwie godziny. Ma około 8 mag (jasna!) i spadek blasku zaledwie 0.03 magnitudo. Takie zmiany rejestrowałem już dla tranzytów egzoplanet, więc spróbuję "odkryć" (potwierdzić) nieznaną wcześniej zmienną. Wyszło! Dwa tygodnie starałem się wysłać poprawnie raport do bazy danych VSX, aby w końcu zostało zaakceptowane. Kilka dni później analogicznie spróbowałem z HD 6121. Cel trudniejszy - gwiazda nieco ciemniejsza (8.6 mag) a spadek blasku zaledwie 0.006 mag. To już nawet wyzwanie. Na szczęście, udało się uzyskać potrzebną precyzję i w sierpniu miałem na koncie dwa odkrycia. Pod koniec sierpnia, po obserwacjach tranzytu Qatar-4 b zauważyłem sąsiednią gwiazdę, która zmieniała swój blask. W VSX nic nie ma, a spadek bardzo wyraźny - dziwna sprawa. Zaćmienie było tak głębokie, że nie byłem w stanie uwierzyć o prawdziwości bycia zmienną. Gwiazda nie była obserwowana przez Keplera, więc nie miałem czym to potwierdzić. Niedługo później dowiedziałem się o programach obserwacyjnych, takich jak ASAS-SN i SuperWASP. Dzięki publicznie dostępnym pomiarom, potwierdziłem zmienność. Był to układ binarny typu Algola (EA). A skoro się udało, zacząłem przeglądać kolejne obiekty. Do końca września przeprowadziłem jeszcze kilka obserwacji, mając łącznie na dysku kilkanaście obserwacji wykonywanych przez kilka godzin. Za moment druga, trzecia, czwarta... Okazało się, że tych zmiennych jest całkiem sporo! Modyfikacja metod poszukiwawczych, odnajdujemy kolejne. Było już kilkanaście, kiedy nastąpił STOP. Na swojej krzywej blasku widziałem gwałtowny wzrost jasności, natomiast ASAS-SN pokazał zupełnie co innego - była to nieznana wcześniej półregularna. To mój nowy typ! Były ciągle zmienne zaćmieniowe i parę pulsacyjnych. To, czym charakteryzowała się gwiazda, to pomarańczowo-czerwonawy kolor. Chwila później i znajduję analogiczną sytuację dla drugiej gwiazdy. A może zacznę na ślepo poszukiwać zmienne, które są czerwone? W ten sposób rozpoczęło się poszukiwanie metodą data-mining. Polega ono na wydobywaniu danych z bazy, a tutaj nie musiałem nawet wykonywać obserwacji. Nie ma w VSX, to nieznana. Co z takimi? Dowiaduję się, że także mogę wysyłać tego typu zmienne. Kilkanaście zmiennych i powoli zaczęło robić się nudne. Ile to można szukać czegoś, co jest trudne do analizy? Półregularne w rzeczywistości składają się z wielu nakładających się okresów. Trochę cierpliwości ja i moderator VSX musieliśmy mieć, aż w końcu opanuję wysyłanie zgłoszeń. W listopadzie 2017 roku zmieniłem metodę poszukiwań. SuperWASP i NSVS mają krzywe dostępne od razu, natomiast w ASAS-SN trzeba czekać nawet 10 minut po jedną gwiazdę. Jest lepsza precyzja, ale coś za coś. Dzięki kolejnym programom poszukiwawczym, zacząłem przeglądać także te o innych kolorach. Zaczęły wpadać kolejne nieznane typy o okresach rzędu dni. Zbyt długie, abym wyłapał podczas pojedynczej obserwacji. Rozpoczął się masowy projekt, w którym chciałem poznać gwiazdy zmienne nieco lepiej. Mamy ponad setkę typów, a w większości nie wiadomo o co w nich chodzi. Powoli zaczynałem spotykać przykłady nieznanych dla mnie typów i tak wyglądało ich poznawanie. Liczba odnajdywanych obiektów stała się zbyt duża i nie wyrabiałem się nad wysyłaniem do VSX. Przygotowanie i wysłanie zgłoszenia zajmowało godzinę. Sposób szukania to jedno, a analizy to drugie. Zacząłem coraz więcej czasu skupiać się na automatyzowaniu arkusza służącego do przygotowania wykresów. Czas malał i obecnie najprostszy typ (nieokresowy, więc pomijam pewien etap) mogę wysłać w zaledwie 15 minut. To nie pomogło, gdyż nieznanych zmiennych pojawiało się coraz więcej. Wolałem szukać niż wysyłać. Zmieniły się także priorytety - coś mniej ciekawego pomijałem, więc podejmowałem selekcję. Pojawiło się także ograniczenie, że można wysłać maksymalnie jedną zmienną dziennie. Aby to pominąć, można wysłać hurtowo poprzez napisanie pracy naukowej. To coś, czego nigdy wcześniej nie robiłem. Już wiele razy podejmowałem się, aby pozostawić projekt i zacząć kolejny. Wysyłanie zwolniło się i obecnie wysyłam nie częściej niż raz na tydzień. Pojawiła się chęć poszukiwania czegoś zupełnie nieznanego lub rzadkiego. To właśnie takie obiekty są najbardziej ciekawe. Zostawiłem już poszukiwanie zmiennych obserwacyjnie, a skupiłem się tylko i wyłącznie na data mining. Określiłem także skalę jak bardzo dany obiekt jest "wow". Dlaczego preferuję tę metodę? Obserwacyjnie odnalazłem około 50 obiektów i ciągle spotykam te same typy. EW, czasem EB, niekiedy EA lub DSCT. Kilka typów. Tylko raz przypadkowo natrafiłem na coś ciekawszego - GDOR. Data mining otworzyło mi bramę na poznawanie większej ilości typów. Nauczyłem się jak selektywnie wybierać gwiazdy, aby poszukiwać wybrane typy. I tak odnalazłem ponad 20 zmiennych typu GDOR, co jest o wiele bardziej owocne. Można też powiedzieć, że zmienne te mogę potwierdzać podobnie jak było to z Keplerem i HD 5843. Nie mogę przyznawać sobie odkrycia na podstawie samych obserwacji Keplera, natomiast innych danych (np. ASAS-SN) już tak. Nie są to dane, które przeglądając po kolei natrafimy na nie. To my tutaj "losujemy" gwiazdę na niebie, aby pobrać jej pomiary fotometryczne. Typy zmiennych, które kiedyś były marzeniem do odnalezienia (np. rotacyjna), z czasem stawało się czymś normalnym. I w tym momencie pojawiło się uzależnienie na zmienne, czyli chęć znalezienia coś jeszcze bardziej nietypowego. Takie, które faktycznie mogą się nadawać do napisania pracy naukowej. Nie jakieś tam EW, gdzie opisać można w kilku zdaniach, lecz bardziej złożone. Pierwszą z nich była TYC 2722-1304-1 w konstelacji Pegaza. To połączenie dwóch typów: EA+DSCT. Zmienna zaćmieniowa i pulsująca. Co więcej, zmienna zaćmieniowa ma silnie ekscentryczną orbitę, gdzie minimum wtórne jest ekstremalnie przesunięte. Co więcej, gwiazda jest bardzo jasna (9.7 mag). Widoczny jest także trzeci składnik odległy o 3". Spośród wszystkich znanych EA+DSCT, ta ma najdłuższy okres orbitalny. I to wszystko zsumowało się, że obiekt jest bardzo niezwykły. W tym momencie poczułem, że odnajduję coś ważnego pod kątem naukowym. Zacząłem ją obserwować z filtrami fotometrycznymi, aby potwierdzić pulsacje. Mierzyłem głębokości zaćmień przez kolejne filtry. I to jest to! W pracy naukowej można to opisać na wiele stron. I teraz na poważnie skupiłem się napisaniu pracy. Zabrakło jednak nieco danych, które planuję uzbierać podczas obserwacji w przyszłym roku. Pojawiły się kolejne rzadkie zmienne, które zacząłem dodatkowo obserwować. Jedną z nich była kandydatka na RCB (R Coronae Borealis) o oznaczeniu katalogowym IRAS 03536+6235. Zdobyła zainteresowanie wśród paru obserwatorów i astronomów, którzy także regularnie ją monitorowali z różnych części świata. I tak na zmianę - nowa metoda poszukiwania w data mining i kolejne typy zmiennych. W pliku mam pozycje ponad tysiąca nieznanych zmiennych, na które nie ma czasu. Selektywne wysyłanie zgłoszeń wygrało. Szukanie zmiennych stało się pewnego rodzaju uzależnieniem (w pozytywnym sensie!), z chęcią poznawania jak różnorodny jest ten temat. Coraz to bardziej nietypowe zmienne dają zagadki z czym mamy do czynienia. Zmienne symbiotyczne, nowe karłowate i inne dzikie węże. Jedna to nawet dostała gwiazdkę, bo jest zupełnym "wu te ef", gdzie sami moderatorzy VSX z niczym nie mogli jej powiązać. Jeszcze miesiące temu były to obiekty, które uznałem za niemal niemożliwe do odkrycia amatorsko. Można miesiącami próbować szukać rozbłyski, ale nigdy nie masz pewności. A tak wykrywam to, co zostało przez naukowców pominięte. I to jest to, czym chcę zajmować się dalej. Równocześnie działa temat egzoplanet, jednak z tym jest na przemian. Zimą, kiedy studiuję, praktycznie nie ma kiedy obserwować niebo. Robię to głównie latem. Astronomię amatorską uprawiam teraz siedząc przed komputerem. Średnio poświęcam nie mniej niż godzinę dziennie na znajdowaniu nowych zmiennych, licząc na coś rzadszego. Bo uważam, że moje działanie faktycznie ma istotny wpływ naukowy. Co planuję robić dalej? Szukać i szukać. Aż do momentu, kiedy właściwie nic nie zostanie amatorom, czyli teoretycznie do 2022 roku (katalog zmiennych z danych Gaia). A potem dokładnie studiować znalezione zmienne, co po części zacząłem w przypadku EA+DSCT i kandydatki na RCB. Ale do tego czasu takich może być już ponad setka... Szukanie nowych zmiennych przestało być zaskakujące, dlatego teraz szukam coś rzadkiego. To powoduje, że potrzebuję odpowiednie metody wyciągania danych. Na tyle, że na granicę 2022 zaczynam powoli przymykać oko. Niektóre ze zmiennych mogą być trudne do zidentyfikowania przez automaty Gai. Za parę lat wróci się do każdego obiektu i skończę temat wyciskając ostatnie poty. Co najmniej 1% z tysiąca pozostanie nadal nieokreślona jako zmienne. Korzystam z tych kilkudziesięciu miesięcy, kiedy swobodnie odnajduję i wysyłam odkrycia. Trzy tygodnie dołączyłem do AAVSO, stając się ich oficjalnym członkiem. To pozwoli na pisanie prac naukowych i wysyłanie do ich czasopisma JAAVSO (zmotywuje mnie fakt, że trochę na to wydałem). Regularnie kontaktuję się z astronomami, a jeden z nich szczególnie pomaga mi nad pisaniem obecnej (oczywiście to jeszcze kolejny projekt). Ale nigdy wcześniej nie było tak blisko. Jestem już prawie na ukończeniu, a chciałbym wydać do połowy przyszłego lutego. Praca, nad którą od sierpnia spędziłem ponad 250 godzin. To nie jest pojedyncza zmienna, ale katalog rzadkich zmiennych, z których powstaną późniejsze liczne prace. Aż nie mogę się doczekać na jej publikację!
  18. 3 points
    W wątku o testach kamery ASI zauważyłem ciekawe zjawisko. Oczywiście czytelnicy tego wątku szybko zasugerowali, że na pewno to wina matrycy, ale jeżeli ktoś rozumie pewne zjawiska to od razu zauważy coś innego. W tym miejscu mam dla was zagadkę - bez nagrody . Co to za zjawisko i dlaczego w ogóle powstaje. Piszę o tym, bo może się komuś przydać. To jak? Ktoś wie? (zdjęcia powyżej w galerii - coś nie działa jeszcze dodawanie do wpisów). Przechodząc do tego, co tu się aktualnie dzieje, to obserwatorium otwarte, sprzęt się chłodzi. Będę fotografował dalej. A u Was jak sytuacja na froncie? PS. Przy okazji chciałem poinformować drogą społeczność, że możecie teraz pisać na Astropolis bardziej "prywatnie" - w formie blogów. Od dzisiaj wyświetlają się takie wpisy na liście nowych publikacji na głównej stronie. Inaczej mówiąc - dajemy Wam pełne audytorium - dużo czytelników
  19. 2 points
    Małymi krokami zbliżają się do nas święta Bożego Narodzenia, których astronomiczną ikoną od wielu lat jest pierwsza gwiazdka. W anno domini 2015 jej rolę pełniła usytuowana w gwiazdozbiorze Woźnicy gwiazda Kapella, która jako pierwsza wyłoniła się z błękitu rozświetlonego nieba. W tym roku wszystko wskazuje na to, że będzie nieco inaczej, a rolę pierwszej gwiazdki wyjątkowo zagra planeta, - zapraszam do oglądania!
  20. 2 points
    Przed chwilą został zamówiony dziesiąty teleskop w Akcji Grupowych Zakupów TS'a. Pierwotna pula wynosiła 10 sztuk, co jak na 1 tydzień wydawało się racjonalną ilości - w końcu to bardzo drogi sprzęt. Ewidentnie przewidziałem zbyt małą pulę tych teleskopów i w tej chwili staram się ją zwiększyć. Jeszcze dzisiaj wieczorem dam znać, czy się udało. Wygląda na to, że 20% bonus mocno zmienia obliczę rynku, co tylko potwierdza, że sprzęt astronomiczny jest za drogi. Tym bardziej więc się cieszę, że mogę temu naszemu małemu rynkowi pomóc w ten sposób - rezygnując ze swojej marży. Ponieważ bardzo wierzę w transparentność i dostęp do informacji postanowiłem podzielić się z wami informacjami, jakie dokładnie teleskopy zostały zamówione. Myślę, że jest to unikatowa wiedza i warto się z nią zapoznać. Jest to swego rodzaju badanie - realne, bo przeprowadzone na prawdziwych portfelach, a nie suchych oczekiwaniach. Poniżej wykres: Jak widzicie, nie sprzedają się najtańsze teleskopy. Taka sama sytuacja była w przypadku kamer ASI - gdzie hitem była ASI1600 (przy podobnym udziale średniej półki). Na screenie zdradzam też odpowiedzi na pytanie, czy chcemy mieć na Astropolis stały dostęp do cen dealerskich. Odpowiedzieliście, że nie. Inaczej mówiąc, szkoda jest nam zapłacić niecałe 50 zł miesięcznie, żeby mieć dostęp do wszystkich marek w cenach średnio od 15 do 40% taniej. Tym pytaniem testowałem, czy nie dałoby się z tego zrobić formy na rozwój forum, czyli płatne konta, swego rodzaju klub, który utrzymuje projekt, a za to dostaje wiele benefitów, w tym bardzo wymierny - czyli kupowanie sprzętu tak, jakby całe Astropolis było dealerem i kupowało sobie sprzęt bez marży na zasadach stałych. Nic z tego nie będzie, więc szkoda się nad tematem rozwijać. Muszę się zastanowić, czy to kwestia kwoty, czy generalnie sam model jest dla was dziwny. Podsumowując - dzięki za kolejną fajną akcję, a teraz trzeba zacząć pracować nad kolejnym etapem akcji (biurokracja i logistyka).
  21. 2 points
    Ci, co mnie trochę lepiej znają wiedzą, że pochłaniam spore ilości książek (20-30 rocznie, w 99% non-fiction). Sporo czytam w temacie rozwoju ludzkości, nauki, wynalazczości i takich tam innych "głupot". Jest sporo dobrych książek (niestety wiele nadal tylko w ENG), ale są też książki ekstremalnie wybitne, dzieła, które trudno ogarnąć jednym przeczytaniem. Taką biblią ludzi chcących zrozumieć, jak działa człowiek, cywilizacja i ogólnie nasz gatunek, jest bez w cienia wątpienia książka Yuvala Noah Harariego - Sapiens: A Brief History of Humankind. Jeżeli jeszcze nie czytałeś tej książki, to marsz do jakiegoś sklepu z książkami (pewnie internetowego) i kup ją natychmiast. Gwarantuję Ci, że będziesz mi bardzo wdzięczny. To książka, przez którą spojrzysz na wiele rzeczy z zupełnie innej perspektywy. Dobra wiadomość jest też taka, że możesz ją przeczytać po PL ( Dzisiaj ogarnęła mnie euforia, bo właśnie przyszła z Amazona nowa książka Yuvala, niejako kontynuacja Sapiensa - Homo Deus - A Brief History of Tomorrow. O ile Sapiens odpowiada na wiele pytań dotyczących naszej historii (jako gatunku, cywilizacji), o tyle nowa książka stara się iść dalej - znacznie dalej. Rysuje człowieka w świecie inteligentnych maszyn, wielkich technologicznych rewolucji, a zapewne także czasów, kiedy będziemy całkowicie połączeni z technologią. Odważny i ryzykowny temat. Nie wiem, jak sobie z nim poradzi, bo historię można mierzyć faktami i wiedzą, to z futurologią jest trochę większy problem. Choć z drugiej strony Ray Kurzweil używając mierzalnej nauki całkiem skutecznie prognozuje naszą przyszłość. Mam wielkie oczekiwania wobec tej książki, choć boję się wielkiego zawodu. Z drugiej strony uspokajają mnie recenzje - podobno jest nie gorzej, a więc - genialnie. Ten facet jest kosmitą, bo żaden człowiek nie mógł się tak merytorycznie poślizgać (połączyć kropki) po tak wielu dziedzinach, które budują nasze ludzkie dziedzictwo (Sapiens). Znikam na najbliższe dni i noce. Sorry
  22. 1 point
    A więc dalej rozważając nasz cykl wpisów w których rozważamy fakt istnienia innych cywilizacji niż nasza, dzisiaj omówimy sobie hipotetyczne megakonstrukcje obcych. Budowane np wokół gwiazd w celu pobierania z nich energii lub by spowolnić ich nieubłaganą ewolucję i w konsekwencji śmierć np w wybuchu Supernowej. Mówię tu np o Sferach Dysona, ich odmiany znanej jako Rój Satelit Dysona- Harropa czy wreszcie rozbudowanej wersji takich sfer koncentrycznie zawierających się w sobie, znanych jako Mózg (Umysł ) Matrioszki. Omówię tu też coś takiego jak Pierścień Nivena, będący czymś w rodzaju gigantycznej koncentrycznej stacji kosmicznej umożliwiającej życie w warunkach atmosfery i grawitacji wewnątrz niej. Wybaczcie też za ewentualne powtórzenia gdyż o tych konstrukcjach mówiłem już trochę w poprzednich wpisach, a ten ma tylko usystematyzować, rozszerzyć wam i powtórzyć wiedzę o nich. Nie zapominajmy też i o tym, że jeśli cywilizacje w ogóle bawią się w budowanie jakichkolwiek konstrukcji, te rzeczywiście istniejące wcale nie muszą przypominać omawianych tu teoretycznych modeli. Cywilizacje mogą nas tu zaskoczyć swą pomysłowością, ale to już czyste spekulacje więc je zostawmy sobie na inny raz, ok A więc zaczynając od pierwszej z nich, najprostrzej wersji, czyli zwykłej Sfery Dysona. Stanowi ją budowla otaczająca koncentrycznie gwiazdę i wykorzystująca całą wypromieniowaną przez nią energię na użytek cywilizacji. Zaproponowana została ona po raz pierwszy przez amerykańskiego fizyka i futurologa Freemana Dysona w 1959 roku w prestiżowym czasopiśmie naukowym. Konstrukcja taka jest jednak grawitacyjnie niestabilna w czasie, co stanowi jej główną wadę. Dzieje się tak dla tego, że wypadkowa siła przyciągania między sferą a jakimkolwiek obiektem znajdującym się wewnątrz niej wynosi zero. A więc bez aktywnego wspomagania w naszych rozważaniach pomińmy już jakiego rodzaju, gwiazda mogła by zdryfować i zderzyć się ze ścianami konstrukcji, doprowadzając do katastrofy. Aby nasze rozważania nie były nudne opowiem wam, że w ostatnich czasach pojawiły się ciekawe lecz dość kontrowersyjne dowody obserwacyjne na istnienie czegoś w tym rodzaju wokół jednej z gwiazd w obrębie gwiazdozbioru Łabędzia. Gwiazda ta znana pod dość mało ciekawą i niczym się nie wyróżniającą nazwą katalogową KIC 8462852 obserwowana przez kosmiczny teleskop Keplera wykazuje ciekawe i dość nietypowe 20 % spadki jasności wskazujące na jakiś obiekt przechodzący przed tarczą gwiazdy w płaszczyźnie kierunku obserwacji. Takie spadki jasności wskazujące np na istnienie planet nazywamy Tranzytem. Bardziej popularne wyjaśnienie mówi o roju odłamków po komecie, meteorach orbitujących wokół gwiazdy. Takie spadki jasności mogą jednak wskazywać też na pobieranie z niej energii, poprzez jakieś sztuczne urządzenie. Co ciekawe zgadzało by się to z przewidywaniami zespołu pracującego nad programem SETI, mówiących że najłatwiej będzie nam wykryć obecność cywilizacji po zbudowanych przez nich konstrukcjach. Coś co nazywamy Rojem Satelit Dysona- Harropa różni się od zwykłej Sfery tym, że nie stanowi litej konstrukcji a właśnie rój satelit okrążających gwiazdę w skorelowanych ze sobą orbitach. O wiele bardziej rozbudowaną i wewnętrznie złożoną konstrukcją jest tak zwany Umysł Matrioszki, który w istocie jest gigantycznym Hiperkomputerem zdolnym do niemal nieograniczonych hiperobliczeń nie ważne jak złożonych obliczeniowo w ujęciu Kołomogorowa. Całość opiera się na zbudowanych z nanokomputerów Sfer Dysona, przy tym każda przystosowana jest do pracy na innym poziomie temperatury a co za tym idzie dalej na innej długości fali promieniowania emitowanej przez gwiazdę centralną. Opisać to można jako relację odwrotności od odległości od gwiazdy, Wynika z tego że pierwsza sfera przystosowana jest do pracy w najwyższej temperaturze, a ostania do najchłodniejszej zbliżającej się lub nawet osiągającej wartość temperatury mikrofalowego promieniowania tła, pozostałego po Wielkim Wybuchu. Na takim hiperkomputerze można by wedle spekulacji dokonać tak zwanej emulacji umysłów wszystkich ludzi do wirtualnej rzeczywistości lub symulować rozwój innych cywilizacji jak też implementować symulacje całych Wszechświatów. Choć co niezmiernie ważne sam mechanizm jego działania jest obecnie tematem gorących debat i spekulacji.
  23. 1 point
    Parę lat temu lubiłem bawić się w takie porównania (bo są motywujące) i dzisiaj sobie o tym przypomniałem. Zrobiłem szybkie zestawienie i uświadomiłem sobie, że w przeciwieństwie do starych czasów, dzisiaj wszyscy mamy spory wybór. Z tego co widzę, inne fora radzą sobie bardzo dobrze i sytuacja wydaje się stabilna. Z rozgrzanej lawy wszystko ostygło i stało się prawdziwą skałą. Poniżej jeszcze porównanie z SGL (największe anglojęzyczne forum w tej części świata): Wstydu nie ma, a biorąc pod uwagę, że trochę więcej ludzi mówi po ENG, to nie jest źle Gdybyście sami chcieli się pobawić tym narzędziem, to polecam: https://www.similarweb.com/
  24. 1 point
    Dzien dobry, dzisiaj zajmiemy się przygotowaniem plików, którymi będziemy karmili IRAFa, czyli FITSów. Jedziemy! 1. Czym są fitsy oraz o nagłówkach FITSów 2. Konwersja RAWów do FITSów 3. Edytowanie nagłówków. Użyjemy pierwszy raz IRAFa! Będzie również o poruszaniu się w IRAFie 1. FITS jest specjalnym typem plików do przetrzymywania obrazów, choć jak się okazuje, nie zawsze muszą to być obrazy, zresztą jak sama nazwa wskazuje, jest dość elastyczny (Flexible Image Transport System). Każdy FITS składa się z dwóch części: nagłówka oraz faktycznych danych. Nagłówek ma bardzo ściśle określoną specyfikacje, dlatego nie wolno ręcznie edytować nagłówków! W specyfikacji FITSów jest zapis, że nagłówek ma mieć konkretny rozmiar - krotność 512 bajtów. Prawdę mówiąc piszę z pamięci i możliwe, że jest to inna liczba, ale nie w tym rzecz - edytując nagłówek FITSa należy zadbać o to, aby jeśli jest za mały to go powiększyć. Trochę śmieszne, ale juz tak jest. W praktyce oznacza to, że edytowanie nagłówków bezpiecznie jest zostawić wyspecjalizowanym do tego programom (IRAF oczywiście umie, dojdziemy do tego ). W nagłówku FITSa zapisane sa parametry za pomocą słów kluczowych i ich wartości. Przykładowy nagłówek FITSa wygląda nastepująco: SIMPLE = T / Fits standardBITPIX = 16 / Bits per pixelNAXIS = 2 / Number of axesNAXIS1 = 2817 / Axis lengthNAXIS2 = 1876 / Axis lengthEXTEND = T / File may contain extensionsBSCALE = 1.000000E0 / REAL = TAPE*BSCALE + BZEROBZERO = 3.276800E4 /ORIGIN = 'NOAO-IRAF FITS Image Kernel July 2003' / FITS file originatorDATE = '2016-09-07T19:51:12' / Date FITS file was generatedIRAF-TLM= '2016-09-07T19:51:16' / Time of last modificationCOMMENT FITS (Flexible Image Transport System) format is defined in 'AstronomyCOMMENT and Astrophysics', volume 376, page 359; bibcode: 2001A&A...376..359HPHOTSYS = 'Instrumental' / photometry filter systemFILTER = 'Gi ' / Spectral filter or colorspace componentDATE-OBS= '2016-09-01T20:52:24' / time of exposureEXPTIME = 24.70000 / [s] Exposure timeISO = 50 / ISO speedINSTRUME= 'Canon EOS 5D Mark II' / Camera manufacturer and modelAPERTURE= 'f/1.$ ' / ApertureFOCUS = 50.0 / [mm] Focal lengthCOMMENT Command: dcraw -c -4 -D -q 3 -w _MG_3193.CR2CREATOR = 'rawtran 0.3.8' / Created by rawtran 0.3.8COMMENT Created by rawtran: http://integral.physics.muni.cz/rawtranCOMMENT EXIF data info - beginCOMMENT Filename: _MG_3193.CR2COMMENT Timestamp: Thu Sep 01 20:52:24 2016COMMENT Camera: Canon EOS 5D Mark IICOMMENT ISO speed: 50COMMENT Shutter: 24.7 secCOMMENT Aperture: f/1.$COMMENT Focal length: 50.0 mmCOMMENT Embedded ICC profile: noCOMMENT Number of raw images: 1COMMENT Thumb size: 5616 x 3744COMMENT Full size: 5792 x 3804COMMENT Image size: 5634 x 3753COMMENT Output size: 5634 x 3753COMMENT Raw colors: 3COMMENT Filter pattern: RGGBRGGBRGGBRGGBCOMMENT Daylight multipliers: 2.391381 0.929156 1.289254COMMENT Camera multipliers: 2194.000000 1024.000000 1694.000000 1024.000000COMMENT EXIF data info - endIMAGETYP= 'FLAT 'COMMENT 27 blank linesEND Znajdziemy tutaj takie rzeczy jak czas ekspozycji, rodzaj ekspozycji (IMAGETYP= flat, dark, object, zero, illum, fringe itd), datę zrobienia ekspozycji, a także komentarze pozostawione przez różne programy, którymi coś robiliśmy z FITSem. Żeby IRAF mógł prawidłowo wykonać wszelkie redukcje nasz FITS musi koniecznie zawierać takie informacje jak IMAGETYP, czas ekspozycji, ilość pikseli, ilość bitów na piksel. Większość z tych rzeczy ustawione jest podczas konwersji RAWa do FITSa lub jeśli używamy dedykowanego programu zapisującego FITSy bezpośrednio z kamery, ale np. IMAGETYP nie zostanie dodany jeśli konwertujemy RAWy, bo przecież skąd program ma wiedzieć jaki obrazek konweruje? Tę wartość musimy ustawić sami. 2. Istnieje wiele programów do konwersji RAWów do FITSów zarówno na Windowsy jak i linuksy. Problem polega na tym, że nie zawsze wiadomo co one robią z informacją o kolorze. Ponieważ celem wpisów na tym blogu jest wykonywanie fotometrii, to opiszę jak z kolorowego obrazka zrobić czarno-białego FITSa. Istnieje możliwość przechowywania w FITSie koloru - odbywa się to za pomocą kilkuwarstwowego FITSa - taki FITS ma kilka następujących po sobie bloków z obrazem (wszystko jest wtedy oczywiście opisane w nagłówku). Zamienimy maskę bayera na czarno-biały FITS za pomocą pikseli zielonych, uśrednionych z dwóch wartości w każdym pikselu. Debayeryzację i konwersję do FITS zdecydowałem się robić za pomocą programu dcraw. Można go zainstalować na linuksach za pomocą komendy sudo apt-get dcraw albo samemu skompilować ze źródła ( https://www.cybercom.net/~dcoffin/dcraw/ ). Jak widać w powyższym nagłówku przekonwertowałem RAWa z Canona 300D za pomocą wywołania: dcraw -c -4 -D -q 3 -w _MG_3193.CR2 (jeszcze nie eksperymentowałem ze szczegołowymi ystawieniami konwersji - zajmę się tym jak dojdę do fotometrii i wtedy porównam wyniki z różnych metod konwersji.) takich konwersji musiałem zrobić całą masę i gdybym miał ręcznie to zrobić dla wszystkich, to prawdopodobnie trafił by mnie szlag. Tu z pomocą przychodzi inny program: rawtran ( http://integral.physics.muni.cz/rawtran/ ), który jest tak naprawdę wrapperem dla dcraw (obudowuje wywołania i wywołuje dcraw dla wygody użytkownika). Mozna go zainstalować tylko przez skompilowanie, no trudno... Na dole strony rawtrana znajdziemy sekcje Download and Installation. Jest tam napisane, że do działania wymagana jest biblioteka cfitsio - całe szczęście, że jesteśmy na linuksie! Cfitsio czasami na Windowsach nie daje się skompilować (jest to związanie z różnymi instalacjami Visual Studio). Biblioteka cfitsio jest oczywiście biblioteką do obsługi FITSów, i tak by się przydała w przyszłości, wiele programów z niej korzysta. Tutaj znajduje się zawsze najaktualniejsza wersja cfitsio: http://heasarc.gsfc.nasa.gov/FTP/software/fitsio/c/cfitsio_latest.tar.gz Ściągamyi rozpakowujemy. Rozpakować można przez programy okienkowe (kliknięcie prawym przyciskiem -> rozpakuj) albo w terminalu. Jeśli w terminalu, to domyślnie plik będzie w folderze Downloads Robimy! cd ~/home/Downloadsls *.gztar -zxvf {nazwa_pliku_z_cfitsio} // można zacząć wpisywanie tylko pierwszych znaków a potem kliknąc TAB, system sam uzupełni resztę)ls -ltr // teraz pojawi sie folder z rozpakowanymi źródłamicd {folder}./configure // przygotowanie kompilowania, jeśli brakuje jakichś bibliotek, to tutaj się o tym dowiemymake // kompilowaniesudo make install // instalowanie pomiędzy komendami ./configure <-> make <-> make install będzie mieliło dosyć długo, to dobry czas na zrobienie herbaty, kawy, albo pisanie na blogu Rawtrana instalujemy dokładnie tak samo (i w ogóle dowolny program, jeśli kompilujemy ze źródeł to procedura tak będzie wyglądała, czasami tylko z drobnymi różnicami). Rawtran jest super, bo daje możliwośc wybrania "filtru" instrumentalnego, znaczy się wybrania pikseli z których on stworzy plik, to właśnie robi opcja: -c [Ri|Gi|Gi1|Gi2|Bi] (instrumental bands) Ja wybrałem -c Gi. Na stronie rawtrana jest pełna informacja co robi, która opcja. Żeby przekonwertować wszystkie RAWy w folderze wywołujemy: for A in *.CR2; do rawtran -o ${A%CR2}fits ${A}; done UF! 3. Wreszczie mamy FITSy! W końcu też doszliśmy do pierwszego odpalenia IRAFa! Jeśli jest taka potrzeba to umieszczamy nasze FITSy w wygodnym folderze - spędzimy w tym folderzu parę godzin, niech będzie wygodny W tym folderze przygotowujemy IRAFa do odpalenia za pomocą komendy mkiraf UWAGA ODPALAMY IRAFA, wpisujemy, BADADUM! cl już. Naszym oczom ukazuje się przepięknie archaiczny interfejs tekstowy. W sumie ma tę zaletę, że nie muszę mu robić screenshotów, bo mogę skopiowac tekst ;D NOAO/IRAF PC-IRAF Revision 2.16.1 EXPORT Mon Oct 14 21:40:13 MST 2013 This is the EXPORT version of IRAF V2.16 supporting PC systems. Welcome to IRAF. To list the available commands, type ? or ??. To get detailed information about a command, type `help <command>'. To run a command or load a package, type its name. Type `bye' to exit a package, or `logout' to get out of the CL. Type `news' to find out what is new in the version of the system you are using. Visit http://iraf.net if you have questions or to report problems. *** Checking update status... Your IRAF system is up to date *** Initializing SAMP .... No Hub Available The following commands or packages are currently defined: dataio. language. obsolete. softools. vo. dbms. lists. plot. system. images. noao. proto. utilities. vocl> Mamy tutaj listę paczek, którymi będziemy analizować dane. Tzn większości z nich nigdy nie użyjemy, bo IRAF służy nie tylko do analizy danych z CCD. Żeby poruszać się po IRAFie potrzebujemy sie nauczyć tylko kilku rzeczy, ale w sumie możemy ich się nauczyć w locie, skoro i tak mamy zadanie do wykonania. Przejdźmy się razem, pogrubioną czcionka i kursywą wyróżniłem komendy, należy je oczywiście zatwierdzać ENTERem. 1. wpisanie nazwy paczki spowoduje wejście do niej. Można wpisać tylko początkowe litery nazwy, jeśli się nie powtarzają, to wejdziemy (np samo p jest niejednoznaczne) np. wpiszmy noa 2. weszliśmy do paczki noao. Ukazała nam się nowa lista paczek. 3. Możemy zobaczyć skrótowy opis co robi dana paczka: help 4. uuuuu, digiphot - Digital stellar photometry package - To tutaj będziemy dążyć 5. a wejdźmy sobie zobaczyć co jhest w środku: digi 6. help daophot - Dao Crowded-Field Photometry Package 7. to tutaj będziemy w przyszłości robić fotometrię. Zanim jednak zaczniemy fotometrię musimy zrobić redukcje, to nie tutaj 8. bye Tak. Bye jest komendą Żegnamy się z paczką i idziemy do góry 9. imred wchodzimy do paczki do redukcji. 10. help ccdhedit - to jest help od procedury do edutowania nagłówków. Teraz mamy dwie możliwości. Naszepliki nazywają się wszystkie tak samo (z licznikiem), albo nasze pliki (kalibracyjne) nazwane są swoimi typami, np dark01.fits, dark02.fits itd. Jeśli mamy różne nazwy to jest trochę łatwiej, tak jak stoi w EXAMPLES z helpa. Jeśli mamy kijowe nazwy, to trzeba zrobić trochę więcej kroków... Musimy utworzyć plik tekstowy z listą plików danego typu. Nie ma rady, trzeba będzie zrobić trochę ręcznej roboty. Wpisujemy ls *.fits > dark.txt Ten znaczek > oznacza, że przekierowujemy wyjście z programu ls (normalnie wypisałby na ekran) do pliku. Można tez dopisywać dopliku na jego końcu (nie kasując tego co było w nim wcześniej) za pomocą >> Teraz ten plik tekstowy trzeba wyedytować - usunąć z niego wszystkie nazwy plików, które nie są darkami. Tę procedurę powtarzamy kilka razy, ale nie ma potrzeby wpisywać całej komendy od nowa, można nacisnąć strzałkę w górę. ls *.fits > object.txt ls *.fits > zero.txt ls *.fits > flat.txt Jak juz mamy listę plików, to użyjemy ccdhedit, ale trochę inaczej niż w helpie. epar ccdhedit dodanie epar powoduje że wchodzimy do edycji parametrów danej procedury. I R A F Image Reduction and Analysis FacilityPACKAGE = ccdred TASK = ccdheditimages = CCD imagesparamete= Image header parametervalue = Parameter value(type = string) Parameter type (string|real|integer)(mode = ql) epar będzie naszym przyjacielem, wywołamy to jeszcze milion razy Normalnie w images wpisalibyśmy nazwę plików, albo bardzo dużo nazw plików rozdzielonych przecinkami, na szczęście jednak jesteśmy sprytniejsi i stworzyliśmy już sobie listę plików i jej uzyjemy. Listy plików w IRAFie rozróżnia się od po prostu plików znakiem @. Czyli wpisujemy np @dark.txt Teraz jest trochę problem, bo wiem, że każdy, kto spróbuje iść w moje ślady będzie mógł mieć tutaj co innego niż ja. Otóż ja do educji plików używam programu vim. Jest on trochę dziwny w obsłudze, ale ja go lubię i jestem przyzwyczajony. IRAF natomiast też tak naprawdę używa edytora tekstu - u mnie jest to vim, ale kiedys miałem emacs'a. Od czego to zależy- a nie wiem Problem polega na tym, że z różnych programów inaczej się wychodzi z trubu edycji. Z vima trzeba zrobić ESC, a potem :wq (zapisuje i wychodzi, samo q by wyszło bez zapisywania). Z emacsa się wychodziło ESC+z. Z innych programów czasami jest CTRL+x. Na dole okienka z IRAFem jest podpowiedź co trzeba nacisnąć, żeby dostać helpa edytora plików, w którym jesteśmy. w parameter i value wpisujemy images = @dark.txt CCD imagesparamete= IMAGETYP Image header parametervalue = DARK Parameter value(type = string) Parameter type (string|real|integer) type zostawiamy na string, gdybyśmy zmieniali np. czas ekspozycji, to oczywiście byśmy dali real itd. String oznacza, że wartość jest słowem, a nie liczbą, ani nie liczbą całkowitą (integer). No i wykonujemy zadanie: ccdhedit bez żadnych parametrów. Pojawi się kilka zapytań, ale ponieważ wszystko ustawiliśmy wcześniej, to wszystkie zatwierdzamy ENTERem. Teraz robimy to samo dla klatek z flatami, biasami, i światłem - i po robocie! Z tak przygotowanymi FITSami będziemy mogli się zabrać za redukcje, ale to już w kolejnym odcinku... Na zakończenie chciałbym jeszcze napisać ? oraz ?? Otóż są to dwie komendy IRAFa, obie podają listy paczek, ale w różnych ilościach i z rózną ilością podpaczek i już absolutnie na koniec, żeby wyjść z IRAFa wpisujemy lo ^ to jest mała literka L a zatem do następnego razu, lo
  25. 1 point
    UWAGA! Wpis zdradza treść i sens książki „Nieistotne”. Jeśli nie chcesz zepsuć sobie zabawy i ewentualnej przyjemności z odkrywania zawartego w książce sensu, zapraszam po przeczytaniu książki! Pierwszą, i jak dotąd jedyną osobą, która zwróciła uwagę na nieścisłość w ustaleniu kierunku podróży przez Sigurda jest Paether No, być może inni też zwrócili na to uwagę, ale tego nie zasygnalizowali. Nieścisłości w książkach nie powinny się zdarzać, ale mimo wszystko czasem się zdarzają, zwłaszcza w tych debiutanckich. Mam jednak nadzieję, że nikt nie podejrzewa mnie o to, że nie wiem gdzie na mapie jest północ, na niebie z resztą też . Ponadto opisane w książce punkty podróży leżą w tak charakterystycznym położeniu względem siebie, że prawie jak pod linijkę. Rotterdam znajduje się niemal idealnie na północ od Mervans. Problem wygląda następująco: Gdy Sigurd ustala kierunek na papierowej mapie, stwierdza, że z miejsca, w którym stacjonują w drodze do Rotterdamu powinien iść na północny zachód. Najpierw jednak ma zamiar udać się na północ - do Mervans. Oczywiście jest w błędzie, ponieważ Rotterdam znajduje się w kierunku północnym od okopów. Mervans znajduje się na północ i nieco na wschód. Sigurd nie umie wyznaczyć kierunków na mapie! Jeśli chcemy stwierdzić, na czym polegał jego błąd, wystarczy, że wyobrazimy sobie w jaki sposób patrzy i trzyma on mapę. Jego papierowa mapa jest po prostu przekręcona o mniej więcej 45° w lewo, czyli w kierunku przeciwnym do wskazówek zegara. O błędzie, który popełnił informuje go dopiero kompas wbudowany w zegarek, na który spojrzał niedługo po ucieczce z okopów: "Skupił się na wbudowanym w zegarek kompasie i ustalił kierunek w którym miał zamiar iść. Okazało się, że zboczył za bardzo na wschód, więc skorygował swoją drogę." Jeśli wyobrazimy sobie, że pomagamy Sigurdowi ustalić kierunek, to poprawimy mu ułożenie mapy i przekręcimy ją o te, mniej więcej, 45° w prawo. Wtedy wszystko będzie się zgadzać. Rotterdam będzie na północ, a Sigurd twierdząc, że do Mervans trzeba iść na północ odkryje, że poszedłby na północny wschód, czyli zboczy za bardzo w kierunku wschodnim. W ten sposób odkryjemy też miejsce stacjonowania: Okopy znajdują się w obszarze pomiędzy Macon i Bourg-en-Brasse. Dokładnego położenia jednak nie ustalałem, bo dla biegu wydarzeń nie ma to żadnego istotnego znaczenia. Co miałem na myśli? Po pierwsze: w ten sposób chciałem wykreować przytyk w stronę ludzi żyjących w czasach Sigurda, ale również nawiązać do czasów teraźniejszych. W czasach upadku opisanych w książce ludzkość była już niemal całkowicie uzależniona od elektroniki. Jak wiadomo fundamentaliści wyrzucili wszystkie zdobycze technologii na "śmietniki". Dlatego Ian mówi, że na mapę elektroniczną nie ma szans, ale może uda się załatwić papierową. Poprzez uzależnienie od urządzeń wykorzystujących GPS, ludzie stracili podstawowe umiejętności ustalania kierunków za pomocą prostej mapy. Śmiem przypuszczać że już obecnie wielu ludzi miałoby problemy z orientacją z użyciem mapy papierowej. Podejrzewam, że gdybyśmy wybrali sto losowych osób, wywieźli ich na jakieś pustkowie, wręczyli papierową mapę i kazali ustalić kierunek do najbliższego miasta, to spora część z nich miałaby kłopot. Cały czas mam w głowie miejską legendę, albo i prawdziwą historię o kierowcy, który tak ufał wskazaniom nawigacji, że wjechał autem do stawu czy jeziora. Słabe umiejętności Sigurda mają jednak swoją genezę: W pierwszej wersji książki wydarzenia i postać Sigurda miały być inaczej przedstawione. Sigurd miał zamiar zanieść list do człowieka nieśmiertelnego i zostawić go na szczycie kopca w Rotterdamie. Wtedy też miał przypadkowo spotkać tam Samvela. Pozostałość po tym niezrealizowanym wątku pozostała w ostatecznej wersji książki: "Miał jedynie dwie rzeczy, które nadal trzymały go przy życiu i kazały przetrwać: pamiętniki które czytał i list, który miał zamiar napisać." W dodatku Sigurd miał być niemal analfabetą! Bardzo słabo czytał i pisał. Ian miał go poduczyć w pisaniu. Tym samym postać żołnierza byłaby szerzej opisana, a wątek pobytu w więzieniu miał być o wiele dłuższy. Relacja z Ianem też miała być bogatsza. To też miało podkreślić jak nisko upadli ludzie i jak ułomna była armia korpokratów. Uznałem jednak, że prawdopodobieństwo, iż Sunden zjawi się na szczycie kopca w tym samym dniu co Samvel byłoby za małe i ten watek byłby zbyt nieprawdopodobny. Potem uznałem też, że owszem - Sigurd może nie wiedzieć jak ustalić kierunek za pomocą mapy, ale to, że jest prawie analfabetą też mogłoby być zbyt dziwne. Dorastał przecież w świecie zaawansowanej technologii. Musiał gdzieś nauczyć się pisać i czytać, choćby po to, aby być dobrym konsumentem. Tak więc wątek z mapą i kierunkami został, a pozostałych nie wpisałem do ostatecznej wersji książki. To tyle na temat pomyłki Sigurda pozdrawiam
  26. 1 point
    Znajdująca się w gwiazdozbiorze Wielkiej Niedźwiedzicy (Ursa Maior)Mgławica Sowa cieszy się sławą jednego z najtrudniejszych obiektów z katalogu Messiera do znalezienia za pomocą niedużego teleskopu.Jeśli jednak mamy instrument o średnicy 7,5 cm lub większej,okular o małym powiększeniu co najważniejsze ciemne,pogodne niebo problem przestaje istnieć. Mgławica Sowa powstała z odrzuconyh warstw zewnętrznych umierającej gwiazdy.W centrum mgławicy tkwi gwiazda,a właściwie jej gorące jągro,ale - ponieważ ma jasność 14 wielkości gwiazdowcyh -więc można ją dostrzec dopiero przez teleskop co najmniej 25 cm. Ciemne ,,dziury'' w mgławicy,widoczne przez teleskop o średnicy 30 cm i większej,to zapewne wynik turbulencji w rozszerzającej się gazowej otoczce. Sowią twarz otacza bardzo słabo widoczny kolisty pierścień,lecz można go dostrzec dopiero na zdjęciach z długim czasem naświetlania. Po tym opisie wspaniałej Mgławicy Sowy czas na obserwacje,serdecznie zapraszam! Parametry: Gwiazdozbiór: Wielka Niedźwiedzica (Ursa Maior) Widoczność: półkula północna i na północ od równoleżnika 28(stopni) S Jasność: 9,9(m w wykładniku) Rozmiary kątowe: 194" Odległość: 1300-2300 lat świetlnych
  • Newsletter

    Want to keep up to date with all our latest news and information?
    Sign Up
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.