Skocz do zawartości

RMK

Społeczność Astropolis
  • Postów

    884
  • Dołączył

  • Wygrane w rankingu

    1

Treść opublikowana przez RMK

  1. RMK

    Solar/barlow

    1. Co do soczewki nie jestem pewien czy nie piszesz o tym samym produkcie z innym logo 2. Specjalnie zaprezentuję dwie skromne fotki. Przy dobrych warunkach i odpowiednim teleskopie uzyskasz lepsze efekty... Zakładając, że chcesz coś uniwersalnego to jako filtr osłabiający energię od frontu np. folia Baadera + do tego możesz użyć jakiegoś szkiełka, które zawęzi trochę pasmo, przez co obraz będzie spokojniejszy. Jakiś stary przykład, który miałem pod ręką sfotografowany przy średnich warunkach z teleskopu o aperturze 127mm. Można ewentualnie zainwestować w K-line Baadera ale niektórzy nie są zadowoleni z efektów. Wymaga dobrej umiejętności pracy z dobraniem kontrastu aby uwypuklić efekty jego pracy i kamery, która ma niezłą czułość w zakresie pasma przepuszczania. Do tego przydaje się folia ND 3.8, którą teraz trudno kupić więc jeśli masz parę złotych więcej, sporą porcję zadowolenia powinien dać nawet najmniejszy teleskop słoneczny - fotka z Lunta35.
  2. Patrzę już trzeci raz na to zdjęcie właśnie ze względu na pięknie oddaną przestrzeń. Tak, jak napisał Marcin - 3D zachwyca. Gratuluję efektu i wytrwałości. Zastanawiam się czy składając w tej palecie możliwe jest na tym obiekcie wydobycie różnicy jasności gwiazd, jak to udaje się uwidocznić na niektórych HaRGB. Mniej więcej chodzi mi o taką dynamikę, podświetlenie okolicy najjaśniejszych gwiazd https://futurism.com/apod-cone-nebula-neighborhood/
  3. Największy zachwyt na początku 1986 r kometa Halley'a - ogromne oczekiwanie, wpatrywanie się czym tylko się dało (a za dużo sprzętu wtedy nie miałem pod ręką) ... Największy zachwyt teraz Nie będę oryginalny, powtórzę za Arkiem. Ze względu na fatalne niebo u mnie (czerwono na mapie LP) każda wyjazdowa chwila spędzona z lornetką Największe rozczarowanie Ostatni tranzyt Wenus. Jedyne wielkie wydarzenie na które nie mogłem wcześniej załatwić sobie wolnego i alternatywnych miejscówek. Spędzone w chmurach i smutku mimo przygotowanego stosu sprzętu. Największa niespodzianka Absolutnie żaden obiekt. Technika. Pojawiająca się dedykowana dla nas od kilku lat linia "kamer astrofotograficznych". Można zapomnieć o adaptacji webcamów, o walce z wyszukiwaniem solidnych przemysłówek i można się wreszcie skupić na zbieraniu fotonów.
  4. Chipy znam, stąd moje pytanie ...bo kojarzę nasze wyniki ale ja potrzebuję dla systemów mobilnych i w dodatku działających w zmiennym otoczeniu. To już wiem, z czego wynika taka różnica Ja nie potrzebuję do osób
  5. Może pytanie mało astronomiczne ale lekko została pobudzona moja ciekawość. Ta dokładność przy UWB 3cm to teoretyczna, czy praktyczna oraz w układzie kalibrowanym, czy elementy systemu rozmieszczone ad-hoc ? Oczywiście jeśli możesz uchylić rąbka tajemnicy ...
  6. Kojarzyłem, że kiedyś pytałeś o ten filtr - nie pamiętam, czy tu czy na innym forum. Poza tym widziałem efekt zrobionej całej tarczy przez SCT8 i robił baaardzo pozytywne wrażenie tak samo, jak wydrukowałem swój Księżyc z ASI178 (2x2metry) więc samo mi się to jakoś skojarzyło, że skoro SCT8 to chyba filtr + folia. Chyba lubię duże rozmiary, oglądanie nawet na dużym monitorze/telewizorze mniej mi odpowiada.
  7. Podałeś bardzo szerokie spektrum zastosowań więc wybór nie jest łatwy. To, co podoba mi się w Twoim podejściu to to, że nie podejmujesz szybkiej pochopnej decyzji. Jeśli możesz kupić model z polecenia praktyków, którzy przekazują Ci uwagi o zaletach i wadach tego modelu a osiągane przez nich rezultaty Ci odpowiadają to w zasadzie drogę już masz określoną. Tutaj będę powtarzał jak mantrę: przy starszych modelach kamer uważaj na modele z USB 2.0 których nie poleci Ci ktoś z nazwy. Jeśli masz możliwość sprawdź działanie kamery ze swoim komputerem. Sygnał osłabiony w amplitudzie, jak to już zostało tu napisane można zawsze zregenerować. Jednak, jeśli nadajnik się nie wyrabia to przykro, ale czasu nie rozciągniesz ani nie skorygujesz niczym. Chcesz pracy z różnymi filtrami - wybór przemawia za mono. Planety teraz są w marnym położeniu i kupując kolor będziesz miał pod górkę - wybór przemawia za mono. Chcesz nagrywać od UV po podczerwień (chmury Wenus, CaK) - wybór przemawia za mono i to z uwzględnieniem efektywności na krańcach pasma. Chcesz nagrywać Księżyc i Słońce to jeśli masz na myśli całe tarcze przez SCT8 - wybór przemawia za przyzwoitym rozmiarem sensora albo będziesz składał z kawałków. Nie zawsze zdążysz na całym Słońcu zrobić pełne przejście, bo w CaK jest ciemno, folii ND 3.8 w handlu jak na lekarstwo, nagrywać będziesz wolno i zanim objedziesz cała tarczę może się trochę pozmieniać. Przy Słońcu przez SCT8 asystowałem, brakło mi cierpliwości aby dotrwać do końca bo chip był rozmiaru VGA. Księżyc kilkukrotnie robiłem mozaiki sam. Pierwszy raz na SPC900 to był totalny hardcore, przy składaniu z ASI290 + Barlow ćwiczyłem cierpliwość i dokładność podczas akwizycji i składania. Nawet już nie pamiętam ile zapisałem filmów przy trzech podejściach na panel a ile zajęła czasu obróbka nie będę wspomniał. Przy ASI178MM to była chwila zabawy na kilku AVIkach Chcesz nagrywać Słońce przez Ha. Aby mieć jak najmniej problemów z pierścieniami na obrazie - wybór przemawia za sensorem z właściwą migawką. Nie jestem pewien, czy jedna kamera zaspokoi Twoje potrzeby. Gdybym miał coś podpowiedzieć to w tym czasie mniej zwracałbym uwagę na zastosowania planetarne z w/w względów a raczej skupił się na Słoneczno-Księżycowych. Ja nie odważę się wskazać Ci konkretnego modelu. Sam obecnie korzystam z trzech różnych kamer - jedna kolor i dwie mono (każda do innych celów i nie byłem w stanie pogodzić wymagań jedną kamerą) + czwarta do DS (QHY163M). Nie wiem, może czytali ten wątek
  8. Odnosząc się do Twoich wypowiedzi biorę przykład z prekursora ZbyT "Klatki do stacka muszą się różnić szumem ...lub jakimś tajemniczym czynnikiem Hamala nie wiemy jakim bo Hamal nie chciał tego zdradzić" Mnie podniecają inne rzeczy, ale to nie temat na to forum, ale miło dowiedzieć się jaki inni reagują na takie dyskusje. Staram się, ale argumenty nie trafiają: ZbyT "powodem gubienia klatek jest słaby komputer, a nie kamerka. Przetestowane" Już chciałem zapytać inżyniera z mojego zespołu czy faktycznie byłeś przy naszym komputerze... Napisałem, co zrobiliśmy aby dojść przyczyny. Nie przyjąłeś do wiadomości. Pewnie mógłbym przesłać ksero wydruku z oscyloskopu wielokanałowego, ale był załącznikiem do raportu dla zamawiającego więc musiałbym uzyskać jego zgodę a zresztą i tak byś napisał, że sfałszowałem Wydaje mi się, że ktoś tu zjechał z drogi na starcie, ale może się mylę: Charon_X "W przyszłości też kamera będzie potrzebna do fotografii Słońca w paśmie wapniowym" ZbyT "Zakup bardzo drogiej, szybkiej kamerki 10Mpix by potem robić aviki 400x400 pikseli jest trochę bez sensu". ??? Najlepiej niech kupi sobie starszą kamerkę o niewielkiej rozdzielczości z mało czułym chipem. Zapewne zalecisz mu aby żmudnie składał mozaikę z 30 paneli i połączył je potem korzystając z morphingu (zawartego np. w Microsoft ICE bo na stykach inaczej się nie da), gdy będzie chciał uzyskać cała tarczę w SCT8. Mam nadzieję, że osobiście Ci podziękuje. Wskaż miejsce, w którym napisałem, że trzeba zmienić komputer? Nawet post wyżej opisałem prosty test z tym samym kablem i komputerem, że wystarczy nowsza kamera. Dobre i tanie ale nie zawsze działa przy dłuższych połączeniach dla szybszych transmisji z tych samych powodów, które wyżej podałem. Jak to mówią moi pracownicy "z gówna pokarmu nie zrobisz jeśli trawienie już zaszło". Proszę o wskazanie miejsca, że obiecałem? Ale OK, już nic nie napiszę, bo nie chce mi się myśleć... To ja też po raz trzeci poproszę. Ale Ty chyba spełnisz moją prośbę, bo obiecałeś? BARDZO POPROSZĘ o Twój opis, co dzieje się w części dotyczącej przetwarzania obrazu. Zaproponowałeś to na początku wątku. Chętnie dokształcę się jak wpływają poszczególne parametry na wynikowy SNR biorąc pod uwagę szumy wewnętrzne kamery i szumy zewnętrzne oraz jak dobrać ustawienia akwizycji aby uzyskać nierozmazany w czasie obraz przy określonej rozdzielczości kątowej.
  9. I teraz miła niespodzianka Do tego samego zestawu (kabel i komputer) dołączam kamerę z USB 3, która przechodzi pięknie w tryb kompatybilny z 2.0 i klatki nie giną. Czary panie, czary. Niestety na jakiekolwiek zagadnienie masz jednozdaniową odpowiedź bez cienia wątpliwości stąd moja próba polemizowania. Gubią się klatki - twierdzisz, że za wolny komputer. Twierdzę, że problem po zmianie kabla - twierdzisz, że winny kabel. Stwierdziłem, że na tym samym kablu podłączam kamerę z szybszym nadajnikiem/odbiornikiem portu, który nie pracuje na granicy swoich możliwości - stwierdzisz pewnie, że krasnoludki. Przepraszam za żarty, doświadczenie do wykonania poniżej... Jak będziesz się kiedyś nudził porównaj kilka kamer z USB 3.0 na tym samym kablu i tym samym komputerze przy różnych ustawieniach trafficu (chociażby w Firecapture) i opisz swoje doświadczenia a następnie napisz z czego wynikają różnice. Przy USB 3.0 szybciej te problemy zauważysz. Tak, zgubienie kilku klatek to nie jest problem, jeśli zerwanie strumienia nie spowoduje zablokowania portu. Zapytaj użytkowników szybkich kamer na USB 3.0 czy po zerwaniu transferu nigdy nie musieli resetować oprogramowania komunikującego się z portem USB. Jeśli musieli to poradź proszę, co ma zrobić użytkownik, który dokonuje akwizycji nie siedząc bezpośrednio przy laptopie i aplikacji? Nie wszyscy tulą się z laptopem do policzkiem od OTA maka 127. HAMAL w tym wątku dobrze napisał. Widzisz wszystko w danej chwili tylko binarnie. Nie ma alternatywy. Jak okazuje się, że to nie ten problem, to znowu rozwiązanie jest tylko dwojakie jedyna prawda i wszystko inne fałsz. Wrzucanie starszych kamer przemysłowych, które się pojawiły na początku w tym wątku i dedykowanych nowoczesnych do astrofotografii rozwiązań to bardzo ładne uproszczenie zagadnień. Mimo wszystko wydaje mi się zasadnym, aby Charon_X rozejrzał się za szybką i czułą (przyszłościową) kamerą, która zaspokoi jego potrzeby na długie lata nawet, gdy jego kabel miałby się nudzić. To dlatego pytałem o modele kamer wcześniej, bo dobrze wiedzieć, które miały solidnie zrobiony kontroler. Standard to standard. USB 2.0 ma określoną dopuszczalną długość kabla i przepustowość. Jeśli kamera tylko na papierze spełnia wymagania standardu to jest to źle zrobiona kamera. Nawet nie chciało mi się wstawiać cytatów w tym wpisie (przepraszam czytających). Z utęsknieniem czekam na Twój opis, co dzieje się w części dotyczącej przetwarzania obrazu. Zaproponowałeś to na początku wątku. Chętnie dokształcę się jak wpływają poszczególne parametry na wynikowy SNR biorąc pod uwagę szumy wewnętrzne kamery i szumy zewnętrzne oraz jak dobrać ustawienia akwizycji aby uzyskać nierozmazany w czasie obraz przy określonej rozdzielczości kątowej. Jak będziesz opisywał dokładnie, co wpływa na SNR to zapewne odnajdziesz także pewien czynnik, o którym nie wspominasz (w wielu uproszczeniach, które tu prezentujesz) i nazywasz go jakimś tajemniczym czynnikiem Hamala. Przykro mi Hamal, on już ma swoją nazwę
  10. Zgadzam się, że dedykowane kamery mają taki tryb i nigdzie tego nie neguję. Mnożnik x3 nie jest z żadnego powietrza tylko z tej prostej przyczyny, że jeden z trybów dotyczy przesyłania obrazu dokładnie w RGB (żeby było ciekawiej ramka obrazu jest nawet nie 3 a czterobajtowa). Gdybyś musiał podglądać w kolorze procesy technologiczne w realtime to coś na ten temat też byś wiedział. Nie zawsze można pozwolić sobie aby zapisać plik na dysku i zdebayeryzować go na drugi dzień jak się wyśpisz. Identyczny problem występuje tam, gdzie kończy się świat mocnych komputerów na który to możesz zrzucić proces debayeryzacji po stronie PC (np. w sterowniku). Spróbuj tym algorytmem zarzucić jednoukładowca wychwytującego błędy koloru w procesie produkcyjnym, gdzie procesor ledwie nadąża z jakąkolwiek analizą poziomów RGB obrazu strumienia z kamery. Jeśli nie szkoda Ci 50 zł możesz pobawić się np. kamerą PS3Eye, gdzie starsze wersje SDK są darmowe, kamerka kosztuje mniej niż 50 zł a oddaje dane w RAW. Klatkę odbiera się tam za pomocą 4 linii kodu w c++. Można sposo się dowiedzieć, że zanim powstały rozwiązania stosowane w ASI i QHY nie zawsze było tak pięknie. Bardzo radykalny komentarz. Analizator transmisji szeregowej wykazywał co innego. To poproszę o wyjaśnienie sytuacji. Na kablu USB 2.0 50 cm transmisja realizowana jest płynnie. Identycznej jakości kabel zmieniam na długości 5m. Co jest przyczyną gubienia klatek? Komputer jest ten sam? Spowolnił?
  11. Jeszcze taki jeden mały drobiazg w uzupełnieniu mojego wpisu. My, jako użytkownicy końcowi kamer często postrzegamy je poprzez pryzmat czułości, efektywności kwantowej, maksymalnej liczby klatek na sekundę i rozdzielczości. Ale właśnie część procesów, które dla nas mają znaczenie odnośnie otrzymywanego strumienia, który zachowujemy na dysku do późniejszej obróbki zachodzi w układzie interfejsowym. To m.in. dzięki naszemu hobby powstały kamery dedykowane do astrofotografii uwzględniające problemy transferu danych. Konstruktorzy zaczęli zwracać uwagę na to, jak efektywnie pisać oprogramowanie układowe umieszczane w procesorze interfejsowym w kamerze oraz sterowniku po stronie komputera. Wraz z opracowaniem nowszych/szybszych układów można było użyć bardziej wymagających obliczeniowo algorytmów a przy szybszych komputerach nie odczuwamy, że również po stronie PC dzieje się więcej w sterowniku. Ale nie należy też zapominać, że te możliwości możemy wykorzystać dzięki SDK, który otrzymujemy od producentów kamer i programistom, którzy stworzą dla nas wygodne w użyciu aplikacje. Czasami wystarczy jedna prosta funkcja upraszczająca życie np. dla kamer kolorowych debayeryzacja w locie, którą wykorzystujemy w FireCapture. Zapewne część z Was używa jej podczas ustawiania korektora dyspersji, ja akurat w swojej pracy zawodowej potrzebuję do czegoś innego ;). Gdyby nie taki drobiazg musiałbym rejestrować obraz b/w i post factum sprawdzać ustawienia swojego systemu optycznego - metodą prób i błędów. Albo zapchać interfejs komputera wymuszając przesyłanie strumienia po debayeryzacji w kamerze. Czasami tylko trochę żałuję, że ten postęp nie dokonał się kilka lat wcześniej ;). Nie musiałbym walczyć z wieloma problemami sprzętowymi, które były bolączką wcześniejszych kamer. Pewnie też Piotr, który kiedyś bardzo dużo publikował i ma ogromne zasługi w dziedzinie astrofotografii planetarnej też miałby prostsze życie nie musząc "walczyć" z kamerami z FireWire i GigE.
  12. Mateusz. Masz rację i nie masz racji To tak, jak z kamerami na USB 2.0. Bardzo dużo zależy od tego, kto i w jakim czasie tę kamerkę robił i co zaszył w firmware. Po drugiej stronie znajduje się sterownik, który rozpakowuje dane. Dzieje się to oczywiście na niższych warstwach (Ci, co znają model OSI wiedzą o co chodzi). Co najmniej kilka kamer, które znam mają nawet wybór, po której stronie interfejsu następuje debayeryzacja. Formatów jest nawet więcej - wystarczy zerknąć do niektórych SDK. W jednej z kamer znajdziesz np. tryby: MONOPROCESSED, COLORPROCESSED, MONORAW ,COLORRAW, BAYERRAW. Ramka transmisyjna podstawowa dla tych trybów wygląda identycznie ale w niektórych trybach część bajtów jest zerowych z racji wymienionego wcześniej specyficznego formatu, co po kompresji (bezstratnej oczywiście) pozwala uzyskać mniejszą szybkość strumienia wynikowego. Po przejściu przez wąskie gardło interfejsu sterownik przywraca właściwy format i oddaje dane na warstwy wyższe. Nie wiem, czy udało mi się to jasno napisać. Wolę jednak napisać kawałek kodu niż to opisywać Przy okazji, czy ktoś wie dlaczego nie są aktualizowane zestawienia https://eu.ptgrey.com/camera-sensor-review ?
  13. To cieszę się, że są/były też kamery z dobrze napisanym firmware, gdzie ruszenie myszką na tym samym mostku USB albo dołożenie dłuższego kabla (ale nadal w granicy dopuszczonej standardem i dobrej jakości) nie powodowało gubienia klatek przy pełnym wykorzystaniu szybkości USB 2.0. Ja w czasach, gdy używałem Lunta35 zaprojektowałem sobie złączkę, w którą przełożyłem soczewkę od Barlowa Vixena. Odległość dobrałem tak, aby zachować przy tarczy margines na protuberancje. Sprawdzała się znakomicie. Poniżej wygląd elementów złączki oraz podłączonej do kamery z interfejsem GigeE, który w przeciwieństwie do USB 2.0 nigdy mnie nie zawiódł
  14. Tylko poproszę o przykład kamery. Rozumiem, że założyłeś kamerę B/W RAW z przetwornikiem 8bit. Masz rację przy takim założeniu mieści się w specyfikacji. Ciekawy jestem tylko, czy pracowałeś z taką szybkością na USB 2.0 (zauważ, że liczymy netto - same dane). Ja owszem i w tamtych czasach zmuszony byłem do przejścia w swoich projektach (nie astronomia) na kamery z innym interfejsem. Żadna. Powtarzam żadna kamera z rozdzielczością VGA w trybie RAW (także mono - sprawdziliśmy kilkanaście) nie potrafiła nie gubić klatek w związku z ograniczeniami tego interfejsu.
  15. Jestem za. Myślę, ze mogę wykonać nawet pierwszy krok i napisać coś od siebie. Ponieważ jesteś specjalistą od tego, co dzieje się w części dotyczącej przetwarzania obrazu to chętnie dokształcę się jak wpływają poszczególne parametry na wynikowy SNR biorąc pod uwagę szumy wewnętrzne kamery i szumy zewnętrzne oraz jak dobrać ustawieni akwizycji aby uzyskać nierozmazany w czasie rotowania planety na sąsiednich pikselach obraz WCP przy określonej rozdzielczości kątowej obrazu. Ja zajmę się kawałkiem dotyczącym procesów przetwarzania. Może komuś się przyda. Trochę uproszczę. jak pojawią się głosy, że trzeba rozszerzyć jestem do dyspozycji w wolnej chwili. Kamera ma dwa interfejsy zewnętrzne: obrazowy (oczywiście wiaderko do zbierania fotonów) oraz elektryczny do komunikacji z kamerą (sterowanie parametrami) oraz odbierania strumienia danych. Na styku interfejsu obrazowego znajduje się matryca (sensor obrazu) sterowany przez układ przetwornika. Budowa sensora cechuje się określonymi granicznymi parametrami m.in. szybkością zegara. Maksymalna szybkość zegara w połączeniu ze sposobem odczytu danych (progresywny lub nie) powoduje, że ten tandem może wyprodukować strumień danych który liczy się w bardzo prosty sposób - liczba pikseli x maksymalna szybkość taktowania pozwalająca na odczyt pojedynczego przebiegu obszaru matrycy x liczba bitów przetwornika. Na tym etapie tor akwizycji danych obrazowych się kończy - dane można zapisać w buforze pamięci. Tandem matryca-przetwornik otrzymuje w dużym uproszczeniu informacje o pożądanej (ustawionej przez użytkownika za pomocą interfejsu elektrycznego) szybkości odczytu danych i wzmocnieniu podczas przetwarzania przetwornika (ręcznym lub automatycznym). Jeżeli z danych technicznych tandemu matryca-przetwornik wynika, że potrafi odczytać 120 pełnych przebiegów na sekundę to 120 fps jest wartością graniczną tego tandemu. Jeżeli potrafi odczytać fragment matrycy to oczywiście zrobi to szybciej i dla ROI prędkości będą większe (szybkość maksymalna zegara pozostaje taka sama ale mniej pikseli do odczytania/przetworzenia) Strumień danych, które zostały poddane akwizycji wędrują następnie do procesora interfejsu. To on zamienia polecenia ustawienia liczby klatek na sekundę, wzmocnienia, korekty balansu bieli, dostosowania formatu kodowania stratnego lub bezstratnego itp. itd. na polecenia sterowania do tandemu matryca-przetwornik i zgodnie z ustawionymi parametrami z otrzymanego strumienia buduje strumień danych wyjściowych, które odda na interfejs wyjściowy w zależności od zastosowanego kodu, który w tym procesorze są umieszczone jako firmware. Dzięki temu mamy różne wersje kamer, które mają takie same matryce. Taki tandem matryca-przetwornik 120fps użyty do budowy kamery z rejestracją na karcie SD odda z procesora interfejsu zakodowany strumień kolorowego obrazu będący w postaci MP4 dzięki czemu nie potrzebuje dużych przepływności ale oczywiście ze względu na kodowanie różnicowe nie nadaje się do naszych zastosowań. Mimo niewielkiej przepływności strumienia wynikowego możemy obejrzeć sobie później na filmie jak pracują skrzydła kolibra zmieniając szybkość odtwarzania do 30fps i nadal mamy płynny obraz. Taki sam tandem matryca-przetwornik 120fps użyty do budowy kamery specjalizowanej do rejestracji słabych sygnałów dokona stackowania w procesorze i na interfejs odda znacznie wolniejszy strumień niż wynikałoby to z możliwości tandemu, gdyż w tym zastosowaniu taka szybkość jest zbędna. Takie kamery niektórzy z nas znają. Wśród naszej społeczności potocznie nazywa się je kamerami do videoastronomii (chociaż ich geneza i większość zastosowań wywodzi się z innej dziedziny). Taki sam tandem matryca-przetwornik 120fps może zostać użyty w kamerze oszukańczego producenta, który w parametrach technicznych zapisze większą liczbę klatek na sekundę niż wynika to z możliwości tandemu powielając transmisję buforowaną przez procesor interfejsu i czasami dodatkowo wprowadzając kompresję. Udało mi się kiedyś trafić w handlu na kamerę, która posiadała w parametrach technicznych czterokrotnie większą liczbę klatek na sekundę dla pełnej rozdzielczości niż możliwości matrycy! Taki sam tandem matryca-przetwornik 120fps może zostać wykorzystany do naszych zastosowań oddając strumień RAW, uwzględniający tylko podstawowe wartości sterowania (fps, gain itp.) W zależności jaki strumień złożony zostanie przez procesor interfejsu zgodnie z naszymi poleceniami tak wydajny interfejs musi zostać użyty do połączenia z odbiornikiem strumienia (w naszym przypadku PC). Szybkość akwizycji klatki ma związek z możliwościami granicznymi tandemu matryca-przetwornik a wymagana szybkość użytego interfejsu jest tylko jego pochodną silnie zależną od możliwości firmware w procesorze interfejsu a nie odwrotnie. 640x480x3x8x100=737,28 Mbit/s netto przy transferze bezpiecznym dla USB 2.0 (tryb half-duplex) 240 Mbit/s to faktycznie niezłe wyzwanie dla piszącego firmware do kamery. Mogę poprosić o przykład kamery?
  16. Bardzo bym prosił abyście koledzy uszanowali jeden drobny element jak dynamikę zjawisk, bo takie uogólnianie jest bardzo szkodliwe dla tych, którzy np. rejestrują Słońce oraz np. WCP na Jowiszu. Każdy, kto trochę fotografował takie obiekty wie jaki uzyska szczegół na długo naświetlanej klatce Czasami odnoszę wrażenie, że niektóre poglądy ewoluują w zależności od tego, co kto akurat posiada.
  17. Rozumiem, że dla Ciebie szybkość akwizycji klatki ma związek tylko z szybkością interfejsu USB? Czyli wg Ciebie w fotografii planetarnej klatka 10s będzie bardziej użyteczna niż 100 klatek 0,1s? Chyba wrócę do kolorowej ICX098 Ale gdybyś miał kamerę z takim chipem SENSOR w cenie ASI120 na zbyciu to chętnie kupię. Co do Słonka w Ha trzeba kupować kamery z migawką globalną albo nauczyć się żyć z pierścieniami. Pomocny ADC lub zmiana kąta na złączce. http://www.davidcortner.com/slowblog/20130513s.php https://solarchatforum.com/viewtopic.php?t=21128
  18. Niestety zakładasz stacjonarność warunków seeingowych i tu leży błąd u podstaw tego myślenia. Do analizy przyjmuję akademickie uproszczenia. Mamy dwie kamery o identycznej czułości. Jedna ma szybkość 30fps, druga 120fps (przypominam, że wynikać one mogą chociażby z różnicy interfejsu USB2/USB3). Trafia się poprawa seeingu, która trwa 10s. Pierwsza kamera zbierze w tym czasie 300 klatek, druga 1200. Dla mnie różnica duża i jest o co się bić. Skoro kolega chce używać tej kamery także do Słońca i Księżyca to szybka kamera o dużej rozdzielczości jest dobrym wyborem. O ile można bawić się jeszcze z mozaikowaniem Księżyca, to polecam w ramach hardkoru zrobić mozaikę Słońca w Ha Zanim dojedziesz do połowy potrzebnych paneli zmieni się obraz warunków na tarczy. Szybkość kamery docenią także Ci, co składają RGB z szybko rotujących planet. Czasem nie jest potrzebny WinJupos i derotacja. Matematyka i teoria są piękne ale nie zawsze starczają w naszym hobby. Podparłbym to szeregiem przykładów, ale nie należę do tych, którzy zakładają galerie swoich prac. Czasem coś wrzucam - np. tu
  19. Zwiększenie liczby klatek na sekundę (przy odpowiedniej czułości kamery) ma zasadnicze znaczenie dla szybkiego uzyskania zadowalającej puli klatek do stacka. Dzięki temu np. Wielka Czerwona Plama nie przejdzie pół tarczy Jowisza, a chmury na Wenus nie zdążą zmienić swojego położenia. Proponuję zainwestować w szybką i czułą kamerę inaczej zaraz znajdzie miejsce na giełdzie.
  20. RMK

    Tradycja

    Sprecyzuj jakie zagadnienia potrzebujesz poznać, bo troszkę pomieszaliśmy dwie sprawy. Rozumiem, że szukasz informacji jak WYKONAĆ zdjęcie astrofotograficzne na kliszy? Trudna sztuka dla cierpliwych ... Film, wywoływacz, utrwalacz, koreks, powiększalnik itp. mają związek z wywołaniem negatywu a później wykonaniem odbitki i niekoniecznie na kliszy musi być cokolwiek z astrofotografii? Tytuł też bardzo mylący. Już myślałem, że powrót do TRADYCJA
  21. Czy wszystko musi mieć swoją wartość naukową? Ważne aby sprawiało to przyjemność wykonawcy. Niektórzy lubią chodzić z gołymi kostkami w zimie, drudzy fotografują tysięczny raz M42 i obrabiają na pierdyliard sposobów, trzeci oglądają samoloty przez lornetkę, inni uprawiają turystykę rodzinną lub zbierają znaczki i tak można wymieniać bez końca. Każdy ma swój sposób na życie. Jeden z moich kolegów jak urodził mu się syn z ambitnego, aktywnego astroamatora zamienił się w "budyń" rozleniwił się strasznie, spędzał większość czasu przed komputerem i pisał masę nic nie znaczących postów zaniedbując rodzinę i swoje zdrowie brakiem aktywności fizycznej. Drugi z typowego "budynia" jak mu się urodził potomek stał się opiekuńczym ojcem, zajął się hobby związanym z fotografowaniem szerokich kadrów, aktywnie uprawia sport bo jak stwierdził " chce być sprawny i interesującym partnerem do rozmowy, jak dziecko podrośnie. Każdy z nas ma swoje zainteresowania, fascynacje, hobby.
  22. Jeśli nie chcesz się bawić w samodzielne przecieranie szlaków to może warto odezwać się do MateuszaW i zainwestować w jego DreamFocuser ? Do Wieliczki masz niedaleko to może nawet osobiście coś zmontujecie A jeśli nie, to może przyda Ci się taki opis http://download2.nust.na/pub4/sourceforge/a/ar/arduinofocuscontrollerpro/Documentation/myFocuserPro.pdf
  23. Może niepotrzebnie pytam, bo jesteś doświadczonym astroamatorem czy ... miałeś w opcjach programu ustawioną debayeryzację do podglądu? Jeśli nie, to kratka będzie gratis ...
  24. Uff, wyszedł Najpierw nieśmiało ukrywał się za jasną krawędzią tarczy Księżyca aby chwilkę później się ujawnić. Znowu po jednej klatce JPG bez obróbki, bo co JPG obrabiać, do RAW zerknę w wolnej chwili.
  25. Zupełnie przypadkiem skierowałem aparat w stronę Księżyca i uwieczniłem ostatnie chwile Aldebarana Ktoś go ukradł i już nie będzie świecił u mnie ... przynajmniej do ok. 19:10. Nareszcie chwila bez chmurw. W oczekiwaniu na odkrycie pamiątkowa jedna klatka z ręki Sony RX10Mk4 w wersji JPG.
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.