Skocz do zawartości

MateuszW

Biznes
  • Postów

    9 964
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    41

Odpowiedzi opublikowane przez MateuszW

  1. 47 minut temu, Fredrixxon napisał:

    Czy taka nieostrość może aż tak wpłynąć na fioletowe limo wokół świateł?

    Tak. Jest temu winna podłużna aberracja chromatyczna obiektywu. Czyli że przed i za ogniskiem obiektyw ma przebarwienia w przeciwną stronę. Widać to na obrazku poniżej:

    46077_sam35_ca.jpg.3f75930d2b53fbc4ccaccd14ed21c367.jpg

    Niektóre obiektywy mają ten efekt silniejszy, inne słabszy. Pomimo że np w ognisku jest super, to tuż obok może być masakra.

     

  2. 2 godziny temu, burza napisał:

    W zasadzie inserterowanie na kamerach Point Grey przerobiono już kilka lat temu, ale to się nie rozpowszechnia ze względu na koszty.

    O widzisz, szkoda że dopiero teraz się o tym dowiaduję :) Muszę się dokładnie wgłębić w te linki.

    Mówiąc o kosztach, należy się też zastanowić nad dokładnością tych zastosowań. Analogowe systemy też nie są idealnie dokładne, kamera na pewno ma jakąś niestabilność, inserter też może wprowadzać opóźnienie itp. No i ograniczenia ilości fps (30/60?) Zapewne również dysponujesz linkiem który omawia te kwestie :) Chodzi mi o to, że tamta technologia ma pewne ograniczenia, które zatrzymują jej rozwój w martwym punkcie. Technologia cyfrowa pozwala pójść dalej, będąc praktyczne niczym nieograniczonym. Wydaje mi się, że taki pomiar np 200 fps przy dokładności czasowej rzędu kilku us byłby cenny, mimo że obecne "standardy" są wystarczające. Określilibyśmy wtedy kształt planetoidy np 2x dokładniej.

    2 godziny temu, burza napisał:

    @MateuszW - było by bardzo miło jakbyś wybrał się na SOPiZ, serdecznie zapraszam, z własna prezentacją lub bez :)

     

    Z Niepołomic jedzie dyrektor MOA Dominik Pasternak a także dawny obserwator zakryć Kszysztof Sadko z bratem -  może domówicie się na wyjazd ?

    O widzisz, dobrze wiedzieć :) Znamy się z dyrektorem, także faktycznie można będzie się razem wybrać.

    1 godzinę temu, Agent Smith napisał:

    Jednak patrząc na podanie praz Ciebie @burza linki, mam wrażenie, że to się nie rozpowszechnia nie tylko ze względu na koszty ale i ze względu na przestarzałą już technologię - no jednak złącze FireWire to już po mału muzeum ;)

    Myślę więc, że rozwijanie pomysłu @MateuszW z kamerami USB 3 ma sens, choć zapewne nie można tego nazwać rewolucją ;)

    W sumie to nie rozumiem, czemu opierają się tylko na firewire. Może wtedy tylko takie modele był? Ale strona była aktualizowana w 2016, czyli niedawno. Dziwne, mam wrażenie że od dawna są te kamerki na USB3. A wcześniej, od zawsze były wersje na USB2. FireWire oferowało szybszy transfer od USB2, ale były obie wersje.

  3. Ja chyba nie w temacie, więc byłbym wdzięczny za wyjaśnienie, jakimi aparatami były robione te zdjęcia i co porównujemy :) Na pierwszy rzut oka widać różnicę w aberracji, która chyba musiała wyniknąć z innego ustawienia ostrości?

    Ogólnie, dużo lepiej się porównuje zdjęcia mając możliwość ich wyświetlenia po sobie, a nie obok siebie. Czyli dwa oddzielne zdjęcia, które mogę odpalić w nowych kartach.

  4. 6 minut temu, mirek01 napisał:

    Kolega pokazał fotkę z rozjechanymi gwiazdami ale tak naprawdę nie wiadomo ile rozjechania jest z PE a ile ze złego ustawienia na biegun. (Ustawienie za pomoca pilota?)

    Jeśli chce sprawdzić ile montaż mi "pociągnie" bez guidingu niech ma pewnośc ze wylkuczył zle ustawienie na biegun .

    Jak najbardziej wiadomo. Wystarczy porównać zdjęcie z mapą nieba i sprawdzić, w jakim kierunku następuje dryf. Składnik w osi RA to wina PE, oś Dec to wina polarnej.

    • Dziękuję 1
  5. Metoda ciekawa, wiele razy myślałem nad tym patrząc na kolejną całkowicie zachmurzoną noc...

    Wszelkie mechaniczne "symulatory" przesuwania się gwiazd byłyby skazane na własne błędy ruchu. Monitor jest od nich wolny, bo nic się nie rusza, jedynie zaświecają się kolejne piksele. No ale zastanawiałem się, jaki wpływ będą tu miały wszelkie nierówności - nierówna prędkość ruchu gwiazdy z rzeczywistością, nie prostopadłość monitora, płaskość monitora itp. Jak widać, nie jest źle.

    6 godzin temu, Pav1007 napisał:

    Jednakże w tym wypadku dochodzi jeszcze piksel na matrycy, który też nie dokładnie wyświetli nam położenie gwiazdy. Mierząc w ten sposób PE możemy jedynie z grubsza określić jego wielkość.

    Hipotetycznie, dałoby się określić pozycję gwiazdy na monitorze subpikselowo, bo stellarium nie wyświetla punktu, a pewną grupę pikseli. No ale jakim softem to zrobić...

  6. 4 godziny temu, cemetel napisał:

    Natomiast bardziej interesowała mnie opinia wytrawnych "obserwatorów" o różnicach w stosowaniu okularów 2" i 1,25". Czy to rzeczywiście może mieć znaczenie np. dla "jakości" obrazu.

    Jak już napisaliśmy, to kwestia czystej geometrii i optyki, a nie opinii :) Zwyczajnie jedne okulary wymagają 2", inne nie. Zwykle te 2" okulary mają większe pole własne, co często idzie w parze z jakością, ale nie jest to żadna reguła. Okulary należy oceniać abstrahując od ich średnicy mocowania. Np okular 10 mm nigdy nie będzie mieć 2", czy to kellner, czy Ethos, bo jest to niepotrzebne. Niektóre okulary, jak choćby ten Ethos mają jakby podwójne mocowanie 2" i 1,25", ale to jest wyłącznie kwestia wygody (potrzebnych redukcji) i okulary te w istocie są 1,25".

  7. 8 godzin temu, burza napisał:

    jeśli zrobisz pierwszy polski inserter cyfrowy z chęcią kupię :)

    Mam ASI 290 mm - da się na niej zrobić ?

     

    Niestety, jak napisał Gajowy to na ZWO nie zadziała :( 

    3 godziny temu, Gajowy napisał:

    A, i jescze jedna ważna rzecz przy tego typu krótkich czasach - nie zapomninajcie o "przesłonie". Rolling shutter działa tak, że moment rejestracji górnego rzędu pikseli różni się od momentu rejestracji dolnego, co prowadzi czasami do zabawnych sytuacji, a czasami do poważnych błędów.

     

    No ale global shutter jest już ok? Bo takie widzę stosują :)

  8. 2 godziny temu, Agent Smith napisał:

    No właśnie, problem w tym, że zamierzona przez Mateusza "rewolucja" wymagałaby powszechnej wymiany kamer przez obserwatorów zakryć na specyficzne (i drogie) modele PointGrey/FLIR.

    Tak, rozumiem doskonale, że to jest spory problem i zapewne nikt tego nie zrobi z dnia na dzień. Mam jednak nadzieję, że przynajmniej jakaś część osób zdecyduje się na zmianę, albo nowe osoby od razu wybiorą taką drogę.

    Cena to rzecz względna. Podstawowym pytaniem jest, jak dobrą/drogą matrycę potrzebujemy, żeby dorównać możliwością kamer analogowych. W końcu kamery analogowe też mają cyfrowe matryce :) Tego niestety nie wiem.

    Moja kamerka kosztuje na tej moment 940 zł. To chyba jeszcze nie majątek. Nie wiem jednak, czy wystarczy. Model analogiczny do ASI174 kosztuje 3200 zł, podczas gdy ASI w TPL 3080 zł - a więc różnica żadna. Problem w tym, że większość kamer na które trafiłem ma status, że nie da się ich kupić online i żeby się skontaktować... Nie wiem co to oznacza, ale pewnie wyślę email czy ich już nie produkują, czy co.

     

    No i w końcu jest przecież wielu producentów kamer przemysłowych, to przecież główny powód rozwoju matryc "planetarnych". Wystarczy ich znaleźć i wyszukać coś atrakcyjnego. To na razie zostawiam dla chętnych :)

    2 godziny temu, Agent Smith napisał:

    Twój wynalazek jest jednak oczywiście frapujący, mam więc dla Ciebie sugestię: może przedstawiłbyś prototyp na najbliższej konferencji SOPiZ PTMA pod koniec Kwietnia?

    O widzisz, bardzo chętnie :) Tylko nie wyśmieją mnie tam, jak ja nawet jednego zakrycia nie zrobiłem? :) Raczej uda mi się do tego czasu wszystko zrobić, także faktycznie, to byłaby świetna okazja żeby rozpropagować nową metodę.

    Godzinę temu, szuu napisał:

    @MateuszW a jak myślisz, czy realne byłoby wyprowadzenie sygnału początku lub końca naświetlania klatki sięgając do odpowiedniego wyprowadzenia w matrycy lub procesorze? kamery tego nie udostępniają na zewnątrz bo przecież NIKT tego nie potrzebuje :P ale wewnętrznie takie sygnały istnieją i może akurat w jakichś popularnych kamerach dałoby się to zrobić?

    Cóż, myślę że tak. To jest przede wszystkim kwestia czasu poświęconego na reverse engineering, analizę schematów i macanie miernikiem :) Będzie pewnie problem ze skalą miniaturyzacji. No ale myślę że to możliwe.

    Ale mam też inny pomysł - zaproponować ZWO, żeby w przyszłych modelach dodali takie złącze. To dla nich powinna być prosta i tania sprawa, a dla nas bardzo ważna. Tylko żeby nie policzyli sobie majątku za tą funkcję...

    • Lubię 1
  9. 3 minuty temu, Krzychoo226 napisał:

    Tylko że Ha ma jedną linię emisyjną.

    Odpowiedź:

    14 minut temu, kubaman napisał:

    Krzychoo, w uproszczeniu - coś tam świeci, cokolwiek to jest :)

    Chodzi o wszelkie światło mgławicy, jakie rejestruje filtr Ha - czyli Ha, oraz dwie linie NII. Uważam, że się niepotrzebnie czepiasz, intencja jest jasna. Ale równocześnie masz rację co do konkretów :)

  10. 14 minut temu, Krzychoo226 napisał:

    Jakie usuwanie wodoru w węższym filtrze masz na myśli? Ha ma linię emisyjną 656,281nm i czy zastosujemy filtr 0,15, 3 czy 28nm to zarejestrujemy dokładnie tyle samo wodoru (z dokładnością do transmisji samego filtra).

    Może kubie chodziło o to, o czym sam pisałeś? :P

    W dniu 23.01.2019 o 20:57, Krzychoo226 napisał:

    Ale żeby nie było że tnąc długość zawsze uzyskamy lepszy wynik. Przechodząc z 8nm na 3nm w tlenie tracimy około 1/4 sygnału, szerszy filtr łapie 2 linie, węższy wycina tę słabszą. 7nm Ha składa się tak naprawdę z 2 linii NII i Ha, obie NII odcinamy w 3nm. Nie wiem jak z siarką.

     

    Co ciekawe można bez problemu (i stosunkowo tanio. powiedzmy w cenie Baaderów) kupić filtry 1nm i mniej. Tylko część obiektów może się nie zarejestrować ze względu na red shift ;)

    No i właśnie, czy ten red/blue shift jest tak duży, żeby realnie wpłynąć na rejestrację w wąskim filtrze? Nie chce mi się liczyć...

    31 minut temu, kubaman napisał:

    Światła w kosmosie jest zawsze tyle samo i im bardziej filtrujemy, tym mniej rejestrujemy. Złapiemy mniej fotonów i tyle, nie ma tu żadnej filozofii.

    Kuba, właśnie jest filozofia :) Załóżmy takie dwa przypadki, że mamy filtr 3 i 7 nm. Uprośćmy, że filtr 3 nm zarejestruje o 1/4 światła mgławicy mniej na skutek wycięcia 2 linii NII, jak pisał Krzychoo.

    Przyjmijmy, że LP świeci jednakowo w całym widmie. Przyjmijmy, że filtr 7 nm zarejestruje "100%" światła LP. Wówczas filtr 3 nm zarejestruje proporcjonalnie mniej, czyli 43% LP.

    Przyjmijmy znowu światło mgławicy rejestrowane w 7 nm za 100%, wówczas 3 nm, zgodnie ze stratą linii NII zarejestruje 75% światła mgławicy.

    Przyjmijmy, że 7 nm oferuje SNR = 1. Wówczas, 3 nm zaoferuje nam SNR = 75/43 = 1,74, a więc 74% lepszy. Istotny jest stosunek ilości światła mgławicy do ilości światła tła, a nie bezwzględne wartości!

    Oczywiście, jeśli wprowadzimy rzeczywiste szumy kamery, przede wszystkim szum odczytu, to sytuacja się nieco zmieni. Tzn, węższy filtr zbliży obraz do szumu kamery, a więc pogorszy snr o jakąś część. Ale jeśli przy obu filtrach zastosujemy dość długie pojedyncze klatki, to wpływ tego szumu można zaniedbać.

    Można powiedzieć, że filtr 3 nm będzie wymagał 25% wydłużenia czasu naświetlania pojedynczej klatki, ale przy zachowaniu tej samej sumarycznej ilości materiału - wówczas uzyskamy ten zysk równy 74%.

  11. 16 godzin temu, krzkrz napisał:

    Dzięki za opinię  :) Jeszcze dopytam- próbowałeś tym HEQ5 pobawic się jak Azymutalnym, czy da się go tak ustawić ? Kiedyś coś czytałem, że  każdy zestaw paralaktyczny da się ustawić jako azymutalny, ale jako posiadacz montażu azymutalnego nie mam pojęcia co by się miało ustawiać :)

    Poza tym takie szukanie po niebie obiektu to esensja astronomii,  którą daje satysfakcję i uczy nieba :) chyba, że jak się zacznie focić to już się nie chce szukać i patrzeć ?

    Ustawienie montażu EQ jako azymutalny oznacza ustawienie jego szerokości geograficznej na 90 stopni. Nie mam teraz HEQ5, ale jestem prawie pewny, że max to jakieś 70-80 stopni i nie da się osiągnąć 90. Jesynie w EQ3-2 z tego co wiem da się (ale chyba po przeróbce?) tak ustawić. Jest jeszcze opcja ustawienia na 0 stopni i to już jest bardziej możliwe w wielu montażach (ale w heq5 chyba wciąż minimum to ok 10 st), ale to nie jest do końca układ azymutalny. Tzn to wcale nie jest ten układ, ale w większości pozycji zachowuje się podobnie.

     

    Co do szukania. Astrofotografia to bardzo trudna i złożona dziedzina. Nawet sobie nie wyobrażasz, jak bardzo :) To nie jest kwestia że się komuś nie chce. Są dwa problemy. Po pierwsze, często fotografujemy obiekty, który wizualnie są całkowicie niemożliwe do zobaczenia w teleskopie lub na granicy możliwości co najwyżej. Znalezienie takich obiektów np po gwiazdach jest trudne i bardzo czasochłonne. Drugi powód jest taki, że zmiana okularu na kamerę to jest cała, złożona procedura. W moim wypadku wymaga to 30-60 min roboty. Trzeba podłączyć na nowo osprzęt, schłodzić kamerę, ustawić kąt, ostrość, poprawić kadr, ustawić guiding, wybrać filtr. To jakby prawie na nowo odpalać setup. Jeszcze jednym powodem może być, że niektóre teleskopy nie są już zupełnie przystosowane do umocowania okularu. Albo wyciąg znajduje się w skrajnie niedostępnym i niewygodnym miejscu, albo nawet kamera jest przykręcona do niego na stałe specjalnym systemem mocowania, a nie zwyczajnie na tulejce 2".

    Stąd nie praktykuje się ręcznego celowania, bo zeszłoby na tym pół nocy i wymagałoby to ogromnej ilości pracy. A że ilość pogody jest u nas bardzo mała, to szkoda zwyczajnie tracić tyle czasu na zbędną czynność.

  12. 38 minut temu, szuu napisał:

    i również podobnie jak mózg, podlegają uczeniu.

    Podobnie jak podobnie :) Ja bym jednak postawił sieć neuronową zdecydowanie niżej. Sieć taka potrafi istotnie "nauczyć się" wykonywać daną czynność, jak choćby rozpoznawać na zdjęciu kota. Jednakże, aby mogła to "sama" zrobić, to jakiś człowiek musi tą sieć wymyślić. I ta sieć musi być zbudowana pod ten konkretny problem (lub klasę problemów co najwyżej). Niestety nie da się sieci rozpoznającej koty wykorzystać do grania w szachy, to już wymaga, aby człowiek zrobił nową sieć. Druga sprawa to zbiór uczący. Żeby sieć dobrze działa musi mieć dostarczony ogromny zbiór zdjęć przeróżnych kotów i nie-kotów, oraz powiedziane na których z tych zdjęć są koty. Taki zbiór również musi mu dostarczyć człowiek - np jako zbiór danych z internetu, gdzie miliony ludzi zamieściły jeszcze więcej zdjęć i sklasyfikowali ręcznie (np podpisem), gdzie są koty.

     

    Dziecko natomiast działa inaczej. Wystarczy, że pokażemy mu w domu jednego kota i to wystarczy, żeby nauczyło się samo, jak wygląda kot i mogło je rozpoznawać w przyszłości. Sieć neuronowa musi zobaczyć zdjęcia tysięcy lub milionów kotów, przeróżnych gatunków, w przeróżnych pozycjach, żeby wyznaczyć sobie "ogólny schemat kota", który będzie w stanie rozpoznać. Dziecko jednak, oglądając tylko tego jednego kota, będzie potrafiło w przyszłości rozpoznawać również inne koty, nawet bardzo różne od pierwowzoru. Dziecko potrafi zrozumieć, na co patrzy. Nie traktuje kota jako zbiór pikseli obrazu, z których można składać figury i modele wirtualne, a traktuje go jako coś na innym poziomie abstrakcji, trudno mi to ubrać w słowa. Różnica jest taka, że dziecko rozumie, na co patrzy, a program jedynie oblicza, na co patrzy z jakimś prawdopodobieństwem na podstawie podobieństw do innych obiektów danego typu.

    • Lubię 1
  13. Żadne :)

     

    A konkretniej, po prostu okular o odpowiednio dużym polu widzenia i odpowiednio krótkiej ogniskowej musi mieć 2", żeby całe światło się "zmieściło". Dłuższe okulary maja 1,25", bo zwyczajnie 2" nic by im nie dały. 

    Czyli krótko mówiąc, pewne okulary muszą mieć 2", a innym starczy 1,25". Żaden z nich nie jest gorszy czy lepszy - są po prostu inne. 

    Za to wyciąg lepiej mieć 2",zeby dało się stosować oba typy. 

  14. SII może nie jest tak podatne na LP jak OIII, ale za to siarka jest zazwyczaj znacznie słabsza. Także jej kontrast może być mimo wszystko gorszy. Co skłania ku zaopatrzeniu się w wąski filtr. No ale jak sobie obetniemy cześć widma zbyt wąskim filtrem, to może się okazać że trzeba bardzo długo naswietlac. Ktoś wie, czy linia SII jest samotna, czy ten filtr puszcza jeszcze coś sąsiedniego, jak w Ha? 

  15. 2 minuty temu, Agent Smith napisał:

    Err, no może, ale jakby to ująć... nie ta sama skala spektakularności zjawiska ;)

    Wiesz co, na pewno zaćmienie Słońca jest znacznie lepsze, ale takie zakrycie przy dobrym seeingu i wysoko na ciemnym niebie moim zdaniem jest w podobnej lidze. A już zakrycie jednej planety przez drugą uważam za coś lepszego od zaćmienia Słońca (choć takiego zjawiska jak dobrze pamiętam, nie będzie nam dane zobaczyć :) ). 

  16. 15 minut temu, Art 69 napisał:

    Jeżeli chodzi o zakrycia Saturna to Europa swoją szansę ma już za sobą - teraz czas na południowców.   http://asa.usno.navy.mil/SecA/olist19.html

    Ale jaja! 16 lipca będzie zakrycie widoczne z Chile. A ja właśnie będę wtedy w tym miejscu po zaćmieniu Słońca! Co za fart :) Dzięki, bo pewnie bym przegapił!

    Warto jeszcze zwrócić uwagę, że 28 listopada będzie zakrycie Jowisza, widoczne z Polski. Co prawda Słońce będzie wyżej od Księżyca, ale w teleskopie powinno być coś widać.

    • Lubię 1
  17. 37 minut temu, grogmir napisał:

    Tokina wygląda bardzo ciekawie ale nówka jest 2x droższa od Samyanga (...) 2000 już byłoby mi chyba szkoda.

    Tak, ale Tokina jest też świetnym dziennym obiektywem. Idealnie nadaje się do uchwycenia wielkich naturalnych tworów, szczególnie w sytuacji, gdy nie możesz się dość oddalić. W USA używałem jej bardzo często zarówno w rozległych kanionach, jak i strzelistych wieżowcach :) No i fotografia wewnątrz budynków. Poszukaj na giełdach, allegro itp. Umów sie na spotkanie ze sprzedawcą, albo możliwość zwrotu po teście - ja tak kupowałem już 2 obiektywy. Wtedy cena spadnie do tej za Samyanga :) Oczywiście Samyang będzie w nocy lepszy, ale jest mniej uniwersalny, ma jedną i to nie super szeroką ogniskową.

    • Lubię 1
  18. No i po zakryciu, pewnie nikt nic nie widział :( Ja się nawet nie nastawiałem, bo uznałem, że nie zdążę "przezbroić" sprzętu na zakrycie Saturna, które było priorytetem. Ale i tak prognozy były tak złe, że nie było co się męczyć.

     

    Co do synchronizacji w mojej kamerze, to jak na razie kupiłem gps i pozostałe części, ale jeszcze nie złożyłem. Czekam też na dostawę wtyczki do kamery, która okazała się bardzo nietypowa i trudna do dostania (w niezaporowej cenie). Na szczęście nowsze modele kamer mają już inną wtyczkę, która jest chyba popularniejsza.

     

    Mam już wszystko dokładnie przemyślane. Myślę, że to będzie rewolucja w dziedzinie rejestracji zakryć! Dziwi mnie tylko, że nikt wcześniej nie podjął tego tematu. Sygnały wyzwalające z kamery to jest standard w przemyśle, używany od lat. Zamiast zrobić to porządnie, zakryciowcy kombinują z jakimiś dziwnymi sposobami...

    • Lubię 1
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.