Skocz do zawartości

Behlur_Olderys

Moderator
  • Postów

    5 198
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    12

Treść opublikowana przez Behlur_Olderys

  1. ASI 178@ug do Atika 314L ma 15k vs 20k full well capacity. To nie jest jakaś diametralna różnica, 33% nie byłoby aż tak widać na zdjęciu moim subiektywnym zdaniem. Jeśli w ogóle odgrywają tu rolę technikalia, to stawiałbym na to, jak spot size mieści się w pikselach matrycy. Wątpię, żeby RASA miała spot size mniejszy niż 2.4um dla 656nm. Z drugiej strony nie wiem, jak wygląda spot size dla tuby @ryszardo, ale prędzej się mieści w pikselach 6.45um (2.7x większych). Ale RASA chwali się dosyć małym spotsizem wg publikowanych materiałów, więc raczej też nie to. Ale tak naprawdę to zrzuciłbym to na wpływ seeingu, za sugestią @Grzędziel. Apertura podobna, skala podobna, a gwiazdki ponad 2x większe. Seeing jest najprostszym wyjaśnieniem, i dopóki nie powtórzycie testów mniej więcej w tym samym miejscu i czasie (np. na jakimś zlocie) to w ogóle nie ma co porównywać. Z tego powodu też z przymrużeniem oka traktuję całość powyższej dyskusji. To nie jest rzetelne porównanie, tylko taka luźna gadka na zasadzie: które buty lepiej pasują do tych spodni. Jeśli na podstawie tak mało miarodajnego testu (różne kamerki, różne warunki) mielibyśmy porównywać sprzęt, to równie dobrze można rzucać kostką do gry, i komu wypadnie tego tuba lepsza
  2. Rozumiem, że to jest możliwie w centrum kadru? Bo liczyłem tutaj ten SNR
  3. niuanse i różnice mierzy się za pomocą ślepych narzędzi, a nie oczu Diabeł tkwi w szczegółach. Prosta sprawa: zaznacz kwadrat mgławicy, policz średnią wartość piksela (mean) a następnie odchylenie kwadratowe (squared deviation czy coś). Te dwie wartości podzielone przez siebie, przynajmniej na dosyć jasnym fragmencie, powinny dać wartość SNR. Tak naprawdę to już sama wartość średnia na dwóch identycznych kwadratach powinna dać rezultat pozbawiony jakichkolwiek niejednoznaczności. Dokonałem takich obliczeń: SNR ~ F * sqrt(t), gdzie F to wartość światłosiły (np. 1/5.6) a t to czas naświetlania SNR zależy też od innych czynników, ale załóżmy, że te były identyczne, w szczególności - wielkość piksela. na zdjęciu z RASA SNR wyszedł 0.318/0.08 = 3.91* na zdjęciu z Canona SNR wyszedł 0.323/0.071 = 4.55* * wartości zmierzone przez histogram w programie GIMP po otworzeniu plików .png zamieszczonych na forum. stosunek tych dwóch SNR wynosi więc SNR1/SNR2 = 4.55 / 3.91 = 1.16 (na rzecz Canona). BTW: ktoś patrząc na te dwa fragmenty powie, że ich SNR tak się różni, o 16%? Wątpię.... F1 to światłosiła Canona, a F2 - światłosiła RASA, podobnie t1, t2 - odpowiednie czasy naświetlania SNR1/SNR2 = F1/F2 * sqrt(t1/t2) [o ile wszystkie inne parametry się nie zmieniają] Podstawmy wartości: 1.16 = ((1/5.6) / x ) * sqrt(1200/180), gdzie x to nieznana światłosiła RASA z czego wynika: x = (1/5.6) * 2.58 / 1.16 -> x = 0.39 czyli, inaczej mówiąc, 1/2.5 Stąd wnioskuję że realna światłosiła RASA wynosi ok 1/2.5 Czysta matematyka, zero zgadywania. Pozdrawiam!
  4. Niestety, niektóre koncepty są nieintuicyjne, i trzeba się trochę przez nie przegryźć, żeby je zrozumieć. ISO w sensie mnożnika nie ma znaczenia bezpośrednio na jakość zdjęcia. Ma znaczenie tylko szum odczytu, który najczęściej w jest zależny od ISO (im większe, tym mniejszy). Drugi szum, jaki nas interesuje to szum fotonowy, którego wpływ maleje im dłużej naświetlamy zdjęcie - im więcej zbierzemy fotonów. Wysokie ISO szumią nie dlatego, że mają duży szum odczytu, ale dlatego, że przy takich dużych mnożnikach jak iso25600 zmniejsza się studnia elektronów więc realnie nie ma szans złapać zbyt dużo fotonów zanim prześwietlimy zdjęcie. Podobnie, małe ISO pozwalają naświetlać zdjęcie znacznie dużej, bo jest dostępna większa studnia potencjału i szum fotonowy będzie miał znacznie mniejszy wpływ na jakość zdjęcia. Dlatego, wracając do pytania z początku wątku, kolorowy szum obecny na zdjęciu wynika nie z wysokiego ISO, ale z krótkiego czasu naświetlania. Raptem 12minut przy f/5.6. Tyle z mojej strony.
  5. A ja jak zawsze powiem swoje: porównywanie dwóch setupów o tej samej aperturze ale o innej ogniskowej nie ma sensu bo nawet dysponując identyczną matrycą będziemy mieli inny FOV, kadr i inną skalę! Tymczasem w przypadku porównania ze sobą dwóch obiektywów o tej samej ogniskowej wszystkie parametry zdjęcia są identyczne oprócz przesłony. Tak, jak w zwykłym obiektywie który można przymknąć albo nie. Tak, bo tak się porównuje zdjęcia, które mają ten sam kadr i skalę. Każdy piksel będzie obrazował ten sam kawałek mgławicy. Inny zestaw miałby inny FOV i skalę. Ale policzmy. Teoretyczna matryca 1000x1000px 5um włożona jest do teoretycznego teleskopu nr1: f=1120mm f/4 (11" = 280mm apertury) oraz do stojącego obok teleskopu nr2: f=660mm f/2 (11" apertury) Skala 1=0.91"/px, skala 2 = 1.82"/px Z fragmentu mgławicy o rozmiarach kątowych 1x1" (arcsek^2) na jeden metr kwadratowy powierzchni Ziemi pada średnio 10 fotonów na sekundę. Jeden piksel teleskopu nr1 obrazuje fragment mgławicy o rozmiarze kątowym 0.91"*0.91" więc 0.83 kwadratowej sekundy łuku. Na jeden metr apertury przypadnie zatem jakieś 8 fotonów, a więc apertura 280mm o powierzchni z grubsza 0.25m^2 zbierze do tego piksela jakieś 2 fotony na sekundę. Mnożąc to przez liczbę pikseli (milion) widzimy, że cały setup zbiera jakieś 2miliony fotonów na sekundę. Dużo? A teleskop nr2: Na jeden piksel przypada już 1.82"x1.82" czyli ok. 3.31" kwadratowych. Na jeden metr apertury daje to 33 fotony. Na aperturze 0.25m dostajemy finalnie 8 fotonów per piksel, a cały setup z matrycą 1Mpx zbierze 8miliony fotonów w 1s. 4x więcej, niż teleskop nr 1 o tej samej aperturze! Zarówno SNR per piksel jak i dla całej matrycy będzie 4x gorszy dla teleskopu f/4. Udowodniłem już w innym wątku, że to czysta fizyka, żadnej magii, więc nie powinno to dziwić. Małe sprostowanie: Rzeczywiście, powyższe obliczenia zakładają fotografię obiektu nie mieszczącego się całkiem w polu widzenia. Zatem dotyczyłoby to tylko mgławic o rozmiarach nie mniejszych (w tym konkretnym przypadku) niż 0.5stopnia (coś w okolicach księżyca w pełni). Być może to rzeczywiście nieco naciągnięte założenie, choć są zdjęcia fragmentów Ameryki albo mgławicy Serce więc w żadnym wypadku nie jest to czysto teoretyczne. Jeśli mgławica mieści się w polu widzenia obu teleskopów, to rzeczywiście ilość fotonów będzie taka sama z wszystkich pikseli, które rejestrowały mgławice. Ale będą rozsmarowane na większej powierzchni. Sumaryczny SNR obiektu będzie taki sam, ale per piksel - na korzyść f/2. A zatem oglądając obraz w powiększeniu, gdzie widać poszczególne piksele (a tak właśnie oglądamy zdjęcia astro, gdy dyskutujemy o szumie) obraz z f/4 będzie bardziej zaszumiony, choć większy. Po resizie do rozmiarów z f/2 różnice powinny się zatrzeć, jeśli ignorować szumy odczytu. Szczerze mówiąc, jak patrzę na mgławice na jakimś zdjęciu to nie potrafię sobie wyobrazić jej całkowitego SNR, (Nie całkuję jeszcze oczami...) ale jak przybliżam zdjęcie to SNR pikseli widać w sposób bardzo oczywisty. Jestem też przekonany, że jeśli @wessel czy ktokolwiek inny narzeka na duży szum w jakimś zdjęciu to ma na myśli ten pikselowy szum, a nie zcałkowany po całym obrazie Wystarczy, że ogląda się zdjęcie w przybliżeniu, i światłosiła pokaże pazur. W przypadku skrajnym, niskie SNR pikseli spowoduje, że na zdjęciu z f/4 obiektu po prostu nie będzie widać, bo obraz nie wybije się z szumu, co dla f/2 z poziomami pikseli 4x wyższymi będzie mniejszym problemem. Zatem w przypadku słabych obiektów, gdzie do głosu dochodzi też szum odczytu, f/2 to może być różnica pomiędzy być a nie być.... Z kolei inny realny już plus teleskopu nr1 to że pokaże 2x drobniejsze detale. Tylko tyle. I to dla tych detali buduje się duże teleskopy. Analogiczne porównanie teleskopów o tej samej skali tej samej matrycy i różnych światłosiłach (więc różnych aperturach) da identyczny wynik, bo dla f/4 powierzchnia zbiorcza będzie 4x mniejsza a wszystkie inne parametry zostaną takie same. Co po raz kolejny potwierdza moją tezę: Rozważając układ mgławica - teleskop - matryca w kategoriach czysto geometrycznych SNR jednego piksela obrazu zależy tylko od f/ratio, wielkości piksela i czasu integracji. (Zakładając identyczne matryce) Można też popatrzeć na to jeszcze inaczej: Przy danej, identycznej studni i rozmiarach piksela teleskop f/2 cztery razy szybciej prześwietli zdjęcie niż f/4 o tej samej aperturze Notabene: Jakoś nikt nie kwestionuje, że jeśli robi się obiektywem fotograficznym normalne zdjęcie to zmiana f/2 na f/4 zwiększy czas ekspozycji 4x. To oczywiste. Nie spotkałem się też z porównywaniem jakości zdjęć robionych różną ogniskową.... A czym się różni zdjęcie mgławicy od zdjęcia chmury? Z kosmosu dolatują do nas jakieś inne fotony? Albo czy ktoś robiąc zdjęcie obiektu, który po prostu wyszedł ciemny tłumaczy się, że może i ciemne, ale jak zcalkować piksele to SNR będzie ok? Owszem, gwiazdy o ile są punktowe oraz inne nierozdzielone obiekty będą miały jasność zależną tylko od A. Ale mgławice - niestety, to zwykła fotografia. Pozdrawiam
  6. Jeśli wolisz ładniejszy format: 100% pokrycia w teorii i praktyce. Wystarczy zrobić 4 zdjęcia: iso100, iso200, iso400, iso800 z tym samym czasem naświetlania (np. 0.01s) i wyrównać w PS czy gimpie czy gdzieś levele do tych samych poziomów (naturalnie, oryginalne iso100 będzie 8x ciemniejsze niż iso800....)
  7. A jak będę naświetlał obiektywem 50mm f/1.8 to SNR będzie lepszy niż 200mm f/5.6? Albo Makiem127 f=1500mm f/11? Powiedz, co się złapie jak wycelujesz takiego Maka w mgławicę Ameryka i strzelisz 6s fotkę? Bo w 50 f/1.8 już coś będzie widać.... Każdy z forumowiczów może sprawdzić te wzory empirycznie, jeśli ma przynajmniej 2 różne obiektywy. Nie trzeba wierzyć ani mi, ani matematyce i fizyce
  8. Dzięki Ale nie przyjmuj nigdy jako pewnik to, co przeczytasz w internecie @wessel Oczywiście nie wziąłem pod uwagę wielu czynników w rodzaju szumu przetwornika, transmisji optyki, wielkości plamki światła, gradientów LP i fixed pattern noise - żeby wymienić choć kilka ciekawszych tematów... No i najważniejsze - cały wzór na SNR jest per pixel - zakładam, że patrzymy na pojedyncze piksele (bo wiem, że ludzie tutaj tak patrzą ) . Jak to już kiedyś ktoś udowodnił, przy spojrzeniu całościowym na fotkę, którą przecież można resize'ować, duże znaczenie ma też FOV, jaki rejestruje nam cała matryca. 16Mpx zdjęcie z pikselami 3um teoretycznie powinno być równoznaczne w kategoriach SNR zdjęciu z tym samym FOV robionym 4Mpx matrycą z pikselami 6um. Jak widzisz, dużo tego, co różni praktykę od teorii ukrywa się w rzeczach, które przy teoretyzowaniu trzeba świadomie (lub nie) pominąć, lub założyć.
  9. Powolę się niezgodzić od strony teoretycznej. Streszczając poniższe obliczenia: SNR zwiększasz wielkością piksela i światłosiłą, i oczywiście całkowitym czasem naświetlania. (rozumianym jako ilość klatek razy ich długość) Dla udowodnienia tej tezy dowód matematyczny: @kubaman Masz trochę racji, ale mimo wszystko poniosły Cię emocje To tylko internet. Jeśli Ty jesteś zadowolony, to się liczy. Nie patrz na lajki, będziesz lepiej spał. Vide mój powyższy dowód: tak, ale tylko przy założeniu że do F8 i F2 założysz tą samą kamerę. Nie zawsze to kryterium porównania jest spełnione... Nie wiem, @Tayson, czy masz gorszy dzień, ale chyba Cię też coś poniosło. Bardzo krzywdząco to brzmi. Wydaje mi się, że powinno się zachęcać do próbowania, walki, zdobywania doświadczenia, publikowania swoich prac jakie by one nie były bez względu na to, kto publikuje. To chyba nasza pasja, a nie praca domowa ze znienawidzonego przedmiotu? Dobra rada sprawdzona w praktyce: Nie ma sensu mówić dziecku, że źle się bawi zabawkami. One są do zabawy, i wszystko jedno, co dziecko z nimi robi, póki jest zadowolone .... no, chyba że wsadza widelec do kontaktu, albo Tobie do oka
  10. Czysto teoretycznie : Skoro palimy najdłużej jak się da, to w mieście palimy, aż LP zaświetli kadr Sygnał LP jest wtedy na poziomie np. 62500ADU dla przetwornika 16b. Szum będzie na poziomie 250. Jeśli interesują nas detale np. rzędu 10 ADU, to trzeba 25krotnie poprawić SNR, żeby obiekt wyszedł z szumu LP. A więc zrobić 625 ekspozycji Teoretycznie, możliwe, ale.... Przy 25*mniejszym LP (co dla dużego miasta łatwo osiągnąć wyjeżdżając byle gdzie...) te same klatki będą miały znów sygnał 10 ale szum od LP tylko 50 (pierwiastek z 2500). Zatem do zejścia z szumem LP poniżej sygnału obiektu wystarczy tylko 25 klatek. Jak widać mamy tu proste proporcje : liczba klatek potrzebnych do rejestracji obiektu jest wprost proporcjonalna do poziomu LP, przy tych samych parametrach ekspozycji. Biorąc pod uwagę że poziom LP pomiędzy np. centrum Krakowa a Bieszczadami to ponad 250x to widać na czym polega niepraktyczność całej teorii Minuta w Bieszczadach to 2h w Krakowie Celowo pomijam inne czynniki w rodzaju szumu odczytu itp
  11. Dla CCD pewnie tak, ale dla CMOS-a? Pojawia się fixed pattern noise, który trzeba "rozsmarować" po wynikowych pikselach. Drugi post w tej dyskusji (Jon Rista...) wydaje się wyjaśniać dokładnie ten przypadek. (Dither tylko w jednej osi....) Polecam! https://www.cloudynights.com/topic/676938-ditheringhow-much-how-often/ Taka operacja powinna zredukować efekt dokładnie o połowę. Chyba, że mówisz o dither TYLKO w DE. No to wyjdzie kratka wtedy
  12. Koniec tematu. Panowie, bądźmy szczerzy: temat skośnych pasków pojawia się tutaj nie pierwszy raz. To również jedno z moich pierwszych praktycznych pytań ws. astrofoto. Za każdym razem przyczyna jest ta sama: przestrzenna korelacja szumów matrycy (obojętnie jakiej, byle CMOS) wywołana szumem przetwornika (czy tam ogólnie piksela) przesuwanym wzdłóż jednej osi. Pojawia się to najczęściej przy zdjęciach w ogóle nie trackowanych, lub nie guidowanych i bez ditheringu. Dithering w jednej osi też powoduje to samo: korelację przestrzenną szumu matrycy, która dodaje się przy stackowaniu tak, jak sygnał. Tylko pełny dithering przesuwający obraz w dwóch osiach jest w stanie rozmyć tą korelację po dostatecznej ilości sąsiednich, losowych pikseli, żeby tego nie było widać. Dithering w jednej osi usunie korelację w jednej osi, ale zostawi w drugiej, czego efekt widzimy w pierwszym poście. @trouvere Jak czytam coś śmiesznego to po prostu czasem się śmieję
  13. Niestety, w porównaniu do gotowego rozwiązania: https://www.astroshop.eu/equatorial-with-goto/ioptron-mount-cem120ec-goto-high-precision-encoder/p,56286#tab_bar_1_select I to z enkoderami! Deklarują udźwig 50kg i prowadzenie +/-0.15"... Dla mnie główną zaletą DIY jest to, że często da się zrobić coś lepiej i taniej, niż w sklepie. Często kosztem ładnego wyglądu albo nietrywialnej obsługi. Sam fakt zaprojektowania samodzielnego i zbudowania działającego prototypu to jeszcze nic co skusiłoby np. kogoś z zagranicy. Przydałoby się przemyśleć cały projekt pod kątem kosztów. Bez jakiegoś highlightu w rodzaju niższych kosztów albo unikalnej funkcjonalności to będzie tylko kolejny duży i drogi montaż. Tyle że "swój'". Dobrze byłoby znaleźć jakąś jedną mocną stronę i wybić ja na pierwszy plan. Tak szczerze: jakaż to?
  14. Canon 50mm f/1.8 kupisz używany tanio. Dobrze działa na f/4. Polecam, sprawdzony w boju.
  15. Próby interpretacji - nie. Tylko szkoda, ze ludzie zabieraja sie najpierw za interpretacje, a potem ucza teorii... Nawet pobieżne, ale sumienne zapoznanie się z OTW odpowiada na pytanie. Niestety, do niektórych pytań trzeba trochę się pouczyć matematyki, żeby zrozumieć odpowiedź Odpowiedzial na to szuu w drugim poscie tego tematu. Innymi slowy: Sila grawitacji to nic innego, jak ta sama sila, ktora przechyla ludzi w autach pokonujacych zakret. Tylko ze w wypadku grawitacji jedziemy z predkoscia swiatla, autostrada ma cztery wymiary a zakrety sa ultra minimalne dla cial takich, jak planety. Dlatego lekko wymyka sie intuicji... To rowniez jest wyobrazenie nie gorsze niz inne. Nie zawiera jednak pojeciowego bledu z poczatkowego posta: czasoprzestrzen nie chce do niczego wracac, nie pamieta zadnego stanu "przed". To masa ciala, poruszajacego sie w zakrzywionej przez inne cialo przestrzeni jest zrodlem inercji, ktora niejako "pamieta" ostatni kierunek ruchu i w protescie przed jego zmiana (cialo zakreca razem z krzywizna przestrzeni, tak jak czlowiek w aucie zakreca razem z nim) wywoluje sile, ktora w skrecajacym tramwaju przechyla nas w bok, a w czasoprzestrzeni wokol jakiejs planety - ciagnie nas w dol. Samo wiec pierwotne wyobrazenie litara sprowadzac sie wiec powinno do wyobrazenia sobie: dlaczego obowiazuje pierwsza i druga zasada dynamiki Newtona? Ale nad tym nikt sie jakos nie zastanawia... Mozemy wiec wrocic do oryginalnego pytania @diver: Jak widac - tak.
  16. Żeby zobaczyć coś bardziej jak grotę to musiałbyś patrząc na to zdjęcie obrócić głowę o 135 stopni zgodnie z ruchem wskazówek zegara Ewentualnie odwrotną operację wykonać na zdjęciu. BTW: ładne kolory, niecodzienne, lubię to
  17. Jest coś takiego do kupienia w uczciwym sklepie w Polsce?

    https://pl.aliexpress.com/i/32799645334.html?spm=a2g17.12057483.0.0.771576ee5b0sVz

    1. Pokaż poprzednie komentarze  4 więcej
    2. Behlur_Olderys

      Behlur_Olderys

      @ZbyT Mam na myśli sklep, który płaci podatki w Polsce...

      Ale jeśli mówicie, że ten wentylator to ściema, to kupię zwykłe ASI 178mm bez cool :)

    3. kuba_527

      kuba_527

      Mam dokładnie taką kamerkę tylko kolor. Wentylator działać-działa. Problem jaki (moim zdaniem) wyklucza ją z poważniejszych zastosowań (dłuższe ekspozycje) to wahania temperatury powietrza. Jak zrobisz darki w tej samej temperaturze co lighty to jest OK, ale gdy temperatura jest o kilka stopni inna to już jest problem z kalibracją amp-glow'a. Nic odkrywczego a dokuczliwe.

    4. MateuszW

      MateuszW

      Wentylator zmniejsza trochę temperaturę, ale nigdy poniżej otoczenia :) Robi jednak różnicę. Rising Cam zrobił też ostatnio jakieś z prawdziwym peltierem, ale nie wiem, czy ten model.

      @Behlur_Olderys jak chcesz drogo to nic nie stoi na przeszkodzie zgłosić się samemu do urzędu celnego, żeby dowalili VAT i Cło :) Myślę, że będą zaskoczeni :)

  18. Hasło "ortodroma" na Wiki albo "great circle distance" na angielskiej. Ogólnie wzór jest dosyć prosty, choć nikt nie lubi odwrotnych funkcji trygonometrycznych.... Alternatywnie, skorzystaj z metryki na sferze: całkując jej pierwiastek w granicach od początkowych do końcowych kątów. Powinien wyjść ten sam wzór
  19. Tak działa statystyka. Niby 90% ludzi zdaje maturę, a jednak każdy zna kogoś, kto nie zdał Znajomi to też tylko znajomi. Znasz ich? Polecam film "Perfetti Sconsenutti" Na portalu okulista ma zagregowane 300 opinii. Sam nie mam nawet 300 znajomych! Ufam liczbom. Mam też znajomych, którzy nie szczepią dzieci, głosują na dziwnych ludzi, zdradzają się, a nawet wolą Bałtyk zimą niż morze śródziemne latem...
  20. warto też wpisać w wyszukiwarkę "znany lekarz Y w X" gdzie Y to specjalizacja, a X to miasto Tam można przejrzeć komentarze, które - o ile jest ich więcej, niż jeden - siłą statystyki biją jednego znajomego
  21. Na zęby wydałem więcej, niż na teleskopy A co dopiero, gdyby to oczy trzeba było leczyć! (mówię o leczeniu, a nie jakieś tam porcelanowe wkręty czy coś Z drugiej strony jeszcze ze sprzętem się nie rozkręciłem na dobre ) Sam, Bogu dzięki, jeszcze nic na oczy nie wydałem, bo nie musiałem, ale zwróć uwagę na proporcję cenową: ile okularów ES 82* 14mm może sobie kupić lekarz za pensję z pracy w szpitalu? Osobiście gdybym miał taki problem to wolałbym się zadłużyć na kilka lat, niż chodzić po szpitalach, czy publicznych przychodniach z okiem i słuchać jak ci przemęczeni, starzy ludzie przepisują Ci paracetamol nie podnosząc głowy znad klawiatury, na której literują Twoje nazwisko przez 10 minut. Prawda jest taka, że "prywaciarzowi" jednak bardziej zależy, bo widzi hajs w Twoich rękach za każdym razem, jak przychodzisz. Lekarz oceniany przez klientów nie opieprzy Cię "Z czym pan tu przychodzi". Będzie nadgorliwy, zleci od razu jakieś badanie, jakiś mikroskop, nowoczesny sprzęt - wiadomo, nic za darmo, ale jednak... Będzie miły, bo tak się opłaca. Opowie Ci więcej na temat Twojej choroby, bo poinformowany pacjent lepiej doceni wiedzę lekarza. Dlatego moja rada: zaciśnij poślady i rozsupłaj sakiewkę. Oczy to nie jakaś tam noga. Nogę można uciąć, a Drogę Mleczną w Bieszczadach i tak zobaczysz...
  22. Jak to jest, że można stackować 20MB pliki (ze zwykłej lustrzanki) a 60MB to już się nie da? 16GB Ramu kosztuje 300 zł...
  23. Albo pixel w 290-tce nie ma 2.9um.... Albo SCT 9.25 nie ma ogniskowej 2350mm... Albo TV Powermate 2.5x nie jest naprawdę 2.5 Albo rzeczywiście separacja tyle wynosi i mamy błąd w efemerydach czy czymś Albo (najmniej prawdopodobne) zastosowana metodologia pomiaru separacji @JSC jest obarczona kilkunastoprocentowym błędem systematycznym Albo (nieco bardziej prawdopodobne) jednak zdjęcie jest resizowane
  24. v = ds/dt Nawet przy skwantowanym czasie, bez nałożenia ograniczeń na maksymalne dt, prędkość może wyjść dowolnie mała. BTW: Dla mnie kwantyzacja różnych rzeczy wynika z tego, że stawiamy warunki brzegowe na zjawiska z natury ciągłe. Zamiast kwantyzacja równie dobrze można powiedzieć: okresowość. Co tak naprawdę jest w fizyce skwantowane, a nie wynika z okresowości?
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.