Skocz do zawartości

Lysy

Społeczność Astropolis
  • Postów

    2 667
  • Dołączył

  • Ostatnia wizyta

  • Wygrane w rankingu

    2

Treść opublikowana przez Lysy

  1. NIe znam tej ścieżki myślenia, ale to chyba niestety nie ten kontekst. Owszem destabilzacja układów na coraz bardziej skomplikowane (w pewnym sensie wynik podstawowej zasady entropii - wzrastanie stanów do coraz bardziej nieuporządkowanych) rzeczywiście ma miejsce - nawet w czarnych dziurach których horyzont (pole horyzontu) wzrasta w trakcie "połykania" materii. Entropia układu zawsze wzrasta, inaczej czarna dziura stałaby się perpetum mobile. Natomiast tutaj Heller bardziej stawia to pytanie w brzmieniu filozoficznym, tzn. dlaczego jest raczej COŚ a nie NIC: jakie są przyczyny takiego zjawiska? Doceniam kunszt tego człowieka i wielki umysł a współczuję na pewno poczucia wyalienowania z grona doktrynalnych teologów KK - nie chciałbym być w takiej sytuacji. Co do uwag Zbyta - wydaje mi się że zaproponuję Ci przeczytanie najpierw pozycji M.Hellera ponieważ wiele spraw o których piszesz na zasadzie prawie aksjomatów według nowej teorii zmienia zupełnie pozycję (również kwantową Teoria inflacji potem zamieniana na teorię niestabilnej (przyspieszającej) inflacji leży dziś (z tego co wiem) na cmentarzysku pomysłów dopasowujących teorię do wyników doświadczeń. Problemy z tą teorią spowodowały wiele ewolucji (teoria "bąbli kosmicznych- z której się wycofano ponieważ zawierała błąd logiczny). Teoria oparta na reżimie nieprzemiennym tłumaczy w sposób bardzo czysty (nie wiem czy czysty również matematycznie) kwestie identyczności struktur we Wszechświecie (w dużych skalach) poprzez po prostu wskazanie początku powstania pierwszych struktur WSZĘDZIE. Bez wyznaczonego centralnego punktu osobliwego od jakiego miał rozpocząć się BIGBANG.
  2. Nie wiadomo co to jest jak do tej pory, pewnie kolizja komet tylko dlaczego akurat pod kątem 90 stopni - na wszelki wypadek zrobię zakupy przed końcem świata (browar fajki takie tam..). Hehehe.
  3. skopiuj całość i wklej, tutaj materiał źródłowy: http://www.wnd.com/index.php?fa=PAGE.view&pageId=125439
  4. http://wiadomosci.onet.pl/2130423,16,tajemniczy_obiekt_przelatuje_przez_kosmos,item.html
  5. Jak dla mnie problemów wynikajacych z fizyki kantowej jest co niemiara, część z nich na pewno wynika z braku połączenia tej dziedziny z mechaniką klasyczną Newtonowska-Einsteinowską. Lektury popularyzatorskie te zagadnienia w większości przypadków sa po prostu napisane źle. Wielu autorów bezkrytycznie myli teorie traktując hipotezy jako fakty lub przeraźliwie upraszcza zagadnienia. To o czym dyskutuje się w wąskich specjalistycznych grupach astrofizyków a o implikacjach w tychże gronach rozmawia się szeptem i na zasadzie domysłów w publikacjach popularnonaukowych często określane jest jako pewnik. Wynika z tego błędne przeświadczenie, że wkrótce opanujemy już wszystkie problemy i że jesteśmy blisko stworzenia zunifikowanej Teorii Wszystkiego. Prawda jest nieco inna - stopień komplikacji rośnie lawinowo, nowe problemy rodzą nowe problemy i tak dalej. Najważniejsze pytania: 1.Dlaczego Wszechswiat jest jednorodny w wielkich sklalach skoro łatwo jest wykazać że istnieją w nim obszary oddalone od siebie tak dalece, że wymiana informacji (czego skutkiem są podobne struktury) była niemożliwa? (powstawały swego czasu teorie wielkiej inflacji ale szybko padły na łopatki). 2.Jak jest natura czasu, czy jest to zjawisko lokalne, a w związku z tym jeżeli strzałka czasu ulega zmianom to czy datowanie czasu Wszechświata w oparciu o obserwacje najdalszych obiektów jest słuszne? 3.Dlaczego Wszechświat wykazuje strukturę bąbli w dużych średnich skalach gdzie grupy galaktyk są rozmarowane na zasadzie niezgodnej z rachunkiem prawdopodobieństwa - tworząc struktury skupień pomiędzy którymi w olbrzymich obszarach nie doszukaliśmy się żadnych obiektów? 4.Czym jest tzw. ciemna materia - masa której brakuje aby wyjaśnić tempo ekspancji Wszechświata oraz oddziaływania na siebie grup galaktyk jak również tempo ruchu obrotowego gwiazd w Galaktykach? 5.Jakie prawa fizyki rządzą punktami osobliwymi takimi jak centra czarnych dziur, gdzie nasza fizyka załamuje się kompletnie. Tutaj dodam że paradygmat "nie można pytać o to co było przed Wielkim Wybuchem" jest już legendą - jak widać tryb nakazowo - rozdzielczy nie działa na umysł ludzki. 6.Co powoduje że pewne stałe jak stała Planca i szereg innych fundamentalnych wielkości wydaje się ze zobą powiazanych przez te same wielokrotności wartości matematycznych? 7.Jak to jest możliwe, że żyjemy w świecie w którym wartości fizyczne wydają się staranne dobrane aby umozliwić nam ludziom zycie w ogóle? (tzw, słaba zasada antropiczna wyjaśnia to trochę zabawnie: żyjemy w tym świecie ponieważ w innym byśmy nie mogli żyć, więc nie powinno nas to dziwić). :). Złota myśl :) Przypomniała mi się maksyma z którejś z książek Strugackich: poznanie nieskończoności wymaga nieskończonego czasu, w związku z tym wszystko jedno czy się coś robi czy nie - lepiej iść na piwo. 8.Dlaczego obecne tempo ekspansji jest tak bliskie wartości przy której już dawno wszystko zapadłoby się do punktu lub przestałyby obowiązywać prawa fizyki z powodu skupienia się materii wyłącznie do zespołu punktów osobliwych. 9.M Heller stawia jedno z najważniejszych pytań w ogóle: Dlaczego jest w ogóle coś? To znaczy: co spowodowało że z pierwotnej zupy kwantowej wyłonił się czas który umożliwił tworzenie jakichkolwiek struktur? Tzw. NIC jest stanem łatwiejszym fizycznie. 10.Skąd wzięły się neijednorodności w strukturze pierwotnej (ich reliktem jest tzw. mikrofalowe promieniowanie tła)? To że takie niejednorodności miały miejsce zostało potwierdzone stosunkowo niedawno udaną misją satelity COBE - do tego czasu astrofizycy spali jak na szpilkach: gdyby COBE nie wykrył niejednorodności Wszechświat nie miałby prawa utworzyć jakichkolwiek struktur. To oczywiście nie tłumaczy przyczyny "zgęstek" w zupie pierwotnej. itd, itp...
  6. Lysy

    Plakat

    http://imgsrc.hubblesite.org/hu/db/images/hs-2001-15-a-print.jpg lub inne z hubbla są naprawdę w świetnej rozdzielczości (ofcrs cele niekomercyjne - własne).
  7. Dokładnie tak jak Ania (dzięki za miłe słowa - polecam "Początek jest wszędzie". Książkę czytam już n-ty raz a implikacje które z niej wypływają są po prostu coraz to nowe. Połowy książki przyznam się szczerze - nie rozumiem wystarczająco dokładnie Ale walczę cały czas Pozycja jest niełatwa - warto się pomęczyć. Nieprawdopodobna przygoda intelektualna . Jak każdy znakomitej klasy matematyk i astrofizyk Heller na pewno zdawał sobie sprawę że nie da się napisać książki w rytmie popularnonaukowym która będzie bardzo wartościową pozycją, ale ilość matematyki jest w niej ograniczona do zupełnego minimum. Książka nie wydaje się być następną po modnych swego czasu "superstrunach" próbą wyjasnienia kluczowych zjawisk. To zupełnie nowe podejście do zagadnień związanych z astrofizyką i mechaniką kwantową. Ciekawą sprawą jest to że M.Heller jest osobą duchowną. Jak widać teologia również niekoniecznie stoi w miejscu - pocieszające! Ta książka zawiera pewne świadome ograniczenia które należy mieć na uwadze podczas lektury: 1)Przede wszystkim presja na czytelnika polegająca na powtarzaniu jak mantry podstawowego zakazu: rezygnacji w dociekaniach z "wyobrażania sobie" struktury i historii Wszechświata które sa obarczone przez narzuconych nam ludziom -wyssany z mlekiem matki antropocentryzm. Nie umiał z niego zrezygnować sam A.Einstein, jego słynne powiedzenie "Bóg nie gra w kości" zawierało niestety fatalny błąd- kreowanie jako pewnika zasad wynikającyh z nabytych doświadczeń czy też światopoglądu. Einstein nie uznał nigdy do końca podstawowej zasady rządzącej mechanika kwantową - zasady nieoznaczoności. Generalnie zasada mówi o tym że nie jesteśmy w stanie nigdy dokładnie poznać jednocześnie np. prędkości czątki i jej masy - jest to efekt spowodowany wpływem samej procedury pomiaru na efekt doświadczenie. Nie ma pomiaru bez ingerencji, nawet zadziałanie na przedmiot jednym elektronem spowoduje zmianę jego właściwości - w skali mikro. Zderzenie takiego poglądu z matematyką i mechaniką kwantową było bardzo bolesne. Ale przecież nawet w naszym kochanym kraju nie tak dawno głoszono poglądy, że teoria ewolucji Darwina jest niezgodna z wnioskami wynikającymi ze Starego Testamentu... 2) Przyjęcie matematyki jako głównego bezosobowego narzędzia, nie obarczonego błędem subiektywizmu inwencji własną badacza. Heller ma rację. Nasza (ludzka) wyobraźna napiętnowana jest nabytymi doswiadczeniami. Nie wierzę aby znalazł się ktoś kto intuicyjnie jest w stanie wyobrazić sobie np. istnienie dynamiki układu przy zerowym "zamrożonym" czasie. Podobnie nie uzmysławiamy sobie pojęcia nieskończoności jak również nie jesteśmy w stanie zaabsorbować (intuicyjnie) odległości większych niż te które znamy z doswiadczeń zyciowych. Dla przykładu niemal z naszego podwórka: dla astronautów przebywających na Księżycu palącym problemem było określenie odległości, przy braku punktów odniesienia nie byli w stanie stwierdzić np. czy są o 5 czy 50 metrów od uskoku gruntu. Nasze zmysły są poważnie ograniczone. Już samo zrozumienie tego że czas płynie z jednakową prędkością dla wszystkich obserwatorów, niezależnie od szybkości układu odniesienia w którym się poruszają rodzi poważne problemy w naszych głowach. Implikacja wynikająca z tego prawa czyli fakt że obiekty osiągające predkości przyświetlne są niemal "wieczne" dla obserwatorów wobec których się poruszają rodzi same problemy. A jednak z odległych zakamarków Wszechświata docierają do nas cząstki poruszające się z takimi proędkościami o okresach rozpadu liczonych w mikrosekundach. Pokonują olbrzymie odległosći nie rozpadajac się ponieważ dla prędkości przyświetlnych ich własny "czas" niemal stoi w miejscu. Heller mówi: matematyka nie kłamie. Po prostu pewne implikacje należy przyjąć chociaż są kompletnie niezgodne z naszymi doświadczeniami i nie będziemy w stanie ich sobie wyobrazić. Cytat z postu Ori (kopii recenzji: ..."Czy sięgając po tę książkę, Czytelnik znajdzie w niej tak naprawdę zadowalające uzasadnienie, takiego zawartego w nim ad hoc twierdzenia"... Innymi słowami: Czy po przeczytniu książki nabiera się przeświadczenia, że Wszechświat powstał nie na zasadzie wielkiego punktowego BigBangu tylko po przekroczeniu pewnego stanu kwantowego po prostu zaczął "działać" dynamicznie w czasie WSZĘDZIE? Tak, nabiera się tego przeświadczenia. Zupełnie nowatorskie podejście, ale ta teoria tłumaczy tak wiele narosłych paradoksów w mechanice kwantowej, że uważam ją za dobry kierunkek. Wynikająca z tej teorii koncepcja braku czasu w odniesieniu do najmniejszych cząstek kwantowych (tzw. piana kwantowa) tłumaczy niemal wszystkie paradoksy. Hellerowi udało się również wproadzić i udokumentować (nie jestem w stanie ocenić takich koncepcji jestem na bakier z matmą) istnienie dynamiki w układach mikrokwantowych pomimo braku upływu w nich czasu. Podstawową myślą zawartą w tej książce czy też teorii jest określenie zasady jednoczesności zachodzenia zjawisk w świecie najmniejszych skali - czyli istnienie dynamiki w ukadach w których nie rejestruje się upływy czasu. Do tej pory problem EPR nie został wyjaśniony. Za wikipedią: __________________________ " Paradoks (także: niekompletność, eksperyment myślowy) EPR – nazwa pochodzi od nazwisk trzech fizyków: Alberta Einsteina, Borysa Podolskiego i Nathana Rosena. Fizycy ci, zaproponowali pewien eksperyment myślowy w celu wykazania niezupełności mechaniki kwantowej. Eksperyment ten został opisany we wspólnie wydanej w 1935 roku publikacji "Can Quantum Mechanical Description of Physical Reality Be Considered Complete?". W uproszczeniu, paradoks EPR wygląda następująco: Mechanika kwantowa zakłada, że przed pomiarem wielkości kwantowej, mierzona zmienna nie ma ustalonej wartości, dopiero pomiar ją ustala, a wcześniej można mówić tylko o rozkładach prawdopodobieństwa. Istnieją jednak pewne tzw. stany plątane par cząstek (a właściwie ich spinów), tzw. singlety, które mają taką właściwość, że gdy dokonujemy pomiaru wartości jakiejkolwiek składowej spinu każdej z cząstek, ale dla obu cząstek względem tego samego kierunku przestrzennego, otrzymujemy zawsze przeciwne wyniki (pełna anty-korelacja). Jeśli takie cząstki oddalimy od siebie, a potem zmierzymy pewną składową spinu jednej z nich, to pomiar da nam nie tylko jej wartość, ale jednocześnie wartość identycznej składowej spinu tej drugiej (gdyby ktoś chciał dokonać pomiaru w tym samym kierunku). Ponieważ dla singletu przed pomiarem składowe spinów każdej z cząstek są całkowicie niekreślone, mamy zatem pozornie jakby pewnego rodzaju oddziaływanie rozchodzące się natychmiastowo na dowolną odległość (które określa spin odległej cząstki, na której nie wykonano żadnego pomiaru). Tymczasem szczególna teoria względności zabrania przekazywania informacji i oddziaływań z prędkością większą od prędkości światła. Używając analogicznego doświadczenia myślowego EPR wywnioskowali, że zmienne kwantowe muszą mieć ustaloną wartość przed pomiarem, co z kolei miało prowadzić do wniosku, że mechanika kwantowa jest teorią niepełną (niezupełną) bo nie określa tych ustalonych wartości, a jedynie ich prawdopodobieństwa. Uwaga: opis paradoksu EPR podany wyżej opiera się na pomyśle Davida Bohma (1951) i jest jego najprostsza formą. W 1964 roku, rozumowanie EPR zostało obalone przez Bella. Wykazał on, że podejście EPR prowadzi do pewnych nierówności, które nie są spełniane przez właśnie tego typu procesy kwantowe, jakie rozpatrywali EPR. Zatem ich koncepcje nie mogą być podstawą do dyskusji na temat możliwości uzupełnienia mechaniki kwantowej (patrz twierdzenie Bella), bo są z nią sprzeczne. Paradoks EPR zatem nigdy nie istniał. Rozumowanie EPR było od samego początku wewnętrznie sprzeczne. Mimo tego prace EPR odegrały bardzo istotna rolę w dyskusjach nad interpretacją mechaniki kwantowej" ________________________________ Moża i rozumowanie było sprzeczne ale to wcale nie znaczy że parodoks EPR po 1964r. nie itnieje. Zrezygnowano tylko z humorystycznej koncepcji że postępując w ten sposób musimy "wykreować z powietrza" jedną z dwóch właściwości cząstki PRZED jej pomiarem. Parodoks dalej istnieje, ponieważ po zbadaniu np. spinu cząstki (po fakcie) mamy 100% pewność że jakaś cząstka w odległosći uniemożliwiającej przesył informacji pod wpływem naszego badania nabrała własciwości której przyczyną był pomiar "naszej cząstki". W jaki sposób bez przyjęcia natychmiastowości procesu a więc dynamiki układu w zerowym czasie byłoby to możliwe? Pozdrawiam.
  8. Nie wiem jakim softem operujesz przy nagrywaniu jeżeli to Registax to pewnie tak jak dla lumenery można zassać odpowiedni sterownik i wtedy pojawi się okienko z mozliwością wyboru "migawki". Artefakty nie zależą od kamerki moim zdaniem. Jak dla mnie powstające ringi mają dwie główne przyczyny: składasz za dużo obrazów i są one za ciemne. Registax stackując takie klatki uśrednia wynik i w ciemniejszym obszarze (nieco na prawo od terminatora) składa je na zasadzie mozaiki ciemnych i jasnych półokręgów. Zdecydowanie lepiej jest wybrac mniejszą ilość najjaśniejszych klatek a najlepiej - jednakowo jasnych. Odrzucić wszystkie ciemniejsze - wystarczy minimalny cirrus a dla IRpass następuje degradacja jasności i wzrost szumów. Oczywiście avi z szybkością 15, 10 czy 5 fps rozwiąże przy IRpass ten problem na zasadzie uzyskiwania jaśniejszego obrazu klatki, ale nagrywanie dla takich parametrów wymaga dobrego seeingu - klatka jest naświetlana na tyle długo że IRpass nie pomoże wyeliminować wpływu seeingu. Spróbuj może po prostu dla prędkości 30f/ps podnieść jasność (softowo) oraz nieco gain - artefakty powinny zniknąć (plus dobór mniejszej ilości i wyłącznie jasnych klatek). Gratuluję chłopaki zdjęć są przepiękne! Ja na razie wyjeździłem się na nartkach i oczywiście pogoda się zrąbała od razu po przyjeździe Pozdrawiam.
  9. Witam. Chciałbym napisać kilka słów na temat problemów spółczesnej astrofizyki - gałęzi w której astronomia jako taka nie tak dawno temu zaczęła odgrywać sporą rolę. Jeszcze 2-3 dekady temu naukowcy dzieleni byli na astronomów obserwacyjnych, fizyków doświadczalnych i na tzw. relatywistów (przykładem najbardziej znanym ale niekoniecznie najlepszym w sensie wkładu do tej gałęzi nauki jest S.Hawking). Pomiędzy tymi trzema grupami panowały dość chłodne stosunki do czasu kiedy pojawiły się problemy interpretacyjne związane głównie z osobliwościami (czyli obszarami lub punktami w czasoprzestrzeni w których fizyka "einsteinowska" (pomijając już oczywiście fizykę Newtona) załamywała się kompletnie. Największym problemem reletywistów było w okresie tzw. "złotego wieku czarnych dziur" potwierdzenie obserwacyjne (a w zasadzie pomiarowe) występowania takich obiektów. Rozbudowana w oszałamiającym tempie teoria związana z tymi obiektami zapoczątkowana przez ludzi współtworzących projekt Manhattan (projekt bomby atomowej) kontynuowana była przez takie sławy świata fizyki jak Zeldowicz, Thorne, Penrose czy Hawking. Z tych prac wynikały nie tylko odpowiedzi na pytania czy czarne dziury istnieją ale też (dzięki niezwykłym umysłom tych ludzi i znajomości zawiłych arkanów matematyki - głównie topologii) wynikały z nich odpowiedzi na wiele pytań związanych z samą budową (geometryczną), spinem, oddziaływaniem czarnej dziury na przestrzeń i wielu innymi. Z ostatnich prac szczególnie z wniosków wynikajacych z prac w obszarze mechaniki kwantowej definiowanej narzędziami geometrii nieprzemiennej wynikają bardzo poważne implikacje w stosunku do poprzednich opracowań i teorii. Niestety aby geometria nieprzemienna (jak sądzę) zaczęła odgrywać znaczącą (a wiele wskazuje że to nieuniknione) rolę w wyjaśnieniu takich zjawisk jak Wielki Wybuch, problemy dylatacji czasu, problemy zwiazane z Czarnymi Dziurami musi upłynąc dekada, może dwie - po prostu muszą wypalić się finansowe projekty oraz musi nastąpić zmiana paradygmatów światka dysydentów związanych z badaniami w zakresie fizyki kwantowej czy astrofizyki. W tej chwili trwa zacięta walka na dwóch poziomach: zjawiska makroskopowe (przede wszystkim chodzi o wykrycie fal grawitacyjnych) oraz zjawiska w skalach kwantowych - czemu służy głównie rejestrowanie najmniejszych cząstek (trwa nieprawdopodobna wojna pomiedzy CERN a resztą świata). Aspekt pierwszy - dlaczego wykrycie fal grawitacyjnych jest takie istotne? Przede wszystkim ich istnienie jest potwierdzeniem rozwiązań teorii Einsteina w wersji makroskopowej. Po drugie - mapa obiektów lub obszarów emitujących takie fale jak również same dane o ich strukturze pozwoliłyby potwierdzić w 100% istnienie (i położenie na niebie) czarnych dziur. W tej chwili posiadamy niemal 100% pewność że w wiekszości kwazarów istnieją czarne dziury oraz że większość galaktych również posiada w centrach takie obiekty. Mamy na to jednak dowody pośrednie (np. ruch rotacyjny galaktyk jest o wiele za szybki w stosunku do ich obserwowalnej masy po dodaniu również obiektów typu zimnego, pyłu kosmicznego, neutrin i wszelkiej innej maści obiektów w przewidywalnej masie zwiazanej z masą galaktyki. Teorie związane z czarnymi dziurami obejmują wiele aspektów których rozwiązanie może podobno przyspieszyć unifikację praw fizyki (osobiście po przeczytaniu prac związanych z geometrią nieprzemienną uważam to za bzdurę do kwadratu - nawet nie jesteśmy w kwantowym żlobku w sensie wiedzy koniecznej do wykonania takiej unifikacji praw). Aspekt drugi: przyspieszacze cząstek - im bliżej jesteśmy czy też im mniejsze cząstki zdołamy zaobserwować tym stwarzamy lepsze podwaliny pod zrozumienie mechaniki kwantowej. Mechanika kwantowa jest gałęzią czy też zespołem zjawisk których nie możemy sobie "wyobrazić". Jest naznaczona piętnej nieoznaczoności, tzn. w najmniejszych skalach świat wydaje się zupełnie nieprzewidywalny. Jak daleko nasz antropocentryzm koliduje z takimi tematami niech świadczy prosty przykład. Według dokładnie zdefiniowanych i udokumentowanych doświadczeń w zakresie stanów panująch na poziomach kwantowych (powiedzmy- w bardzo małych skalach) nie jesteśmy w stanie zbadać tego ze zjawiko wystąpi. Natomiast możemy zdefiniowac i obliczyć prawdopodobieństwo zjawiska. Przechodząc z wynikami do doswiadczenia po uzyskaniu wyniku jeżeli stwierdzimy że jest zgodny z przewidywaniami zmieniamy jednocześnie równolegle w tej samej chwili wynik stanu cząstki która może znajdować się np. na drugim końcu Wrzechświata. Nic z tą cząstką nie zrobiliśmy, według Einsteina zadna informacja nie mogła jej zostać przekazana, mimo to mamy pewność że ta odległa cząstka zmieniła stan. Powodem była nasza ingerencja podczas badania cząstki "ziemskiej". Nasz problem widać jak na dłoni - żyjemy w świecie który wpaja nam określone prawa, nakazy, wzorce. Tymczasem wiele wskazuje na to że tzw. prawdziwa struktura materii ma się tak do naszego świata jak pięść do nosa Ostanio sporo czytam na ten temat i nawet zaczynam trochę skręcać z astronomii czy astrofotografii w stronę tego typu zagadnień, po prostu wydaje mi się że lepiej widzieć nawet mgliście zarys lasu niż ostro żdziebełko trawy na polanie w jego środku... Najmniej przyjemnym aspektem wynikającym z prac wielu grup astrofizyków jest problem braku całych rzędów wielkości. Przewidywania optymistów z CERN twierdzących że NAJPRAWDOPODOBNIEJ jesteśmy już blisko dokonania podziału materii na najmniejszą niepodzielną część wydaje się w świetle prac Thorna i Hawkinga śmieszna. Dla przykładu: w pewnym okresie Thorne zajmował się problematyką związaną z możliwościami tworzenia tzw. tuneli czasoprzestrzennych (to przyjaciel C.Sagana, zainteresował się tematem kiedy miał zrecenzować projekt pomysłu Sagana - podróży bohaterki "Kontaktu" przez czarną dziurę. C.Sagan jako popularyzator i powieściopisarz wiedział na temat astrofizyki mniej wiecej tyle ile ja wiem na temat chowu kur niosek...ale mniejsza o to. W każdym razie - Thorne na wiele miesięcy pogrążył się (w tym częściowo pogrążył swój autorytet - przypominam ze jest to facet który tworzył zespół LIGO - kosztownej konstrukcji do poszukiwania fal grawitacyjnych) w czarnej dziurze intelektualnej, a kiedy z niej wyszedł okazało sie prawie na pewno, że zbudowanie wehikułu czasu w oparciu o tunel czasoprzestrzenny jet niemozliwe. Po obliczeniach w których pomocną dłoń wyciągnął S.Hawking okazało się że na pioziomie 1 sek do potęgi minus 97 (jeśli dobrze pamiętam) fluktuacje w strukturze pierwotnej materii kwantowej uniemożliwią otwarcie tunelu przed jego wytworzeniem... To niebezpieczne czasy, bardzo bliskie zerowej wartości czasu jaki przypisuje materii w najmniejszych skalach geometria nieprzemienna. Obaj fizycy znaleźli się w czasach i strukturach wymiarowo nie odpowiadająch optymistom z CERN pieczołowicie łapiącym "Boską Czątkę" - oczywiście numer 0000000000000000001. Zachęcam wszystkich do poczytania na te tematy - fascynujace lektury. Można zacząć nawet popularnej "Krótkiej historii czasu" S.Hawkinga aczkolwiek książka jest pretensjonalna i nieco moim zdaniem kreująca Hawkinga na męczennika pozbawionego nagroda Nobla. Ps. Ostatnimi czasy znacznie rosna szanse detekcji fal grawitacyjnych - w oparciu o badania zmian w częstościach promieniowania pulsarów. Jak będzie pokaże najbliższe kilka lat. Pozdrawiam serdecznie.
  10. Oj sorry w takim razie Pamiętajcie że miałem wyjątkowy rewelacyjny seeing i jednak lumenera to 10bit w dodatku dość niskie szumy własne. Nie ukrywam również że namachałem się z obróbką materiału. WIECEJ JUŻ NIE BĘDĘ (?) Chłopaki to nie wyścigi, to zabawa a satysfakcja z własnoręcznie zrobionej fotki jest większa niż profesjonalne fotki z orbiterów Marsa Także DO ROBOTY! Dzięki za miłe słowa
  11. Po zapowiedziach pojawiło się trochę danych o nowej kamerce. Cena pozostała bez zmian w USA niecałe 2k. USD http://www.sbig.com/sbwhtmls/ST8300.htm Prosiłbym o szczere wypowiedzi (bez kreacji upodobań do marek) - o ile gorszych wyników mogę spodziewać się decydując się na ten sprzęcik zamiast "wzorca" czyli niewątpliwie FLI? Sbig posiada inną migawkę w stosunku do STX (wyglada jakoś bardziej "po ludzku"). Delta temperatury wyniosi 40st (nie za mało na szumiącą 8300??). Kamerka jest też dość lekka co jest zaletą (oby nie kosztem jakości). Same czipy to koszt pewnie około 300-400 USD dla producentów w hurcie, o ile w FLI można spodziewać sie pewnego doboru i selekcji to mam obawy że SBIG traktując kamerkę jako tanią alternatywę dla większych egzemplarzy wykonał model "na szybciora" -na zasadzie pewnej masówki. Kamera jest dostępna w od marca (w tej chwili można zamawiac wpłacając 10% zaliczkę). Przy kosztach celnych około 4-6% oraz 22% VAT w złotówkach cena enduserska wynosi w granicach 8tys PLN ze wszystkimi kosztami włącznie z transportem. To mniej niż połowa FLI... Chciałbym też dokładnie dowiedzieć się jakie znacznie ma wielkość studni w tej kamerce, czy to kwestia możliwości wykreowania z klatki większej ilości szczegółów przy większej informacji? Jak to wygląda w SBIG via FLI? W szczególności czy poziom biasu zależy od czipa czy od elektroniki kamerki? Czy przyjmując że matryce w SBIG są stockowe będą można spodziewać się rozrzutu jakościowy? Skąd to ograniczanie delty temp.-czy FLI po prostu ma genialną technologię czy chłodzenie do temperatur skrajnie niskich wpływa na trwałość matrycy ccd? Mam nadzieję że Jesion się trochę rozpisze ma olbrzymie doświadczenie w temacie, ja czytajac różne fora i artykuły również zagraniczne im więcej mam informacji tym mniej wiem Kwestia filrów 1,25 - będzie spodziewane koszmarne winietowanie? Kamerka jest przebojem cenowym ale zawsze mam taką obawę że jak coś jest tanie to niekoniecznie jest dobre jakościowo. W tej chwili wiele osób będzie już mogło pozwolić sobie na prawdziwe ccd więc myślę że takie informacje będą przydatne dla wielu userów.
  12. Jeszcze raz przebrane klatki i up...ojna żmudna obróbka na zimnym materiale . Nie mam niestety pewności czy nie podbiłem kilku artefaktów dekonvolve i gaussem w fitswork. Główna zmiana to starannie dobrane fotki i trochę zabawy z wyostrzaniem ciemnych partii obrazu oraz zmiana poziomów rgb (materiał z z 05.01.10).
  13. Lysy

    SBIG st-4

    Hej. Oferta na st4 jest aktualna?
  14. Chłopaki piękne marsy (Kurzy - jak na pierwszy raz to niezła fotka!). U mnie niestety wrodzone lenistwo odezwało się boleśnie - na tarasie mam 50cm zmrożonego na kość śniegu i nie mam jak wystawić teleskopu . W dodatku takie ładne niebo!
  15. Lysy

    Atik 16IC

    Pytanie poszło na priv.
  16. Chciałbym jeszcze sprecyzować ten temat może przyda się to osobom które interesują się fotografią planet oraz Księżyca. Skąd się bierze taka zależność i konieczność stosowania soczewek barlowa? Każdy teleskop posiada swoją maksymalną rozdzielczość czyli najprościej rzecz ujmując: zdolność do rozdzielnia np. podwójnego układu gwiazd na dwa obiekty. Rozdzielczość teleskopu jest tym większa im większa jest średnica jego lustra czy obiektywu ale w praktyce rozdzielczość zależy również od (to temat rzeka): konstrukcji i jakości teleskopu. Teleskop tworząc obraz rozogniskowanej pojedyńczej gwiazdki (lub światła punktowego) generuje obraz pierścieni dyfrakcyjnych tworzących jasny środkowy krążek oraz zestaw kilku otaczających go pierścieni. Jest wiele teorii określających ocenę jakości wykonania lustra lub soczewek na podstawie wyglądu pierścieni, ale ja nie o tym Środkowa jasna cześć obrazu dyfrakcyjnego to okrągły punkt o określonej średnicy nazywany dyskiem Air'y. Średnica tego dysku określa dokładnie stopień rozdzielczości teleskopu. Nawet w ekstremalnie dokładnie wykonanym zwierciadle czy w teleskopie soczewkowym punktowy obraz gwiazdy zawsze posiada określoną średnicę. Kryterium Nyquista nie jest regułą związaną z astrofotografią planetarną . Jest to zasada związana z uzyskiwaniem maksymalnej informacji w układach w których pozyskujemy dane próbkowaniem (a takim układem jest np. matryca ccd). Kryterium mówi o tym, że rozmiar (liniowy) pixela powinien być co najmniej dwa razy mniejszy od rozmiaru (liniowego- średnicy) dysku Air'y którego wartość zależy wyłącznie rodzaju naszego teleskopu. Z zależności o których napisałem wyżej można ułożyć wzór określający wartość (minimalną) ogniskowej w naszym zestawie do astrofotografii planetarnej: F(min)=Zd/0.275 gdzie: F- wypadkowa ogniskowa Z-średnica zwierciadła (w mm) d-rozmiar pixela w kamerce (um) wskaźnik 0.275 to długość przyjętej fali światła (dla 550 nm) podzielonej przez 2 (w celu zapewnienia spełnienia kryterium N). Dla mojego C-11 i pixela 7,2 w lumenerze ogniskowa taka powinna wynosić: F=280x7,2/0.275=7330,90 Idealny barlow powinien mieć krotność: 7330,90/2800=2.6181 Można oczywiście określić oddzielnie ogniskowe dla obiektów które promieniują (w największym natężeniu) określoną długością fali i stosować kombinacje soczewek barlowa oraz np. filtrów. Jeżeli zastosuję barlow o mniejszej krotności - utrata danych. Jeżeli zastosuję barlow o większej krotności - teoretycznie utrata danych nie występuje (F jest wartością minimalną we wzorze) ale wskutek takich zjawisk jak strata jasności pojawia się konieczność rejestracji z dłuższymi czasami (degradacja obrazu) lub mniejszą jasnością (pojawia się szum i straty związane z rozpraszanie energii sygnału na inne pixele matrycy). Pomijam trudności związane z zogniskowanie takiego zestawu oraz wpływem drgań montażu itp). Niestety planetki to bardzo wąskie gardło jeśli chodzi o dobór sprzętu ccd. To są wszystko oczywiście obliczenia teoretyczne, ponieważ wpływ seeingu jest taki, że praktycznie obraz dysku Air'y jest daleki od doskonałości, przy złym seeingu mamy w zasadzie obraz rejestracyjny szczegółu przekraczający wielokrotnie średnicę tego dysku. Nie oznacza to oczywiście wcale konieczności wydłużania ogniskowych (skumulujemy błędy) ale wręcz przeciwnie - lepsze rezultaty otrzyma się degradując szczegół dla mniejszej skali (bez barlow) lub najlepiej - czekając na lepszy seeing Reasumując: 1)Poważnym błędem jest zastosowanie za małej krotności barlowa (moim zdaniem z wyjątkiem avikowania Księżyca - tam wpływy seeingowe są degradujące na całym polu matrycy, lepiej wyrzucić barlow w ogóle w naszych krajowych warunkach lub zająć się rejestracją niewielkiego, wyciętego z pola matrycy szczegółu na pełnym powerze). 2)Raczej nie przewymiarowujmy obrazu, takie rzeczy robi się w zupełnie ekstremalnych sytuacjach np. przy obiektach typu Neptun ale to jest związane już z akceptowalnością obrazu planety przyjmuje się minimum 100x100 pix. Pozdr.
  17. Generalnie się z tym zgodzę z małą uwagą: stosowanie barlowa o danej krotności oprócz wielkości pixela kamerki zależy od rozdzielczości samego teleskopu. Zasadą jest aby na dwóch pixelach kamerki odwzorować jeden minimalny szczegół jaki teleskop jest w stanie rozdzielić w ogóle. Dla przeciętnych kamerek rzędu 5-6 um i 8" SCT nie ma sensu przekraczanie 2x barlowa. Zależność o której napisałem uwzględnia oprócz maksymalnej rozdzielczości teleskopu wpływ seeingu. Wszystkie zastosowania ogniskowej poniżej zalezności skutkują utrata danych, a zastosowania ogniskowych większych (np. zakładanie barlow x 4 do 8"SCT dla kamerki o pixelu 5-6) spowodują degradację obrazu i spadek kontrastu na wynikowym stacku. Lepszy efekt otrzymamy z barlow x 2 + otrzymany resampling softem.
  18. Witam. Nawiązując do technologii 3D: Wczoraj w Las Vega rozpoczęły się targi CES. Producenci odbiorników TV mają przedstawić pierwsze set-y 3D. Słychać rownież o zaczątkach realizacyjnych producentów programów (na razie w sektorze "sport"). Po HD Ready, FULL HD, LED (chociaż to nie są "pełne" matryce LED), zapowiedziach technologii OLED (zwijane ekrany) znowu trzeba będzie wymieniać telewizory . Mnie zastanawia taka kwestia: jak technologia 3D spełni się w zaciszu domowym? Często TV stanowi pewien załącznik w domu, tło tego co się dzieje i czym się zajmujemy. Dla przykładu: mam przyjaciół którzy celowo poszli w stronę małego ekranu z uwagi na nieporażanie najmłodszych użytkowników zajmującym pół ściany ekranem (popieram, popieram ale ... sporo oglądam w dodatku początki zaawansowanej audiofilii - osobiście najchętniej założyłbym na ścianę jakieś 200" . Do spokojnego oglądania single home vision 3D na pewno to świetna sprawa (wyobraźcie sobie programy przyrodnicze np. na kanale Discovery). Ale - w kontekście zacisza domowego i TV stanowiącego często tło konieczność używania okularów chyba znacznie zmniejszy ilość potencjalnych userów tego systemu. W ogniskach domowych gdzie mamy do czynienia np. z gromadką dzieci - oglądanie formatu 3D to zupełna utopia Jeśli jednak patent polegal na tym, że efekt 3D będzie działał na zasadzie możliwości (wyboru) to będzie super - wieczorkiem w ciszy i spokoju zakładamy sobie okularki i ... let's go! Ciekaw jestem czy ktoś stworzy technologie która umożliwi dodanie głębi 3D do dotychczasowych najlepszych produkcji programowych lub filmowych. Nie tak dawno temu oglądano świat w bw a techicolor był fikcją... Hejka.
  19. Chyba różnie to bywa ja nie widzę na stronce SBIG produktów poza produkcją astro, ale np. Lumenera z której mam kamerkę - firma o asortymencie typowo labolatoryjnym, ccd dedykowane do astro produkowane na zasadzie "jak można zarobić to dlaczego nie". FLI również wydaje się być bliżej produkcji labolatoryjnej, przynajmniej osądzając na podstawie oferowanych produktów. To że firma technologicznie wytwarza zaawansowany sprzęt labolatoryjny to więcej niż dobrze, przekłada się to na jakość raczej pozytywnie. Ale masz rację pisząć że firmy powinny również stosować lepsze (szczelność, możliwość zblokowania konektora) elementy do połączeń setupowych.
  20. No tak jak napisałem program nazywa się Aviraw zdaje się jest free, mozna też dekodować np w programie Imagetoolsca (też free). Po zdekodowaniu filmu uzyskasz zbiór kolorowych w Twoim przypadku klatek w postaci btmp. Ponieważ Registax do obróbki przyjmuje tylko po 500 klatek (jeśli dobrze pamietam) obróbkę wykonuje się wgrywajac do Registaxa pierwszych 500 klatek (zapisujemy wynik po dokonaniu wyboru klatek do dalszej obróbki z poziomu registaxa jako plik np. A.(z rozszerzeniem jakie poda na sam soft), potem kolejne 500 klatek, wybór, zapis jako B...itd. Następnie zamykamy registax, otwieramy ponownie i wgrywamy z poziomu okienka wyboru (komenda add) poszczególne wyniki. Wtedy mamy do obróbki wszystkie wybrane uprzednio klatki. Dalsza procedura jak przy zwykłej obróbce-klatka referencyjna (lub polecam - automatyczne z poziomu Registax stworzenie klatki referencyjnej z określonej ilości najlepszych klatek -najlepiej wziąć ok. 50-ciu). itd.
  21. Tak ale zastanawiam się jakby wyglądała np. M13 robiona moim C-11 + FLI (krótkie czasy po 30 sek kilkadziesiąt klatek)po idealnym wustudzeniu teleskopu. W zasadzie wykorzystałbym w FLI max rozdzielczość matrycy. Chyba masz jednak rację że najprędzej wyjdzie z tego fotka przypominająca makaron utworzony przez rozjechane gwiazdy. Nawet guiding nic nie zmieni (wpływy seeingu pewnie przekroczą korygowane PE wykładniczo Z tego wynika że wielkość pixela w kamerkach astro ccd jest złem koniecznym...
  22. Rozdzielczość to Twój "teleskopik" ma nie ma o czym mówić!!! Zdjęcie przypomina jakością widocznych struktur fotki wykonywane spoza naszej atmosfery, super wyszło. Ciekaw jestem czy masz jakiś system chłodzenia tego "potwora"? Pozdrawiam.
  23. Janusz masz świetny materiał ale wydaje mi się że stackujesz RAWy bez zdekodowania najpierw Program AVIRAW działał mi bez problemu z webcamem (wtedy zmodyfikowałem kamerkę poprzez nowy eprom) Taki avik trzeba najpierw rozłożyć na btmp. Przeczytaj to koniecznie: http://www.astrosurf.com/astrobond/ebrawe.htm Rozłożenie filmiku na klatki jest łatwe potem należy obrabiać w Registax partiami po kilkaset klatek.
  24. Jasne ale pojawiały się wątpliwości związane z kwestiami podstawowymi. btw: Zastanawiając się nad doborem kamerki do teleskopu zaświtała mi dziwna myśl: Skąd takie a nie inne wielkości pixla w ccd????. Przykładowo - w astrofotografii "planetarnej" obowiązują pewne zasady doboru wielkości pixela w stosunku do możliwej do uzyskania rozdzielczości teleskopu (kryterium Nyquista). Chodzi o taki setup aby wykorzystać maxsymalnie zdolności rozdzielcze teleskopu. (w bardzo dużym skrócie chodzi o to aby uzyskać rejestrację na dwóch pixelach kamerki powiększenie "jednego minimalnego szczegółu". Inaczej - aby zarejestrowany detal - w sensie wielkości minimalny detal możliwy do osiągnięcia przez konkretny teleskop pokrył 2 pixele w ccd) Kryterium uwzględnia również problemy związane ze stratami z powodu seeingu. Stąd np. w foceniu planet konieczność stosowania krotności barlowa. Jestem bardzo ciekawy jak to się przekłada dla kamerki ccd do dsów? Przy planetkach wykonanie zdjęcia z mniejszą ogniskową powoduje po prostu straty w ilości danych (szczegółów) możliwych do rejestracji, przy wykonaniu zdjęcia z przewymiarowaną ogniskową uzyskujemy również pogorszenie wyniku dokładnie na tej samej zasadzie jak w wizualu jeśli zastosujemy się do rad z Allegro czyli power 700x do 80mm teleskopiku. Od jakiegoś czasu zainteresowałem się ccd "nieplanetarnym" ale tej właśnie sprawy nie mogę zrozumieć. Matryce ccd o takim czy innym pixelu są dedykowane do różnych telpów ALE co jest podstawą takich dedykacji? Pole matrycy? Jeśli weźmiemy pod uwagę kryterium o którym pisałem to do uzyskania pełnej MOŻLIWEJ SPRZĘTOWO (TELESKOP) rozdzielczości (np. układu wielokrotnego gwiazd) brakuje prawie rzędu wielkości jeśli chodzi o wymiar pixela. Ciekawostka. Pierwsze co mi przychodzi do głowy to problemy techniczne związane z S/N w matrycach lub brak możliwości technicznych wykonania matrycy o "chorej" wielkości pixela. Oczywiście mogę się mylić totalnie
  25. Niezły numer z Ciebie A już wybierając się na wspólny browarek z Tobą myślałem czy się nie doposażyć w jakiś mieczyk samurajski "Kill Bill - decydujące starcie"
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.