Skocz do zawartości

Radek P

Społeczność Astropolis
  • Postów

    334
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez Radek P

  1. Jej współrzędne to: 19:27:07 +01:23:02 (więcej planet tranzytujących pod tym adresem).
  2. Radek P

    Drakonidy 2011

    Drakonidów. Jeden meteor nazwiemy Drakonidem, a nie Drakonidą. Przez "k", bo "drako" jest wyrazem przyswojonym z łaciny. Te problemy biorą się zapewne przez to, że próbujemy odmieniać ten wyraz analogicznie do "ta cefeida" i "tych cefeid".
  3. astrodamian27 - Twój ostatni post z załączonym wykresem jasności uważam za szkodliwy. Rozumiem, że chcesz się podzielić obserwacjami, zachęcić innych itp., ale nie tędy droga. Dokładne podawanie wyników ostatnich obserwacji może spowodować, że inne osoby będą się sugerować. Niestety nie raz zdarzało się to już w przeszłości. Pogodnego nieba.
  4. Możecie spróbować z innymi pobliskimi gwiazdami. Na stronie www.recons.org/TOP100.posted.htm Jest lista najbliższych obiektów. Są systemy z mniejszą paralaksą, ale jaśniejsze i o większych deklinacjach - może będą łatwiejsze. Powodzenia!
  5. Owe "materiały Jagielonki" to pewnie notatki jakiegoś studenta. Założył on sobie, że gdy gwiazda jest jaśniejsza, to jej temperatura jest większa i stąd mu wyszło, że w minimum jasności promień jest większy niż w maksimum. Bez tego założenia dowód robi się mało sensowny. Yah w swoim tekście posługuje się pojęciem "blasku", którego w przytoczonym fragmencie używa do określenia jasności powierzchniowej. Jasność powierzchniowa to moc wypromieniowywana przez jednostkę powierzchni gwiazdy (np. 1 m2). Jest ona zależna tylko i wyłącznie od temperatury efektywnej. Dokładniej - jest proporcjonalna do czwartej potęgi temperatury efektywnej. Jasność całej gwiazdy jest równa jasności powierzchniowej pomnożonej przez powierzchnię, która jest proporcjonalna do kwadratu promienia. W większości przypadków jasność maksymalna nie jest osiągana ani w momencie, gdy promień jest ekstremalny, ani w momencie, gdy temperatura jest ekstremalna.
  6. Pierwszym autorem jest Sumi i nikt z tym nie dyskutuje. Obie grupy współpracują ze sobą przy analizach zjawisk mikrosoczewkowych. Dane OGLE potwierdziły te soczewki. Do tego dłuższy czas trwania projektu OGLE-III niż analizowanych danych MOA daje bardzo silny argument za tym, że to są soczewki. Już nie raz zdarzało się, że różne inne zjawiska astrofizyczne imitowały mikrosoczewki. Najepsza droga do ich testowania to długi ciąg obserwacji danej gwiazdy - jeśli nie widać innych zmian jasności, to mamy soczewkę. Dane OGLE-III potwierdzają znalezione przez Sumiego obiekty w jeszcze jeden sposób, nieopisany w pracy. Wystarczy spojrzeć na stronę OGLE-III i wyszukać zjawiska o najmniejszych wartościach w kolumnie tau w tej wielkiej tabelce. Są kolejne soczewki dobrze obserwowane o bardzo krótkich czasach trwania. Są jeszcze krótsze soczewki, jedna jest pokazana na stronie UW. Jeden dziennikarz napisze "polscy badacze biorą udział w odkryciu", a kolejny to przepisze na "polscy badacze odkrywają".
  7. Dziwne to zestawienie. Jeśli katalogi nie zawierają ruchów własnych, to jeden z wierszy powinien być oznaczony Equinox, a nie Epoch. 2MASS-a brakuje jeszcze w tym zestawieniu. Trwają już prace nad UCAC4, ale chyba żadne terminy ukończenia nie są znane. Pomiędzy 2MASS i UCAC3 są różnice i to chyba większe niż niepewności, do których przyznają się ich twórcy. Przed Gają jedyna możliwość na rozwianie wątpliwości to astrometria planetoid na zdjęciach obu przeglądów. Relatywne pozycje gwiazd można mierzyć z dokładnością do paru mas, więc chciałoby się mieć i absolutne z taką dokładnością zmierzone.
  8. 203 numer Cyrqlarza jest już dostępny za darmo dla wszystkich na stronie www.pkim.org. Tym razem publikujemy wyjątkowo dużo artykułów z działu "Nie tylko meteory". Zamieszczamy także sprawozdanie z ostatniego seminarium PKiM i opis roju Lirydów.
  9. Dokształciłem się trochę. Można zrobić dobrą astrometrię na podstawie zdjęć z "jednopikselowymi" gwiazdami. Warunek jest jeden - odpowiednio duża liczba gwiazd na pojedynczej klatce. W przypadku HST są to pewnie dziesiątki tysięcy **. W amatorskiej wersji powinno starczyć koło 100, czyli pewnie i tak więcej niż można złapać w typowych warunkach.
  10. Zdaje się, że w CNK nie działa ok. 8% urządzeń. Gdy tam byłem po raz ostatni to nie działało jedno z całej wystawy. Oceny jak powyższa zaprezentowana przez gościa uważam za niesprawiedliwe.
  11. Możesz określić ile to jest "duża część" w procentach?
  12. Jeśli ktoś planuje obserwacje astrometryczne z użyciem kamery CCD to podaję wzór na dokładność zmierzenia pozycji centroidu. Dla gwiazdy, która ma profil gaussowski i A zliczeń z niepewnością dA teoretyczna niepewność pomiaru jednej współrzędnej centroidu wynosi: dx = 0.6 * FWHM * dA/A Oczywiście im mniej kształtny profil tym niepewność większa. Wzór nie ma zastosowania do gwiazd jednopikselowych.
  13. Miałem drugą szansę. Zmienili okular chyba na najdroższy, jaki można kupić. Pole widzenia koło 4'. Ciemno było więc, nie widziałem dobrze, ale to już raczej małe wiaderko, a nie słoik. Gdy ja dotarłem to było NGC 1566. Potem jeszcze Tarantula (samo centrum oczywiście). Seeing rzędu 0.7", więc widok był po prostu świetny. Przy okazji - nieźle się człowiek czuje, gdy stoi na platformie od ogniska Nasymytha i kopuła oraz teleskop idą na kolejny obiekt.
  14. Zapraszam na stronę PKiM, gdzie dostępny jest kolejny numer biuletynu.
  15. Tak, ale Kepler to satelita fotometryczny, a nie astrometryczny. Nie przypominam sobie, by komuś defocus pomógł.
  16. A co to znaczy "zdefocusować"? Pytam serio. Na pewno taki defocus zwiększy Ci wady pozaosiowe, czyli wpłynie negatywnie na dużą część gwiazd. Nie wiem, co defocus zrobi z kształtem gwiazd. Jeśli nie zna się go dobrze, to nie można dopasować dobrego modelu i pozostają średnie ważone. Trzeba sprawdzić. Powinny wystarczyć jakieś wcześniej zrobione fotki, najlepiej z jednej nocy i przy porównywalnej masie powietrza.
  17. Jeśli masz tak dobrane parametry sprzętu, że FWHM jest ok. 3.5 - 5 pikseli, to możesz dużo zrobić. Przy odpowiednim teleskopie (mała koma itp.) możesz dopasować model analityczny do każdej gwiazdy. Najprostsza to oczywiście radialna funkcja Gaussa, możliwe rozwinięcia to wersja niesymetryczna względem centroidu (czyli trzeba też znaleźć dwie półosie i kąt między jedną z nich, a bokiem klatki), lub bardzo fajne funkcje w stylu Gauss plus Lorentz (1/(1+r^2)) lub funkcja Moffat (1/(1+r^2)^beta). Szybko człowiek dochodzi do wniosku, że to nie wystarcza i zaczyna zmieniać parametry tej funkcji w zależności od współrzędnych na obrazku (najprościej - liniowa zależność od X i Y). Jak takie rzeczy zrobisz to możesz mierzyć położenie centroidu z niepewnością dochodzącą do 1/1000 piksela. Warunkiem jest oczywiście jasna gwiazda, co przy FWHM ~ 4 px daje więcej niż 100 pikseli należących do tej gwiazdy i będących wyraźnie powyżej poziomu tła. Gorzej jest, gdy masz punktowe gwiazdy. Załóżmy, że gwiazda to 5 pikseli powyżej poziomu tła: jeden bardzo jasny i czterech jego sąsiadów (ciągle powyżej poziomu tła, ale nie są bardzo jasne). Jak zmierzyć centroid? Najprościej to wziąć liczbę zliczeń z tych 5 pikseli i policzyć średnią ważoną współrzędnej X i Y. Tak, czy inaczej wyjdzie gdzieś koło najjaśniejszego piksela, ale przynajmniej będą jakieś cyfry po przecinku. Pytanie jak z dokładnością. Chwytów opisanych wyżej nie zastosujesz, bo niby jak. Dokładność masz znacznie gorszą i nie wydaje się, byś mógł jakoś łatwo to przeskoczyć. Jak masz te 5 px to sytuacja nie jest beznadziejna. Możesz założyć, że obraz gwiazdy jest dobrze opisany np. funkcją Gaussa, a Ty mierzysz nie wartość tej funkcji w punkcie, ale średnią wartość w obszarze, który odpowiada powierzchni Twojego piksela. Załóżmy, że ta funkcja Gaussa ma 4 parametry (wsp. centroidu, jasność i sigma). Możesz napisać program, który policzy dla każdej takiej czwórki parametrów wartości zliczeń w każdym z tych 5 pikseli. Jeśli powtórzysz to wiele razy dla różnych wartości parametrów, to znajdziesz zbiór, który będzie najlepiej odpowiadał obserwowanej ilości zliczeń. Możesz przypuszczać, że masz bardzo dokładnie wyznaczony centroid. Załóżmy, że masz 10 jasnych i nieprzepalonych gwiazd na zdjęciu, tzn. masz 50 wartości pomiarów (liczby zliczeń w pikselach) i 40 parametrów do dopasowania. Sytuacja nie wygląda dobrze. Zakładasz (jak w pierwszym akapicie), że FWHM jest stałe na całym obrazku i liczba parametrów spada do 3*10+1 (3 parametry na gwiazdę tzn. X, Y, jasność). Jest lepiej, ale bardzo dobrze nie jest. Masz 50 pomiarów i 31 parametrów. Kolega z pierwszego akapitu przy 10 gwiazdach masz w najbardziej pesymistycznym przypadku ~50 parametrów i 1000 pomiarów przy 10 gwiazdach. Idziemy dalej. Z informacji od kolegów (np. tych z pierwszego akapitu) wiesz, że sytuacja jest bardziej skomplikowana i funkcja Gaussa nie opisuje dostatecznie dobrze wszystkich gwiazd na całym zdjęciu. Kombinujesz i zakładasz np. FWHM stały przez całą noc, albo coś o kształcie profili. Niestety słabo to nie działa, bo nie masz jak tego zweryfikować. Jeśli nie zmierzysz FWHM dla każdej gwiazdy oddzielnie, to nie możesz powiedzieć, czy na kilku kolejnych ekspozycjach FWHM jest stały i nie zmienia się w zależności od pozycji na chipie. Te "pomiary" w przypadku jednopikselowych gwiazd nie dają pełnej wiedzy, gdyż nie podają jaka jest wartość funkcji w danym punkcie, ale jaka jest całka w jakimś tam obszarze. Nie przeskoczysz tych problemów. Prześwietlanie też niewiele pomoże. Wtedy de facto tracisz informację, a nie ją zyskujesz. Ostatnio stwierdziłem, że na profesjonalnej kamerze astro zdjęcia gwiazd o maksimum w pobliżu 1/3 maksymalnej ilości zliczeń (1/3 * 64000) są już minimalne nieliniowe. Miałem posumowane obrazki, więc to mogło wpływać na mój wynik, ale jaśniejsze gwiazdy były wyraźnie inne niż te słabsze. Tak, czy inaczej życzę powodzenia.
  18. Hans, Ty pewnie masz sprzęt prawie jak teleskop Hubble, czyli z undersamplingiem. Nigdy nie mierzyłem jednopikselowych gwiazd, ale zgaduję, że muszą być ładne (minimalna koma) i pewnie niewiele więcej da się zrobić niż wzięcie średniej pozycji z 5 pikseli - tak się robi przy meteorach i kamerach wideo.
  19. Tej gwiazdy nie ma w powtórnie zredukowanych danych z Hipparcosa, więc pewnie z nią też był jakiś problem. Nie ma jej w Simbadzie, więc ciężko znaleźć publikacje na jej temat. Jest ~20 publikacji ludzi, którzy szukają najbliższych ** i trzeba by każdą z nich sprawdzić, czy nie ma tam czegoś blisko tych współrzędnych. Odnośnie do pomiaru centroidu gwiazdy, to spokojnie można dojść do niepewności rzędu 1/100 piksela dla dobrze naświetlonych gwiazd z oversamplingiem. Przy pikselu 1" pewnie można celować w dokładność rzędu 0.1". Zwiększanie ilości pomiarów raczej nie przesunie tej granicy znacząco niżej. Każde zdjęcie jest wykonywane w de facto innych warunkach (chyba, że stosuje się czasy typu 0.01 s). Gwiazdy referencyjne nie powinny być problemem. Te najjaśniejsze mają z reguły dobrze pomierzone paralaksy i ruchy własne. Jedyny problem to by dostatecznie dużo się ich zmieściło na jednej klatce. Pozostaje nietrywialny problem przeliczenia obserwowanych współrzędnych gwiazd na (choćby względne) współrzędne niebieskie. Matematyka na poziomie wyższym niż w liceum, ale są do tego odpowiednie programy.
  20. A skąd w katalogu Tycho odległości do gwiazd? Patrzę na opis i jakoś ich nie widzę. Dobrym źródłem listy najbliższych gwiazd może być strona: http://www.recons.org/TOP100.posted.htm
  21. A ja dodam, że znajomy ostatnio oszacował, że czarne dziury wnoszą do obserwowanej masy ciemnej materii ok. 0.2%. Korzystał z funkcji początkowych mas gwiazd (IMF).
  22. Nie. Eter był uważany za coś, co tłumaczy obserwowane zjawiska. Ciemna materia to termin częściej używany do określenia zjawiska, a nie teorii. Czemu piszesz o ruchu gwiazd? Jak napiszesz o rozważaniu ruchu wszystkich kwarków w tych gwiazdach i wszystkich innych obiektach w galaktyce. Chyba nikt nie rozważa choćby Układu Słonecznego jako zbioru kwarków. Astrofizyka to nie matematyka i opis przeważającej większości zjawisk nie jest matematycznie dokładny. Stosuje się przybliżenia i założenia, których poprawność się sprawdza. Podobnie pracują fizycy. Nie wszystko musi być rozważane w ramach OTW. Przykładowo do opisu rzutu kamieniem można równie dokładnie wykonać w ramach mechaniki newtonowskiej. Czemu? Odrzucanie wszystkich rozważań opartych na przybliżeniach jest dla mnie zupełnie niezrozumiałe. Ja tam nie mam nic przeciwko pomiarowi linijką odległości Warszawa-Wrocław. Jeśli dobrze oceni się niepewność takiego pomiaru, to spokojnie można tego pomiaru używać. Faktem jest, że taki pomiar będzie obarczony dużą niepewnością.
  23. Kolejny numer Cyrqlarza jest już dostępny na stronie PKiM. Zapraszam do lektury.
  24. Jeśli nie chcesz rozmawiać o empirycznych dowodach to trudno. Jeśli założysz, że nie istnieje coś takiego jak obserwacje krzywych rotacji galaktyk, to nie ma sensu mówić o ciemnej materii. Teoria naukowa to nie jest coś, co ktoś wymyśla nagle i potrafi wytłumaczyć wszystkie możliwe doświadczenia. Typowo dzieję się tak, że zbierane są fakty, których nie potrafimy wytłumaczyć, następnie proponowane są różne hipotezy, które mogą dawać to nowe wytłumaczenie doświadczeń. Dobrze jeśli hipotezy przewidują wyniki doświadczeń, których wcześniej nie przeprowadzono i wyniki te są jakościowo różne niż to, co wynika z wcześniejszej wiedzy. Następnie hipotezy są weryfikowane i często dopracowywane. Na koniec ta najlepsza przyjmowana jest jako teoria naukowa. Porównywanie teorii względności i ciemnej materii to trochę kopanie leżącego. Ta pierwsza (zarówno OTW jak i STW) jest dobrze ugruntowaną teorią. Ta druga nie jest teorią naukową. Poszukałem w necie - nawet google znajduje "dark matter theory" znacznie rzadziej niż "dark matter". Profesjonalna baza bibliometryczna daje podobne wyniki - takiego wyrażenia się nie używa. Ciemna materia to raczej fakt obserwacyjny niż teoria naukowa. Nikt chyba nie twierdzi, że z całą pewnością potrafi określić, z czego jest ona zbudowana. Przykładowo - podejrzewano, że ciemna materia składa się z ciał wielkości tysięcy kilometrów, o masach typowych dla planet, brązowych karłów, czy najlżejszych gwiazd. Jeśli tak by było, to w kierunku Obłoków Magellana powinniśmy obserwować więcej zjawisk mikrosoczewkowania grawitacyjnego niż w przypadku gdyby ta hipoteza nie była prawdziwa. Okazało się, że prawdopodobieństwo zaobserwowania mikrosoczewkowania grawitacyjnego w kierunku Obłoków Magellana jest bardzo mało prawdopodobne. Teraz chyba nikt już nie twierdzi, że ciemna materia składa się z brązowych karłów. Inne hipotezy oczywiście istnieją. Przyznam, że nie wiem nawet, o jakim wywodzie mówisz. A co jeśli założymy, że pomiary prędkości radialnych są ok, podobnie jest z teoretycznymi modelami gwiazd, a teoria Newtona jest prawidłowa? Widzę, że podobnie do Guest_astro_* bardzo dokładnie argumentujesz swoją hipotezę. Jeśli chcesz prosić admina o usunięcie Twoich postów, to zrób to wprost. Możesz objaśnić jak STW przewiduje coś w logiczno-filozoficzny sposób?
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.