Skocz do zawartości

NewsBot - Aktualności

Społeczność Astropolis
  • Postów

    41
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez NewsBot - Aktualności

  1. Podróże międzygwiezdne to jeden z najbardziej wyczerpująco wyeksploatowanych tematów w szeroko pojętej literaturze science-fiction, jednocześnie bardzo łatwo o dojrzenie przyczyny tego stanu rzeczy, wiążącej się z odwieczną fascynacją ludzkości ogromem Wszechświata i naturalną ciekawością, motywującą ludzi od zarania dziejów do eksploracji coraz większych połaci otaczającej nas rzeczywistości. Ta sama jednak rzeczywistość niestety bardzo brutalnie rozprawia się z takimi wybujałymi marzeniami – pomyślmy choćby o tym, że po raz ostatni człowiek postawił stopę na innym obiekcie niebieskim (Księżycu, odległym średnio o maciupkie 380 tysięcy kilometrów od Ziemi) już niespełna czterdzieści lat temu (w 1972 roku w ramach misji Apollo 17), choć przewidywano wówczas marzycielsko rozkwit podróży kosmicznych; istnieją co prawda pełne zadufania zapowiedzi Amerykanów, dotyczące rewizyty na Księżycu do 2020 roku i, idąc dalej, pierwszego załogowego lotu na Marsa do roku 2030, jednak z tego, co ostatnio słyszałem i czytałem, są to deklaracje cokolwiek mocno przesadzone i amerykańska agencja kosmiczna NASA nie posiada nawet w części wystarczających funduszy, by te ambitne plany zrealizować, nie mówiąc już o innych warunkach koniecznych do spełnienia. Równie ponura rzeczywistość nie przystaje za bardzo do przewidywań fantastów z początków i połowy minionego wieku, którzy przewidywali radośnie, że na początku XXI wieku podróże kosmiczne (przynajmniej takie w ramach Układu Słonecznego) będą czymś równie zwyczajnym jak podróż pociągiem nad morze i z powrotem (a nawet lepiej, bo bez znanych bywalcom PKP morderczego ścisku i duchoty). Ogrom problemów, wiążących się bezpośrednio i pośrednio z realizacją podróży kosmicznych (z tego co pamiętam, samo wyniesienie na orbitę ziemską jednego kilograma ładunku kosztuje tysiące dolarów), bariery technologiczne czy fizjologiczne (jak zadbać o zdrowie podróżników, wymykających się spod ochronnego “parasola” ziemskiego pola magnetycznego i atmosfery), w końcu potężne nakłady finansowe, z jakimi każdy “porywający się na gwiazdy” musi się z konieczności liczyć – wszystko to sprawia, że dotarcie załogowego pojazdu nawet do najbliższego nam układu gwiazdowego Alfa Centauri, odległego o zaledwie 4,3 lat świetlnych (co jest wartością śmieszną w porównaniu z odległościami do innych gwiazd, nie wspominając już o galaktykach, odległych o miliony i miliardy lat świetlnych), wydaje się czynem przekraczającym znacznie możliwości ludzkiej cywilizacji. Skoro jednak rzeczywistość brutalnie poskramia nasze zapędy, zapomnijmy na chwilę o barierach finansowych czy technologicznych, przyjmijmy na moment, że takowe nie istnieją, czyli mówiąc inaczej – fundusze mamy niczym nieograniczone a technologia pozwala nam na osiąganie “dowolnych” prędkości czy przyspieszeń. Niestety – nawet uwalniając się od pęt mamony czy niedoskonałości techniki - słowo “dowolnych” znalazło się nie bez przyczyny w znaczącym cudzysłowie – jednym z największych problemów bowiem, kłopotających entuzjastów podróży kosmicznych od ponad wieku, są srogie ograniczenia, nakładane na podróże kosmiczne przez same prawa przyrody. O ile nie stanie się cud i nikt nie stwierdzi kiedyś (oraz udowodni), że prędkość światła (w próżni!) może zostać bezkarnie przekroczona, prędkość ta stanowi ostateczną barierę dla każdej cząstki o niezerowej masie, poruszającego się w naszym Wszechświecie takim, jakim go rozumiemy – to fundamentalne założenie, które w naturalny sposób wypływa ze stworzonej przez Einsteina Szczególnej Teorii Względności (STW). Od razu zastrzegam tutaj, że pozorna sprzeczność powyższego z tym, co zdarzało mi się pisywać (bardzo odległe galaktyki oddalają się od Ziemi z prędkością większą niż prędkość światła w próżni i/lub Wszechświat w hipotetycznej fazie inflacji rozszerzał się również znacznie szybciej od tej prędkości), nie wynika ze zwyczajnego poplątania z pomieszaniem – w przypadku STW mówimy o tym, że ani promieniowanie, ani materia ani też informacja (czyli dowolna forma energii) jako taka nie może przemieszczać się z większą prędkością niż prędkość światła w próżni, natomiast we wspomnianych w nawiasie przypadkach mamy do czynienia z prędkością rozszerzania się samej przestrzeni, która jako taka temu limitowi nie musi wcale podlegać. Nie chciałbym tutaj jednak dryfować w stronę dyskusji o tym, co podlega a co nie temu limitowi – ważne dla dalszej treści wpisu jest to, że ograniczenie to nie pozwala hipotetycznemu statkowi kosmicznemu rozpędzać się w nieskończoność. W pewien dziwny sposób jednak w sukurs przychodzi nam ta sama teoria względności, która problem stworzyła – dzieje się tak ze względu na zjawisko tzw. dylatacji czasu, przewidziane przez Einsteina, eksperymentalnie również jak najbardziej potwierdzone – dzięki niemu można mieć ponownie nadzieję na realizację lotów międzygwiezdnych, choć, jak się okaże, tylko pozornie. Nie wnikając w szczegóły można na temat dylatacji czasu powiedzieć, że “prędkość upływu czasu” (inaczej: interwały czasowe między określonymi zdarzeniami) może być zupełnie odmienna w zależności od tego, w jakim układzie odniesienia znajduje się obserwator. O ile przez wieki takie nieintuicyjne podejście było nam obce i funkcjonowała stabilna definicja czasu jako czegoś absolutnego i niezmiennego niezależnie od obserwatorów czy czegokolwiek innego, Einstein zaburzył brutalnie takie rozumienie świata – biorąc na przykład pod uwagę dwa układy odniesienia w tym, który porusza się z jakąś prędkością w stosunku do pierwszego, czas zdaje się po prostu (czy, jeśli dobrze to rozumiem, rzeczywiście tak jest) płynąć wolniej. W przypadku międzygwiezdnych wojaży to całkiem niezłe rozwiązanie, szczególnie że spowolnienie czasu rośnie w znaczący sposób wraz ze wzrostem prędkości, doprowadzając niemal do “zatrzymania” upływu czasu bardzo blisko prędkości światła. Skoro, jak przyjęliśmy na początku, nie mamy ograniczeń finansowych ani technologicznych, wyobraźmy sobie statek kosmiczny, poruszający się z prędkością bardzo, ale to bardzo bliską prędkości światła (powiedzmy 99,99999%) – podróż takiego hipotetycznego pojazdu skróciłaby się (dla załogi!) w niezwykły sposób, rozumowanie takie kryje jednak w sobie – niestety – wiele pułapek. Dochodzimy wreszcie do centralnego punktu tego przydługiego wpisu – zastanówmy się nad odpowiedzią na takie oto pytanie: na jaką odległość hipotetyczny astronauta mógłby dotrzeć w ciągu swego (załóżmy długiego) życia, gdyby nie istniały żadne ograniczenia technologiczne, finansowe i tym podobne, i do tego jeszcze powrócić w calości do “domu”? Taki eksperyment myślowy został zupełnie niedawno przeprowadzony po raz nie wiadomo już który – okazało się, że jest to odległość całkiem całkiem spora – wchodzą tutaj w rachubę nawet całe miliardy lat świetlnych! W teoretycznej pracy, opublikowanej jakiś czas temu na łamach Publications of the Astronomical Society of Australia pani Juliana Kwan z University of Sydney (Australia) wraz z kolegami z jej zespołu postanowiła przyjrzeć się teoretycznym granicom, dostępnym hipotetycznym kosmonautom z napędem “podświetlnym”. Założyła ona dla nich całkiem komfortowe (pozornie) warunki – pojazd kosmiczny musiałby “jedynie” przyspieszać stale z przyspieszeniem o wartości ok. 9 m/s2 (która to wartość bliska jest swojskiemu ziemskiemu przyspieszeniu grawitacyjnemu g), dotyczy to przy tym zarówno “dodawania gazu” w trakcie podróży do gwiazd jak i “hamowania” podczas powrotu. Według wyliczeń zespołu Kwan taki podróżnik w ciągu ok. 30 lat swego życia dotarłby do granic “obserwowalnego” Wszechświata – byłby w stanie pokonać drogę ok. 15 miliardów lat świetlnych. I wrócić. W pewnym sensie nowatorstwo tej pracy – która skraca czas takiej podróży o 20 lat w stosunku do 50 lat oszacowanych we wcześniejszych pracach – polega na tym, że obliczenia Kwan i zespołu oparte zostały na najaktualniejszych danych dotyczących ekspansji Wszechświata, przyspieszenia tej ekspansji oraz “ciemnej energii”. Przy założeniu uznawanych za poprawne wartości przyspieszenia ekspansji czas podróży skróciłby się znacznie (trudno jednak mi biedakowi w sumie zrozumieć dlaczego), co – teoretycznie – pozwoliłoby człowiekowi dotrzeć do krańców Kosmosu i przywieźć z powrotem “pamiątki”. Brzmi naprawdę pięknie, prawda? Niestety – jak się pewnie domyślacie, to tylko czysto teoretyczne rozmyślania nie mające żadnego przełożenia na rzeczywistość. Problemów związanych z taką wizją jest bez liku – ze względu na ograniczoną ilość miejsca na wpis (który i tak chyba będzie najdłuższym, jaki dotąd spłodziłem) wspomnę w skrócie tylko o kilku z nich. Zacznijmy od tego, że bardzo, naprawdę bardzo wiele zależałoby w trakcie takiej fantastycznej podróży z astronautami pani Kwan na pokładzie od precyzyjnej znajomości – i jednocześnie stabilności – wartości związanych z akceleracją ekspansji Wszechświata, “siłą” ciemnej energii oraz całkowitą gęstością energii we Wszechświecie. Jak potwierdza pani Kwan – minimalne odchylenie od tych wartości lub związana z nimi niepewność mogłyby poskutkować tym, że powrót do domu z takiej podróży mógłby skończyć się niezłą “wpadką” – maciupki błąd skutkowałby przykładowo “minięciem” się z Ziemią o wiele milionów lat świetlnych. Przemawia z pewnością do wyobraźni taki przykład – rozpoczęcie “hamowania” z podświetlnych prędkości o 1 sekundę za późno oznaczać by mogło, że pojazd rozminąłby się z … całą Drogą Mleczną i opieszały astronauta z niesmakiem odnalazłby się w międzygalaktycznej pustce. To jednak wcale jeszcze nie tak wielkie zmartwienie – kolejnych przybywa w miarę zagłębiania się w temat. Skoro zapomnieliśmy o pieniądzach i technice, możemy część z tych kłopotów pominąć, jednak nawet bajeczna technologia może nie wystarczać do rozwiązania naprawdę poważnego problemu – zgodnie z teorią względności żaden obiekt posiadający niezerową masę spoczynkową nie może osiągnąć prędkości światła (dlatego fotony, nośniki światła, nie posiadają masy), może tylko dowolnie zbliżać się do tej wartości – to ale nie jest wspomnianym zagrożeniem. Jednak – co tutaj ważne – wraz z rosnącą prędkością wzrasta również masa spoczynkowa (równoważna zgodnie z STW energii) poruszającego się obiektu. Resztę możemy już dopowiedzieć sobie sami – skoro statek naszego podróżnika zwiększa prędkość osiągając prawie prędkość światła, jego masa zaczyna w końcu zmierzać w kierunku nieskończoności. W czym tkwi problem? Ano z własnego doświadczenia bardzo dobrze wiemy, że aby popchnąć przed siebie wózek z zakupami oraz samochód osobowy potrzebujemy zupełnie odmiennego “zaangażowania” siłowego. To samo dotyczy hipotetycznego statku kosmicznego – wraz ze wzrostem jego masy spoczynkowej nakład energetyczny, wymagany do dalszego przyspieszania, rośnie niebotycznie, co wiązałoby się oczywiście z problemem paliwa, którego w trakcie podróży statek zużywałby coraz więcej i więcej na zwiększanie prędkości, aż do momentu, gdy nakład ten zacząłby również zmierzać do nieskończoności. Innym problemem jest oczywiście wspomniana wyżej dysproporcja w upływie czasu – z jednej strony świetnie, że dla podróżnika czas płynie względnie wolno, bo w krótszym czasie dotrze dalej, z drugiej jednak nie wolno zapomnieć o tym, że względem tego podróżnika czas na Ziemi płynie bardzo szybko. Z tego powodu po wspomnianych wyżej 30 latach podróży pilot wróciłby w miejsce, którym byłyby po… 70 miliardach lat Układ Słoneczny, a dokładniej nierozpoznawalne od dawien dawna resztki pyłu i gazu, po nim pozostałe. Zysk z jednej strony jest więc ogromną stratą z drugiej – można sobie zadać pytanie jaki sens miałoby wysłanie wyprawy badawczej (bo taka byłaby rozsądna), z której nie ma gdzie wrócić ze zdobytymi informacjami? Oczywiście to jeszcze nie koniec – przy równie ogromnej prędkości promieniowanie, które, że tak powiem, dobiegało by z naprzeciwka do statku podróżnika, byłoby bardzo silnie “przesunięte ku niebieskiemu” (w przeciwieństwie do szerzej znanego przesunięcia ku czerwieni, charakteryzującego uciekające od nas galaktyki), co powodowałoby, że nawet bardzo niskoenergetyczne promieniowanie miałoby nagle energię charakterystyczną dla zabójczych promieni gamma (choć tutaj zastrzegam, że to wiadomość zdobyta skądinąd, nie jestem pewien jej poprawności niestety); podobnie sprawa ma się z drobinkami pyłu międzygwiezdnego, czegoś dość powszechnego, które – przy zderzeniu z sunącym z prędkością 99,99% prędkości światła statkiem – potrafiłyby całkowicie go zniszczyć. I warto na koniec pamiętać o poważnym problemie psychologicznym, który też tutaj odgrywa rolę – znaleźć wpierw musielibyśmy kandydatów na podróżników, którzy przez kilkadziesiąt chcieliby przebywać na niewielkiej przestrzeni statku kosmicznego, zawsze w tym samym otoczeniu, w takich samych warunkach, z tymi samymi ludźmi. Nawet jeśli ktoś to by wytrzymał, to co wówczas począć ze świadomością, że wszyscy bliscy, potomkowie, Ziemia, ba, cały Układ Słoneczny, po powrocie nie będą już istnieć? Jak uzmysłowić podróżnikom sens takiej podróży? To tylko kilka z istotniejszych problemów - na dokładkę do nich pamiętajmy cały czas o tym, że na początku poczyniłem nierealistyczne przecież założenia o bezgranicznych funduszach i doskonałej technologii, bez tych założeń nie mamy nawet co myśleć o osiąganiu prędkości będących zaledwie kilkuprocentowymi wartościami prędkości światła – a bez tego opisane powyżej problemy nie muszą być w ogóle brane pod uwagę. Cóż, dotrzyjmy najpierw na Księżyc, potem na Marsa, to już byłoby wielkim osiągnięciem dla ludzkości, o podróżach w większej skali – niestety takie jest moje przekonanie – możemy całkowicie zapomnieć. Źródło: Link 1 Wyświetl pełny artykuł
  2. Dość przypadkowe w rzeczy samej odkrycie mikrofalowego promieniowania tła (CMB, Cosmic Microwave Background) w 1965 roku przez dwóch pracowników (nagrodzonych za to dokonanie nagrodą Nobla A.A. Penziasa i R.W. Wilsona) laboratoriów badawczych amerykańskiej firmy Bell Telephone można śmiało uznać za przełomowy moment o nieocenionym znaczeniu dla rozwoju “młodej”, nowożytnej kosmologii. Potwierdzając empirycznie i niezaprzeczalnie istnienie przewidywanego wcześniej przez niektórych teoretyków (n.p. wybitnego fizyka Georga Gamowa) promieniowania, będącego reliktem wczesnego, gorącego Wszechświata (stąd zamiennie stosowana jest również często nazwa “promieniowanie reliktowe”), kosmologowie otrzymali w końcu do swych rąk potężne narzędzie, które nie dość, że było samo w sobie bardzo mocnym argumentem na rzecz poprawności hipotezy Wielkiego Wybuchu, to z czasem stało się szeroko otwartym “oknem na Wszechświat”, pozwalającym – wraz z rozwojem coraz bardziej zaawansowanych technologii pomiarowych – precyzyjniej poznawać strukturę i własności Wszechświata takiego, jakim był w “niemowlęcym wieku” ok. 380 tysięcy lat. Prezentowana powyżej grafika z pewnością choć po części uzmysławia, w jakim stopniu rozwijająca się przez dekady technika pozwoliła poznawać z coraz większą rozdzielczością rozkład promieniowania, dobiegającego do Ziemi ze wszystkich kierunków. U samej góry można zauważyć coś, co próbuje jako tako przypominać “mapę” – dane zebrane przez wspomnianych wcześniej Penziasa i Wilsona w zamierzchłych latach sześćdziesiątych to w zasadzie jednolity szum, przedzielony na dwie połowy przez “zakłócające” promieniowanie rejestrowane w płaszczyźnie Drogi Mlecznej. O ile kolejna, wykonana po wieloletniej przerwie, mapa rozkładu CMB zarejestrowana przez amerykańskiego satelitę COBE (COsmic Background Explorer) na początku lat 90-tych minionego wieku pozostawia ciągle wiele do życzenia i w bardzo niedokładny sposób prezentuje różnice w temperaturze promieniowania, o tyle legendarna już w sumie mapa, zaprezentowana z wielką pompą w dniu 11 lutego 2003 roku a wykonana przez również amerykańskiego satelitę WMAP (Wilkinson Microwave Anisotropy Probe) powala swoją rozdzielczością, pozwalając badaczom na snucie najrozmaitszych rozważań o naturze Kosmosu. A to jeszcze nie koniec – o ile satelita WMAP pozwalał na zarejestrowanie różnic w temperaturze promieniowania o wartości ok. 0,00001 Kelwina, o tyle wysłany wiosną tego roku przez Europejską Agencję Kosmiczną w przestrzeń kosmiczną satelita PLANCK (no w końcu Europa coś zdziałała) powinien umożliwić 50-krotne zwiększenie rozdzielczości w stosunku do poprzednika (kilka zaledwie dni temu instrument ten “otworzył oczy” po raz pierwszy, co wyszło podobno całkiem nieźle). Aby lepiej zrozumieć dalszą treść wpisu konieczne jest teraz – w dużym uproszczeniu charakterystycznym dla moich amatorskich wywodów – krótkie omówienie zawartości samej mapy, tych kolorowych, bezładnie rozsypanych na mapie plamek. Jak stwierdziłem wcześniej – CMB to mikrofalowe promieniowanie reliktowe (o temperaturze ok. 2,75 Kelwina), które dociera do Ziemi z każdej strony, przy czym biegnąca przez środek mapy gruby czerwony pas odpowiada promieniowaniu naszej Drogi Mlecznej. Promieniowanie to wypełnia “szczelnie” Wszechświat i uważa się, że jest to pozostałość po bardzo wczesnej fazie istnienia Wszechświata, okresie, w którym doszło do, mówiąc dość oględnie, oddzielenia się materii od promieniowania. Moment ten ma wielkie znaczenie choćby z tego jednego względu, że Wszechświat stał się wówczas “przezroczysty” dla promieniowania, po raz pierwszy w swej historii, umożliwiając promieniowaniu swobodną podróż przez przestrzeń. Na pierwszy pobieżny rzut oka, spoglądając na mapę CMB, można zauważyć na niej chaotyczną mozaikę zmierzających do dwóch przeciwstawnych barw – czerwonej i niebieskiej – plamek. Te odmienne barwy plamek to nic innego jak zarejestrowane przez instrumenty badawcze różnice w temperaturze promieniowania, inaczej – po chłopsku – mówiąc im bardziej dana plamka jest niebieska, tym większe odchylenie od średniej temperatury CMB “in minus”, w przypadku barwy czerwonej przeciwnie. Oczywiście mowa tutaj o mikroskopijnych wręcz odchyleniach – nie wolno nam tutaj zapomnieć, że w przypadku mapy WMAP chodzi o dziesięciotysięczne części Kelwina. Można by na podstawie tego – jak się okazuje błędnie – założyć, że tak niewielkie różnice w zasadzie nie mają żadnego znaczenia dla nikogo. Jednak dla kosmologów właśnie te odchylenia stanowią niezwykłą skarbnicę wiedzy – mapa CMB stanowi bowiem unikalne i niepowtarzalne odwzorowanie niezwykle małych różnic w gęstości materii w bardzo wczesnym Wszechświecie. Upraszczając sprawę można bowiem powiedzieć, że im gęściej materia zgromadzona, tym większa temperatura danego regionu Kosmosu. Tym samym dzięki CMB naukowcy mogą na własne oczy (no, powiedzmy) “zobaczyć”, jak bardzo jednorodny i izotropowy był Wszechświat w swym niemowlęcym wieku, jak niezmiernie małe były różnice w rozkładzie materii, niezmiernie małe, a jednak na tyle decydujące, że właśnie te różnice w gęstości stały się w końcu źródłem wszystkich struktur które obserwujemy we Wszechświecie. W 2004 roku naukowcy badający pieczołowicie rozkład CMB na podstawie danych uzyskanych przez satelitę WMAP odkryli coś zgoła mocno nieoczekiwanego – na południowej hemisferze, w gwiazdozbiorze Erydanu znaleźli obszar, który był “znacznie” chłodniejszy, niż teoretycznie powinien być - chodziło o wartość mniejszą od przeciętnej o “zaledwie” 70 mikrokelwinów, co prawda pozornie bardzo niewiele, jednak pozory jak to zwykle bywa całkowicie mylą – w przypadku CMB takie odchylenie było czymś niezwykłym. Co gorsza, prawdopodobieństwo wystąpienia takiego obszaru było znikomo małe, przy założeniu, że Wszechświat jest taki, jaki nam się zdaje. Wszystkie obszary CMB powinne, zgodnie z tym rozumieniem, mimo niewielkich odchyleń, przebiegać ten sam proces rozwoju i tak “chłodnego” miejsca na mapie CMB po prostu nie miało prawa być. I się zaczęło – astronomowie zaczęli pełni zapału prześcigać się w spekulacjach co do przyczyny takiej anomalii, którą nazwano finezyjnie “zimnym punktem” lub, zamiennie, “zimną plamą”. Pomysły, jakie wówczas się zrodziły, mogą przyprawiać o zawrót głowy: była mowa i i “superpustce”, kryjącej się za chłodnym obszarem, osiągającej niewyobrażalny rozmiar setek milionów lat świetlnych, jak i nawet o równoległym Wszechświecie. Już wówczas jednak pojawiły się również nieliczne głosy sceptyków, którzy wskazywali na bardzo “naturalne” pochodzenie “ciemnej plamy”. Zdaniem tych badaczy wszystkiemu winne były… metody statystyczne służące do analizowania mapy. Mijały lata i spekulacje nie cichły – nikt tak naprawdę nie wiedział, czym jest sławetna “zimna plama”. Tymczasem niedawno ukazała się praca badawcza duetu naukowców Raya Zhanga oraz Dragana Huterera z University of Michigan w Ann Arbor (USA), w której obaj panowie udowadniają, iż w istocie to właśnie statystyczne metody są wszystkiemu winne – w szczególności egzotycznie brzmiąca metoda “Spherical Mexican Hat Wavelet” (niestety nie mam pojęcia jak to przetłumaczyć, znalazłem u wujka Google tylko mętne pojęcia metody “kapelusza meksykańskiego”, coś o “falkach” no i mamy jeszcze sferyczność, nie podejmuję się chybionego z pewnością tłumaczenia całości), która stosowano do analizy obrazu CMB. To właśnie ta metoda wytwarza niejako “zimną plamę”, zakłamując w sumie uzyskiwane dane, bowiem przy zastosowaniu innych metoda plama ta w ogóle się nie ukazuje lub przynajmniej nie jest zimniejsza niż przeciętne inne obszary. Jest to o tyle ciekawe, że zmusza do zastanowienia nad ogólną wartością wyników zróżnicowanych badań naukowych (nie tylko kosmologicznych czy astronomicznych), które wykorzystując nierzadko niezwykle skomplikowane metody analizy mogą sobie literalnie “same strzelić gola”. Oczywiście “wpadka” związana z “zimną plamą” nie przekreśla całokształtu wiedzy o mikrofalowym promieniowaniu tła – nikt nie wykazał ani pewnie nie próbuje wykazać, że cała nasza wiedza o CMB jest po prostu wynikiem błędu, wskazuje to jednak na niezwykłą wagę pieczołowicie powtarzanych i potwierdzanych eksperymentów, dzięki którym możemy się upewnić, że nie popełniliśmy błędu. Spójrzmy więc po raz ostatni na sławetny “cold spot” – zależnie od preferencji hipotetyczną “superpustkę” we Wszechświecie lub ślad równoległej rzeczywistości – jako na artefakt metody statystycznej… Źródła: Link 1 Grafika 1 (u góry wpisu): Porównanie rozdzielczości map CMB na przestrzeni kilkudziesięciu ostatnich lat Źródło grafiki Credit:Wikipedia Grafika 2 (na dole wpisu): Tak, to właśnie złowroga “zimna plama”… Źródło grafiki Credit: PD-USGOV/Wikipedia Wyświetl pełny artykuł
  3. Jak niewyobrażalnie wielkiej siły trzeba, by zmusić olbrzymią gazową kulę, o masie przekraczającej setki tysięcy razy (biorąc pod uwagę i tak całkiem niepozorne na tle innych gwiazd nasze swojskie Słońce) masę naszej ciężkiej jak diabli Ziemi, do szaleńczego sprintu w przestrzeni międzygwiezdnej, z prędkościami sięgającymi milionów kilometrów na godzinę? Z pewnością nie będzie zaskoczeniem, kiedy niezwykle mądrze napiszę – niezwykle dużej, jednak astronomów takie banalne stwierdzenie siłą rzeczy nie może zadowalać. O ile wśród badaczy Kosmosu panuje zgoda co do potęgi oddziaływań, które muszą napędzać “hiperszybkie” gwiazdy (z angielska “hypervelocity stars”), o tyle o zgodności co do ich pierwotnej przyczyny trudno cokolwiek powiedzieć. W zamierzchłej przeszłości (w 2005 roku) astronomowie po raz pierwszy zaobserwowali w naszej Drodze Mlecznej gwiazdę tego niezwykle rzadkiego typu. Aby uzmysłowić sobie niezwykłość “hiperszybkich” gwiazd (skrótowo HVS) warto pamiętać, że “zwyczajowa” prędkość gwiazd w galaktykach oscyluje (zależnie od odległości od centrum danej galaktyki oraz innych uwarunkowań) wokół kilkuset tysięcy km/h, tymczasem gwiazdy HVS poruszają się z prędkością sięgającą bez większych problemów kilku milionów km/h (o gwieździe neutronowej, której prędkość oszacowano na niespełna 5 mln km/h, pisałem wieki temu tutaj). Co jeszcze ciekawsze – wiele zależy wprawdzie zależy tutaj od różnych niewiadomych, można jednak śmiało na podstawie obserwacji zakładać, że na milion gwiazd w galaktyce przypada niespełna… 1 gwiazda HVS; inaczej mówiąc – są to obiekty niezwykle rzadkie. Ze względu na ich raczej marginalne znaczenie i niewielką szansę na ich wytropienie w gąszczu milionów gwiazd zachowujących się względnie spokojnie jeszcze zupełnie niedawno astronomowie nie podejmowali świadomych prób ich poszukiwania ani tym bardziej analizy. Wspomniane wyżej odkrycie pierwszej gwiazdy HVS zaskoczyło astronomów, jednak nie zmieniło panującego szeroko przekonania, że to pojedynczy incydent i kolejne odkrycia będą zdarzać się bardzo rzadko. Okazuje się jednak, że pesymiści racji nie mieli – w chwili obecnej znamy już 17 takich gwiazd w Drodze Mlecznej, przy czym postęp jest rzeczywiście spory – w końcu niespełna dwa lata pisząc jeden z moich wpisów wspominałem, że gwiazd takich znaleziono dziesięć. Nic dziwnego więc, że gwiazdy HVS z czasem zaczęły budzić rosnące zainteresowanie badaczy. Nie inaczej stało się również w przypadku grupy badaczy zza naszej zachodniej granicy, którzy – w sumie przez przypadek, jak to często bywa – natknęli się niedawno na gwiazdę HVS, która stanowi nie lada wyzwanie dla teoretyków, próbujących usilnie tworzyć hipotezy służące zrozumieniu owej tajemniczej siły, napędzającej szaleńczo gnające przez przestrzeń gwiazdy. Ulrich Heber, Norbert Przybilla (obaj z Instytutu Astronomicznego przy Uniwersytecie Erlangen-Nürnberg) wspólnie z Fernando Nieva (Max-Planck-Institut für Astrophysik w Garching), bo to o tych panach właśnie mowa, uzyskali dostęp do 2,2-metrowego teleskopu w obserwatorium La Silla na odległej chilijskiej pustyni, będącego jednym z teleskopów kontrolowanych przez organizację ESO (European Southern Observatory, Europejskie Obserwatorium Południowe z siedzibą w… Garching), by tym sposobem dokładniej przyjrzeć się naprawdę frapującej gwieździe. Na gwiazdę o dumnej nazwie HD 271791 Heber z kolegami natknęli się wcześniej przypadkowo podczas szperania w olbrzymich zasobach zebranych w trakcie przeglądu nieba “Sloan Digital Sky Survey” (SDSS), co ciekawe – poszukiwali tam pierwotnie bardzo rzadkiego podrodzaju gwiazd błękitnych. Gwiazda HD 271791 skutecznie odwróciła uwagę naukowców od celu ich poszukiwań – okazało się bowiem, że gwiazda ta nie tylko jest rasowym przedstawicielem klasy gwiazd HVS, jakby tego jeszcze było mało – zadaje kłam powszechnie akceptowanej hipotezie o źródle jej nadmiernej prędkości. Gwiazda HD 271791 porusza się przez Galaktykę z prędkością równą ok. 2,2 milionów kilometrów na godzinę. Jak na gwiazdę, której masa równa jest ok. 11 masom naszego Słońca, to całkiem sporo, choć nie jest to wynik służący do bicia rekordów świata (albo, uściślając, Wszechświata). Jednak to nie sama prędkość czyni z HD 271791 obiekt interesujący – znakomita większość odkrytych dotąd gwiazd HVS można było bowiem w jakiś sposób powiązać z hipotetyczną supermasywną czarną dziurą, tkwiącą w centrum Drogi Mlecznej, tymczasem HD 271791 zaobserwowano na rubieżach Galaktyki. W tym miejscu dochodzimy do sedna problemu – do tej tajemniczej siły, która może rozpędzić gwiazdę do tak wielkich prędkości. Ponieważ nie jest zadaniem łatwym gwieździe nadać ogromną prędkość, wymagane do tego są co najmniej ponadprzeciętne “zdolności”. Zakłada się obecnie, że głównym winowajcą w tym przypadku są supermasywne czarne dziury w jądrach galaktyk, których oddziaływanie grawitacyjne jest na tyle potężne, by nawet sporej wielkości gwiazdę (przy sprzyjających warunkach) potraktować jak przysłowiowy kamień i wyrzucić ją w określonym kierunku jak z procy. Wydaje się to sprawdzać w przypadku większości gwiazd HVS dotąd poznanych, jednak kilka z nich stanowi prawdziwy problem – aby uszczknąć energii czarnej dziurze konieczne jest, by zbliżyć się do niej na rozsądną odległość. Gwiazda HD 271791, jak już wspomniałem wcześniej, została zaobserwowana na obrzeżach Drogi Mlecznej, na jej niestrudzonej i nieodwołalnej drodze ku porażającej pustce przestrzeni międzygalaktycznej. Można by jednak śmiało zakładać, że nic z tego tak naprawdę nie wynika – w końcu nic nie wyklucza tego, że jakiś czas temu gwiazda zbliżyła się do czarnej dziury w jądrze Galaktyki. Heber i koledzy postanowili to sprawdzić i po intensywnych badaniach uzyskali prawdopodobną “trasę”, po jakiej porusza się wspomniana gwiazda – wiele wskazuje na to, że gwiazda ta nigdy w pobliżu wielkiej czarnej dziury się nie znalazła. Co więcej – analiza chemiczna widma gwiazdy wykazała, że jej zewnętrzne warstwy są nadzwyczajnie bogate w krzem, pierwiastek względnie rzadki, powstający w zasadzie tylko w procesie wybuchu supernowej. Zespół niemieckich badaczy rozważa co prawda możliwość, że gwiazda, będąca kiedyś składnikiem układu podwójnego, została odrzucona z gigantyczną prędkością przez wybuchającego partnera, jednak, jak mówi Heber, prawdopodobieństwo tego zdarzenia wydaje się niewielkie. Mamy więc spory problem – skoro to nie czarna dziura w centrum Drogi Mlecznej to co? Ciekawą propozycję wysuwa tutaj inny niemiecki astronom – Matthias Steinmetz z Astrophysikalisches Institut Potsdam zauważył pewną dziwną zależność między większością znanych nam gwiazd HVS - zaobserwowano je w jednym gwiazdozbiorze, mianowicie gwiazdozbiorze Lwa. Podobna lokalizacja skłoniła Steinmetza oraz jego zespół do podjęcia się frapującej symulacji komputerowej – na podstawie tej symulacji Steinmetz wysuwa propozycję, która może wyjaśnić tajemnicze pochodzenie gwiazd HVS. Przed ok. 150 milionami lat, w omawianym regionie Drogi Mlecznej, doszło wedle symulacji do “lokalnej” katastrofy – jedna z okrążających Drogę Mleczną galaktyk karłowatych zbliżyła się niebezpiecznie blisko do Galaktyki, wpadając dosłownie na jej rubieże. Ponieważ proces ten nie należy do najspokojniej przebiegających można śmiało założyć, że część gwiazd, zarówno zadomowionych w Drodze Mlecznej, jak i przybywających z gościnną wizytą, doznało sporych przyspieszeń – może to być całkiem niezłym wytłumaczeniem szalonych prędkości znanych nam gwiazd HVS. Jakkolwiek by nie było, trzeba przyznać, że gwiazdy HVS stanowią i stanowić będą naprawdę fascynujące zagadnienie – wyobraźmy sobie olbrzymią płonącą kulę gazu, przesuwającą się po niebie z takimi prędkościami – choć taki widok nigdy nam pewnie dany, musi to być coś, czego nie da się zapomnieć. Źródła: Link 1 Link 2 Grafika: Schematyczne przedstawienie pozycji i kierunku “lotu” gwiazdy HD 271971 Źródło grafiki Credit: MPA / ESO Wyświetl pełny artykuł
  4. Podobno tylko, nie przymierzając, krowy nie zmieniają nigdy poglądów. Swego czasu wziąłem głos w namiętnej dyskusji na zaprzyjaźnionym blogu, odmawiając zjawisku tzw. mikroblogowania wszelakiej racji bytu na bożym świecie. Tak też wówczas naprawdę myślałem, ale ponieważ ową przysłowiową krową być bym jednak na wieki nie chciał a i zaświtał mi w ostatnich dniach interesujący pomysł na wykorzystanie tego trendu do swych niecnych celów, z prawej, pod rzeczywistym zdjęciem autora tej strony pojawia się nowy element – ramka niejakiego BLIP’a, na którym to konto dziś założyłem w celach testowych, że tak powiem. Jakie to właściwie cele? Wiele rzeczy w świecie się dzieje, których z prozaicznych powodów nie jestem w stanie omówić tutaj – jeden z tych powodów to po prostu brak czasu na rozpisywanie się o wszystkim, co człeka zajmuje, drugi, równie ważny, to ten, że Cytadela to mimo wszystko blog o dość jasno sprecyzowanej tematyce i kryklanie na jego łamach o wszystkim i niczym nigdy nie było moim zamiarem. Można by powiedzieć, że od tematów pobocznych jest Piwnica – racja, nie zaprzeczę, jednak blog raz na jakiś czas ożywa na wpis albo i dwa, następnie znów zamiera – nie mam po prostu wystarczająco dużo silnej woli, by pisać o czymś poza tematami “okołokosmicznymi”. Z tego względu BLIP zdaje mi się idealny (teoretycznie, bo jeszcze nic na nim nie zdziałałem) – jest to platforma, którą docelowo chciałbym wykorzystywać do wrzucania na niej linków do ciekawych artykułów prasowych, multimediów lub też innych cudactw, które mogą – choć nie zawsze muszą – mieć luźniejszy (lub w ogóle go nie mieć) związek z tematyką Cytadeli a które nijak nie dadzą się upchać na niej samej (nie wydaje mi się dobrym pomysłem tworzenie wpisów, które byłyby listą linków tylko). Kieruję ten wynalazek do wszystkich osób, które już jakiś czas śledzą Cytadelę, wyrobiły sobie pewną opinię o zainteresowaniach jej autora i są zdania, że w jakiś sposób mogło by je zainteresować to, co zajmuje jego samego. Czy pomysł wypali – nie mam pojęcia – jeśli nie, to po prostu w ciszy dodatkowy element strony zniknie z paska… Interesowałby mnie również odzew z Waszej strony, czy takie fanaberie mają jakikolwiek sens… Dodatkowa uwaga to taka, że – niestety? – przypuszczalnie większość wrzucanych linków będzie do artykułów w językach obcych (z naciskiem na angielski), co mam nadzieję nie będzie problemem. Wyświetl pełny artykuł
  5. Tym razem trochę nietypowo, nawet jak na zbiór dziwacznych zdjęć, tworzących “wizualną serię” Cytadeli – macie tutaj do czynienia z najprawdziwszą premierą, bo prezentowane poniżej prymitywnie sklecone “coś” zostało po raz pierwszy wykonane w oparciu o rzadkie talenty graficzne autora. Oczywiście mam na myśli wąską, białą pionową kreskę przebiegającą przez środek tego arcydzieła, prowadzącą do jak najbardziej poprawnej konkluzji o połączeniu w tym przypadku ze sobą dwóch osobnych zdjęć, nie sam fakt wykonania zdjęć lub ich “wysmażenia” w Photoshopie czy podobnym narzędziu. Wiemy już więc, że do czynienia mamy z zestawieniem obok siebie dwóch fotografii, pozornie, na pierwszy rzut oka nie mających ze sobą wiele wspólnego. Jak to zwykle jednak bywa – pierwsze wrażenie jak najbardziej myli – oba zdjęcia to w zasadzie “prawie” to samo, jednak, jak wiemy, “prawie” nierzadko czyni wielką różnicę. Koniec z tą przygłupią tajemniczością – oba zdjęcia ukazują gromadę kulistą NGC 5139, znaną lepiej pod inspirującą nazwą Omega Centauri. Gromada ta, zawierająca szacunkowo ok. 10 mln gwiazd, to jedna z najbliższych Ziemi gromad kulistych (jej odległość to ok. 16 tysięcy lat świetlnych), jednocześnie to największa i najjaśniejsza gromada w Drodze Mlecznej z punktu widzenia ziemskiego obserwatora. Można powiedzieć – wspaniale, a jakże – jednak w jaki w sumie sposób uzasadnia ten fakt prezentację jej dwóch względnie mało porywających zdjęć obok siebie? Otóż to, otóż to – oba zdjęcia wykonał jeden i ten sam teleskop kosmiczny Hubble’a, jednakże historia ich powstania jest zupełnie inna – i to ma tutaj największe znaczenie. Kilka dni temu zaledwie (09. września) amerykańska agencja kosmiczna NASA zorganizowała konferencję prasową, na której z niekłamaną dumą zaprezentowała po raz pierwszy szerszemu ogółowi dumnie strzeżoną tajemnicę – pierwsze zdjęcia wykonane przez teleskop po zakończeniu misji serwisowej z maja tego roku (pokazywałem już wprawdzie wieki temu jedno zdjęcie, jednak było to zdjęcie wykonane zanim cały sprzęt zafunkcjonował pełną parą). Zdjęcie po lewej to zdjęcie wykonane przez staruszka Hubble’a w 2002 roku, jak przypuszczam na miarę jego ówczesnych możliwości (ponieważ nie chcę paraliżować transferu Cytadeli zdjęcie jest cokolwiek niewielkie i bardzo kiepskiej jakości – znacznie lepsze można zobaczyć tutaj, przy czym ostrzegam, zdjęcie ma wielkość 6000 x 4000 pikseli!), natomiast zdjęcie po prawej to jedno z pierwszych “nowych” zdjęć Hubble’a – to centralny obszar gromady kulistej, z czego powyżej prezentowany jest zaledwie wycinek (tutaj uwaga podobna do powyższej odnośnie transferu – oryginalne zdjęcie, trochę mniejsze – 2900 x 3500 pikseli, jest dostępne tutaj). Zanim zostanę zakrzyczany, że dopuściłem się kłamliwej manipulacji by osiągnąć odpowiedni efekt, słowo uzasadnienia – to prawda, że po lewej mamy do czynienia z całą gromadą, natomiast po prawej tylko maleńkim wycinkiem, to prawda, że po zestawieniu ze sobą obu zdjęć w “pełnym” formacie różnice są o wiele słabiej widoczne – to wszystko prawda, jednak nie o to do końca chodzi – swego czasu, kilka lat temu, NASA poważnie zastanawiała się nad “uśmierceniem” teleskopu poprzez spalenie jego truchła podczas spadania w atmosferze, dopiero po wielkiej wrzawie wysłano misję serwisową. Różnica w możliwościach teleskopu po naprawie jest naprawdę widoczna gołym okiem (na co przykładem niech będą kolejne zdjęcia porównawcze, takie jak to lub to), myślę więc, że nikt nie powinien żałować tej decyzji – nie wspominam o naukowcach, którzy przez kilka kolejnych co najmniej lat będą uzyskiwać zapierające dech w piersiach zdjęcia dzięki temu teleskopowi. Wyświetl pełny artykuł
  6. Nic nie może trwać wiecznie – ten banalny w zasadzie truizm odnosi się do wszystkiego, zarówno tego, co nas otacza, jak i nas samych, nie inaczej sprawy mają się również z obiektami kosmicznymi, nawet takimi, które pozornie zdają się istnieć bez końca – mimo że procesy zachodzące we Wszechświecie w niewyobrażalnym niemal stopniu przekraczają skale czasowe, do których jesteśmy przyzwyczajeni żyjąc na naszej maleńkiej planetce, kres jest mimo to nieodłączną cechą istnienia. I choć czasem muszą minąć niezliczone miliardy lat, żywot każdego najodporniejszego nawet kosmicznego matuzalema w końcu się z pewnością kiedyś zakończy. Można co prawda dyskutować wytrwale o największym ze znanych nam obiektów – Wszechświecie jako całości – który teoretycznie może chyba, choć mocno opustoszały i ciemny, istnieć bez końca, jednak wyjątek ten zdaje się tylko potwierdzać generalną regułę. W najbardziej widowiskowy sposób “schodzą” z tego materialnego świata najprawdopodobniej supernowe – niektóre gwiazdy, których zegar tyka nieprzerwanie przez miliardy lat, osiągają w końcu pewien określony graniczny wiek, po przekroczeniu którego świat nie będzie już dla nich taki jak przedtem – ze względu na nieubłagane procesy zachodzące w ich wnętrzu, wymuszane z kolei przez prawa fizyki, stają się przez krótki czas najjaśniejszymi obiektami wśród otaczających je miliardów gwiazd, jasność niektórych z nich jest nawet większa od całkowitej jasności macierzystej galaktyki. Supernowe dzielimy na kilka różniących się pod względem rodzaju gwiazd, które przechodzą w zaświaty, oraz mechanizmu, prowadzącego do wybuchu, klas czy ewentualnie typów – nas w tym przypadku interesuje jeden z nich, mianowicie typ Ia. O supernowych typu Ia pisałem już kilkakrotnie, ostatnio zupełnie niedawno – wystarczy przypomnieć, że supernowe Ia to wybuchowe fajerwerki pojawiające się w efekcie zbyt wielkiego przyrostu masy białego karła, który “dokarmia” się materią swego partnera w podwójnym układzie gwiazdowym. Biały karzeł, który sam jest pozostałością po średniej masy gwieździe, która odrzuciła zewnętrzną wodorową powłokę, jest obiektem bardzo niewielkim – jego wielkość porównywalna jest z naszą Ziemią, można więc sobie łatwo wyobrazić, że spory ścisk tam panuje – gwiazda bowiem mimo tej mikroskopowej jak na gwiazdę wielkości ma masę równą przeciętnie trochę ponad połowie masy Słońca. Samotny biały karzeł to nic specjalnie ciekawego – często jednak białe karły występują w układach podwójnych, a to zmienia zupełnie postać rzeczy. Ze względu na sporą grawitację, jaka towarzyszy białemu karłowi, gwiazda ta jest w stanie dosłownie “okradać” towarzysza – zasysa z niego materię, powiększając przy tym swoją własną masę. O ile wspomniałem wcześniej o przeciętnych białych karłach (masa ok. 0,6 masy Słońca) to biały karzeł “na sterydach” potrafi nawet podwoić poprzez grabież swoją masę – wszystko idzie w miarę dobrze do momentu, gdy masa gwiazdy przekroczy 1,44 mas Słonecznych (zwie się to granicą Chandrasekhara), wówczas gwiazda staje się grawitacyjnie niestabilna i wydarzenia zachodzą w lawinowym tempie – dochodzi do zapaści grawitacyjnej gwiazdy i cały węgiel, na którego “spalenie” biały karzeł był dotąd zbyt “lekki”, przechodzi reakcję fuzji jądrowej za jednym zamachem – pojawia się niezwykle jasny obiekt, zwany supernową Ia. To opis teoretyczny, mocno zasiedziały wśród astrofizyków, mimo to dotąd scenariusz ten nie został nigdy w pełni zaobserwowany – białe karły to niespecjalnie jasne gwiazdy i o tym, co się z nimi stało dowiadujemy się zazwyczaj po zaobserwowaniu samej supernowej. Z tego względu niezłym rarytasem dla każdego astronoma jest z pewnością zaobserwowanie białego karła, który znajduje się w fazie “tuż przed wybuchem”, potwierdzając tym samym prawidłowość teoretycznego opisu. Szczęście, jak się zdaje, dopisało w końcu grupie naukowców z Włoch, kierowanej przez Sandro Mereghetti’ego z L’Istituto Nazionale di Astrofisica w Mediolanie. On i jego koledzy, korzystając z dobrodziejstw teleskopu kosmicznego XMM-Newton, zainstalowanego na orbicie przez Europejską Agencję Kosmiczną (ESA), poddali drobiazgowym obserwacjom układ podwójny o raczej nieciekawej nazwie RX J0648.0-4418, który skądinąd nie jest jakąś nowością w świecie astronomów – gwiazdę HD 49798, jasnego podkarła, znamy już względnie długo, od 1997 roku astronomowie wiedzieli również, że gwiazda ta stanowić musi składnik układu podwójnego, gdyż w pobliżu tej gwiazdy zarejestrowano źródło promieniowania rentgenowskiego. Dopiero jednak włoski zespół, wykorzystując zaawansowaną technologię na pokładzie kosmicznego teleskopu był w stanie dokładniej sprecyzować, co kryje się za tym tajemniczym źródłem. Na podstawie odpowiednich wahań w intensywności promieniowania rentgenowskiego naukowcy doszli do wniosku, że owym źródłem jest biały karzeł o – niebagatelnej jak na tę klasę obiektów - masie równej co najmniej 1,2 mas Słońca, obracający się wokół swej osi w ultrakrótkim czasie 13 sekund! Zostawmy jednak na boku niezwykłą prędkość rotacji – porównując masę tego karła z opisanym wcześniej przeze mnie procesem łatwo wywnioskować, że ów biały karzeł naprawdę bliski jest momentu, w którym nastąpi wielkie “bum” i na niebie pojawi się kolejna supernowa. Niestety wszyscy, którzy już pakują się i wyjeżdżają na wieś, by tam w spokoju obserwować niezwykłe widowisko, mogą rozpakować swoje rzeczy z powrotem. “Niedługo” w astrofizyce to pojęcie bardzo względne – najprawdopodobniej biały karzeł przekroczy granicę do swej niestabilności w ciągu kilku najbliższych… milionów lat, co stawia pod znakiem zapytania możliwość, że jakakolwiek istota żywa zobaczy spektakl. Niemniej jednak w skalach astronomicznych to rzeczywiście zaledwie “moment” – nigdy jeszcze nie zaobserwowano białego karła, który byłby tak bliski zagłady. Warto też wspomnieć, że co prawda ludzie jako tacy nie będą mieli tej przyjemności oglądać fascynujący wybuch gwiazdy, jednak gdyby – teoretycznie – nastały po nas inne, rozsądniejsze istoty, będą miały niezłe widowisko: zgodnie ze skrupulatnymi obliczeniami naukowców wybuch karła powinien na Ziemi zostać zaobserwowany prze “każdego”, widoczny bardzo dobrze w dzień i o jasności mniej więcej Księżyca w pełni! Cóż, kto ma czas, może poczekać, inni muszą obejść się smakiem. Ważniejsze jednak w tej całej historii jest to, że w końcu zaobserwowano białego karła, który zdaje się ewoluować zgodnie z teoretycznym opisem, który tak długo czekał na empiryczne potwierdzenie. Ważniejsze to o tyle, że supernowe Ia stanowią tzw. “świece standardowe” w kosmologii i to na podstawie ich obserwacji wysunięto swego czasu wnioski o przyspieszającej ekspansji Wszechświata. Skoro więc obiekty te są tak ważne w przypadku tak fundamentalnych pytań, oczywiste jest, że każdy nowy szczegół z nimi związany, jaki poznamy, ma swoje znaczenie. Praca naukowców na portalu “Science” (płatna!) Źródła: Link 1 Link 2 Link 3 Link 4 Link 5 Link 6 Link 7 Link 8 Link 9 Wyświetl pełny artykuł
  7. Niezależnie od tego, jak bardzo zróżnicowane mogą być poglądy naukowców odnośnie kontrowersyjnych elementów tej wielkiej układanki, jaką bez wątpienia jest Wszechświat jako taki, jedno wydaje się być od wielu lat w zasadzie pewne, a zażarte kłótnie dotyczą tylko pomniejszych niuansów – ten Wszechświat, jakim go znamy, nie istniał wiecznie i w pewnym bardzo, bardzo odległym momencie w przeszłości w trakcie wydarzenia określanego obiegowym zwrotem “Wielki Wybuch” doszło do jego kreacji. Można co prawda dyskutować o hipotetycznej cykliczności tego procesu (według kształtującej się w ostatnich latach alternatywnej teorii Wielki Wybuch to zjawisko, do którego doszło już nieskończenie wiele razy w przeszłości), trudno jednak w gąszczu fascynujących czasem pomysłów dojrzeć taki, zgodnie z którym sam Wielki Wybuch (w różnych wersjach) by się nie odbył. Skoro ogromna większość naukowców zgadza się co do tego, że Wielki Wybuch jest faktem, musimy równocześnie zaakceptować fakt, że z bezkształtnej, jednolitej “zupy” promieniowania wyłonił się z czasem znany nam dobrze obraz Wszechświata. Nietrudno zauważyć, że nie mogło najprawdopodobniej dojść do tego w mgnieniu oka – aby z pomarszczonego kwantowymi fluktuacjami oceanu materii wyłoniły się miriady galaktyk zawierające nierzadko po setki miliardów lat niezbędny był co najmniej jeden czynnik – czas. Choć ewolucja galaktyk nie jest zbyt dobrze poznana i nie mamy dotąd uniwersalnego opisu procesów, który doprowadziły do powstania pierwszych galaktyk Wszechświata przed miliardami lat, zgadzamy się wszyscy co do tego (co sugerują również dane obserwacyjne), że pierwsze galaktyki pojawiły się po setkach milionów lat od Wielkiego Wybuchu. Rozwój technologiczny pozwala nam dostrzegać coraz dalsze obszary Wszechświata, co równoznaczne jest coraz bardziej zaawansowanej podróży w czasie do czasów, gdy Wszechświat był u początków swego istnienia. Rejestrując bowiem niezwykle słabe światło galaktyk odległych o wiele miliardów lat świetlnych przyglądamy się bowiem jednocześnie pierwszym galaktykom Wszechświata. Logicznie rozumując można by się spodziewać, że im dalej w głębiny Kosmosu zaglądamy, tym mniejsze i młodsze obiekty powinniśmy odkrywać – nie zawsze jednak wygląda to tak w rzeczywistości i tym samym mnożą się frapujące pytania odnośnie ewolucji galaktyk. W najbliższych dniach na stronach fachowego pisma “Monthly Notices of the Royal Astronomical Society” opublikowana zostanie praca badawcza japońskiego zespołu, w którym główne skrzypce grał niejaki dr Tomotsugu Goto z National Astronomical Observatory of Japan (NAOJ) / University of Hawaii. Dr Goto wraz z kolegami dostąpili niewątpliwej przyjemności korzystania z potężnego teleskopu Subaru, którego zwierciadło główne ma niebagatelne 8,2 metra średnicy (czyniąc przy okazji teleskop największym na świecie w kategorii teleskopów wykorzystujących pojedyncze zwierciadło jako zwierciadło główne). Nic jednak w tym dziwnego, gdyż sam teleskop, zbudowany w ramach Mauna Kea Observatory na Hawajach, jest flagowym “pancernikiem” wspomnianej wyżej instytucji NAOJ, do której sam Goto i koledzy przynależą. Teleskop ten w ostatnim czasie został zmodernizowany – otrzymał nowoczesne, bardzo czułe detektory CCD, które otworzyły przed korzystającymi z niego astronomami nowe możliwości. Naukowcom nie trzeba tego powtarzać dwa razy – dr Goto wraz z zespołem skwapliwie skorzystali z tych innowacji by przeprowadzić obserwacje, których realizacja wcześniej nie była możliwa. Wykorzystali ogromne zwierciadło Subaru do obserwacji najodleglejszych rubieży Wszechświata w poszukiwaniu młodych, formujących się dopiero galaktyk. Pamiętając o tym, co napisałem na początku wpisu, musieli pewnie nieźle się zdziwić, gdy w odległości ok. 12,8 miliarda lat świetlnych od Ziemi (czyli – licząc od Wielkiego Wybuchu – zaledwie 900 mln lat po tym wydarzeniu) zaobserwowali galaktykę, której rozmiar porównywalny jest z rozmiarem naszej, wcale niemałej, Drogi Mlecznej. Nie tylko jednak zaskakująca wielkość młodej galaktyki powoduje, że obiekt ten wart jest zainteresowania – w centrum nowo odkrytej galaktyki zdaje się bowiem znajdować supermasywna czarna dziura, której masa równa jest – bagatela – masie co najmniej ok. 1 miliarda naszych Słońc. W związku z tym robi się naprawdę ciekawie – w jaki sposób, w ciągu względnie krótkiego czasu, jaki naukowcy dają na rozwój pierwszym galaktykom, obserwowany obiekt urósł do tak wielkich rozmiarów i do tego w jaki sposób “wyhodował” wewnątrz siebie równie gigantyczną czarną dziurę? Zarejestrowana przez japońskich badaczy galaktyka stała się zarazem najodleglejszą znaną nam galaktyką, która “wyposażona” jest w supermasywną czarną dziurę. Nie bez powodu odkrycia tej galaktyki dokonano właśnie przy zastosowaniu zmodernizowanego teleskopu Subaru – najnowocześniejsze detektory CCD pozwoliły na pokonanie największego problemu związanego z takimi obserwacjami: nie dość, że tak odległe obiekty są ledwo widoczne dla najpotężniejszych instrumentów, to jeszcze w przypadku supermasywnej czarnej dziury materia wokół niej zgromadzona generuje tak oślepiający strumień promieniowania, iż niezwykle trudno jest dostrzec jakiekolwiek szczegóły obiektu, w którym czarna dziura rezyduje. Nowoczesny sprzęt pozwolił jednak na pokonanie tej trudności – znacznie podwyższona w stosunku do starszych generacji czułość instrumentów pozwoliła na wyłowienie szczegółów dotyczących galaktyki, zawierającej monstrualną czarną dziurę (analiza danych pozwoliła oszacować na 30% udział samej galaktyki w świetle rejestrowanym, 60% to efekt aktywności czarnej dziury). Jak wspomniałem na początku nie wiemy zbyt wiele o genezie pierwszych galaktyk, jeszcze mniej wiadomo o tym, w jaki sposób dochodziło do powstawania ogromnych czarnych dziur w ich jądrach. Odkryta przez japońskich astronomów galaktyka zdaje się całe zagadnienie jeszcze bardziej zaciemniać – mamy do czynienia z galaktyką bardzo dużą, zawierającą wielką czarną dziurę, oba obiekty musiał natomiast uformować się w rekordowym tempie, bo w końcu mówimy o czasie, gdy Wszechświat miał ok. 1/16 obecnego wieku. Japońscy astronomowie mają nadzieję, że przy pomocy zaawansowanego technologicznie oprzyrządowania uda im się zaobserwować więcej równie nietypowych galaktyk, co w końcu może pomóc badaczom w rozwinięciu hipotez o “dziecięcym” Wszechświecie i procesach, w ramach których Wszechświat stał się równie pięknym tworem, jaki możemy współcześnie obserwować. Źródła: Praca zespołu dr. Goto (format PDF) Link 1 Link 2 Link 3 Link 4 Link 5 Link 6 Link 7 Link 8 Link 9 Link 10 Grafika:Galaktyka QSO (CFHQSJ2329-0301), najodleglejsza znana nam galaktyka z supermasywną czarną dziurą. Jasna żółta plama w środku to supermasywna czarna dziura, czerwone “okolice” wskazują na obecność galaktyki-gospodarza (kolorystyka dodana w trakcie obróbki) Źródło grafiki Credit: Tomotsugu Goto, University of Hawaii Wyświetl pełny artykuł
  8. Jak przysłowiowy bumerang wracamy do zagadnienia tzw. “ciemnej energii” – tajemniczego składnika Wszechświata, który odpowiedzialny jest za przyspieszającą jego ekspansję, stwierdzoną obserwacyjnie ponad 10 lat temu. Nie pierwszy raz pozwolę sobie w tym kontekście zauważyć, że “ciemna energia” nie jest ulubieńcem wszystkich kosmologów bez wyjątku i dyskusje wokół jej realnej egzystencje trwają w najlepsze, z tego względu dzisiejszy wpis będzie jak najbardziej spekulatywnym rozważaniem i usilnie proszę wszelakiej maści tzw. “fachowców” (którzy i tak zmarnują swój cenny czas czytając równie nieestetyczne bzdury) o wstrzemięźliwość w dawkowaniu zarzutów związanych z wymyślaniem głupot i bredzeniem niepopartym żadną, choćby szczątkową wiedzą. Jak się rzekło - z “ciemną energią” nie każdemu jest po drodze i od lat zewsząd pojawiają się najróżniejsze próby zaatakowania tej hipotezy, zmierzające do zbudowania takich modeli kosmologicznych, w których ten element okazałby się po prostu zbędny. Nietrudno zrozumieć, patrząc z punktu widzenia szaraczka interesującego się na miarę możliwości swego ograniczonego umysłu Wszechświatem, że ma to z pewnością rozsądne uzasadnienie – “ciemna energia” zdaje się być tworem naprędce “zmajstrowanym” przez zatrwożonych teoretyków, którzy nie przewidzieli wcześniej możliwości, iż ekspansja Wszechświata może nabierać tempa. Z tego względu w równaniach kosmologicznych upchano na siłę nowy czynnik, dopasowując jego właściwości do rzeczywistych danych obserwacyjnych – kryzys został zażegnany i świat (a w tym wypadku cały Wszechświat) znów był w porządku. Mocno naciągana argumentacja na rzecz “ciemnej energii” niepokoi jednak nie tylko co poniektórych obserwatorów ewolucji współczesnej kosmologii – wśród samych kosmologów sporo jest takich, którzy kręcą nosem na nie całkiem elegancki sposób, w jaki ów arcyważny składnik Wszechświata pojawił się w naukowych rozważaniach. Niektórzy z nich idą nawet dalej i przekuwając swój niesmak w czyny proponują zupełnie odmienne, alternatywne wyjaśnienia dla rozbuchanej kosmicznej ekspansji. Blake Temple (University of California w Davis, USA) oraz Joel Smoller (University of Michigan, USA) z pewnością do takich nonkonformistycznych naukowców należą – w minionym miesiącu na łamach amerykańskiego wydawnictwa “Proceedings of the National Academy of Sciences” ukazała się frapująca praca teoretyczna obu badaczy, która stawia wielki znak zapytania nad samym założeniem o istnieniu czegoś takiego jak “ciemna energia”. Obaj panowie pracowali nad rozwinięciem pewnego “zestawu” równań, które wyprowadzili z Ogólnej Teorii Względności Einsteina. Mozoląc się nad tak zapewne niewdzięcznym zadaniem doszli w końcu do zaskakującego (może i nie ich samych, jednak postronnych obserwatorów z pewnością) wniosku, że cała wspomniana na początku wielka afera związana z akceleracją ekspansji Wszechświata może być niczym więcej, jak tylko efektem złośliwego złudzenia. Z opracowanych przez nich równań wyłoniła się fascynująca możliwość – tuż po osławionym Wielkim Wybuchu mogło dojść do wytworzenia się “ekspandujących fal” (w oryginale “expanding waves”), bliżej niestety nie określonych w tekście źródłowym “zmarszczek” czasoprzestrzeni, które rozprzestrzeniały się następnie w całym Wszechświecie. O naturze tych “fal” nie będę się wypowiadał, bo jak się rzekło tekst źródłowy unika jak ognia ich szczegółowego scharakteryzowania – jednym z powodów może być z pewnością fakt, że wszystko rozbiło by się o mocno abstrakcyjną dla osób postronnych matematykę; zaryzykuję jednak przypuszczenie, że pewnie chodzi o coś zbliżonego do “fal grawitacyjnych”, jakich istnieje OTW przepowiada, lecz jakieś bliżej niezidentyfikowanego, odmiennego rodzaju. Jakie by jednak te “fale” być nie miały, ich hipotetyczne istnienie miałoby daleko idące konsekwencje – zgodnie z wypowiedzią obu badaczy mogłoby zmusić ogół kosmologów do zmiany wizji dotyczącej domniemanego składu Wszechświata. Owe “fale” można sobie wyobrazić jako zjawisko analogiczne do fal, powstających w zbiorniku wodnym po wrzuceniu do niego kamienia, przy czym w wersji badaczy kamieniem byłby Wielki Wybuch a wodą – czasoprzestrzeń. Zakładając, że Wielkiemu Wybuchowi towarzyszyło powstanie takich “fal” odległe galaktyki, które obecnie obserwujemy i na podstawie których wnioskujemy o przyspieszaniu ekspansji Kosmosu, zostałyby niejako “podrzucone” i “przesunięte” do odmiennych pozycji, niż można by się spodziewać na podstawie standardowego modelu Wielkiego Wybuchu, który nie zakłada istnienia przyspieszonej ekspansji. Z tego względu obserwowane położenia odległych galaktyk byłyby efektem “pozornego” przyspieszania Wszechświata, co wykluczałoby konieczność istnienia “ciemnej energii”. Wszystko pięknie i ładnie, jak dotąd – jednak aby dorzucić łyżkę dziegciu do tej kosmologicznej beczki miodu trzeba przytomnie zauważyć, że każda szanująca się hipoteza naukowa musi zgadzać się z danymi obserwacyjnymi i, co jeszcze gorsze, być zdolna do przewidywania takich danych. W przypadku Wszechświata istnieje sporo testów obserwacyjnych, które teoria musi zdać – nie chodzi tylko o samo wytłumaczenie ekspansji, nawet nie wiadomo jak eleganckie, ale również o takie dane, jak przebieg syntezy pierwiastków w początkowej fazie istnienia Wszechświata czy charakterystykę kosmicznego promieniowania tła (CMB), która zmienia się zauważalnie w zależności od przyjmowanych założeń. O tym jednak autorzy wspomnianej pracy nie wspominają w ogóle, dodatkowo nie mówią nic o tym ile tzw. parametrów swobodnych trzeba było arbitralnie wprowadzić do ich równań, by przewidywania teorii zgadzały się z danymi obserwacyjnymi. Takie podejście stawia teorię, przynajmniej obecnie, zanim zostanie ona rozpatrzona dokładniej, w dość niejednoznacznym świetle. Jak się okazuje to nie wszystko – koronnym argumentem, który może spowodować, że teoria nie zdobędzie popleczników, jest niezwykły zbieg okoliczności, jakiego zdaje się ona wymagać. Wracając do analogii z kamieniem i zbiornikiem wodnym – aby pozorna akceleracja ekspansji odległych galaktyk wydawała się we wszystkich kierunkach niemal taka sama konieczne jest, aby Ziemia (czy ogólniej nasza Droga Mleczna) znajdowała się bardzo blisko tego kamienia, inaczej mówiąc źródła owych tajemniczych “fal”. Abstrahując od tego, że nie bardzo rozumiem jak to się ma do tego, że podobno Wszechświat ekspanduje “wszędzie” i “nigdzie”, czyli nie ma jakiegoś punktu centralnego, w którym do Wielkiego Wybuchu doszło i od którego ucieka wszystko dokoła – problem wydaje się być poważniejszy. Stawiając Ziemię w centrum Wszechświata potykamy się bowiem o tzw. zasadę kosmologiczną, która odmawia naszemu zakątkowi Wszechświata jakiejkolwiek wyjątkowości, również pod względem położenia. Co prawda obaj panowie przyznają, że taki zbieg okoliczności jest cokolwiek dziwny, jednak mają od razu na to receptę – Ziemia może znajdować się w pobliżu niekoniecznie jedynej takiej “fali”, a epicentrum jednej z wielu. Jakkolwiek warto zawsze nasłuchiwać sygnałów, które próbują coś zrobić z nieporęczną “ciemną energią”, teoria Temple’a i Smollera wydaje się póki co nie być wielce obiecująca. Dopiero dalsze badania i – co najważniejsze – konfrontacja jej przewidywań z obserwacjami może, ewentualnie, uwolnić nas od “ciemności”. Osobiście byłbym skłonny prędzej zaakceptować istnienie w początkach Wszechświata dziwnych “fal”, byle pozbyć się tego sztucznego i niepokojącego tworu, jakim niewątpliwie dla niektórych jest “ciemna energia”. Źródła w Internecie: Artykuł na portalu SPACE.COM Praca naukowców w “PNAS” (format PDF) Strona domowa WWW Blake’a Temple’a Odpowiedzi duetu Blake-Smoller na pytania dziennikarzy odnośnie artykułu (format PDF) Grafika: Fale na powierzchni wody. Czy tak mamy sobie wyobrażać prawdziwe oblicze przyspieszonej ekspansji Wszechświata? Źródło grafiki Credit: Roger McLassus (Wikipedia) Wyświetl pełny artykuł
  9. Okres połowicznego rozpadu to inaczej mówiąc czas, w którym w określonej próbce zawierającej dany pierwiastek promieniotwórczy połowa atomów tego pierwiastka rozpadnie się na lżejsze cząstki (ograniczam się tutaj tylko do procesów rozpadu radioaktywnego, bo samo pojęcie wykorzystywane jest również na przykład w przypadku nietrwałych cząstek subatomowych, w biologii czy medycynie). Pojęcie ma niebagatelne znaczenie w wielu dziedzinach nauki – ma też swoje, całkiem spore, znaczenie w astrofizyce. Od prawidłowo określonego okresu połowicznego rozpadu zależy nierzadko, czy dany model astrofizyczny, opisujący weźmy na to ewolucję gwiazd, jest w ogóle poprawny. Astrofizyk, który potrafi oszacować ilość danego pierwiastka radioaktywnego a następnie poznać ilość produktów jego rozpadu jest na jak najlepszej drodze do oszacowania momentu, w którym rozpad się rozpoczął. Związek ten umożliwia więc naukowcom datowanie różnorakich wydarzeń i procesów (skądinąd kojarzycie z pewnością tzw. metodę radiowęglową, opierającą się na określaniu proporcji pomiędzy promieniotwórczym izotopem węgla 14C a trwałymi izotopami 12C oraz 13C). Dzięki tej korzystnej cesze astrofizycy opierają się często na takich zależnościach tworząc modele gwiazd. Skoro okres połowicznego rozpadu ma takie znaczenie w przypadku wspomnianych modeli astrofizycznych wydaje się oczywiste, że współczynnik ten musi być możliwie dokładnie określony dla branego pod uwagę pierwiastka, gdyż każdy błąd lub niedokładne oszacowanie może w znaczący sposób wpłynąć na całokształt modelu. Z tego względu opublikowana niedawno w “Physical Review Letters” praca badawcza naukowców z Technische Universität München (Niemcy) oraz Paul Scherrer Institut (PSI, Zürich, Szwajcaria) może z pewnością być pewnym zaskoczeniem. Pierwiastek żelazo posiada posiada kilka stabilnych oraz kilkanaście mniej stabilnych izotopów. Jednym z tych mniej stabilnych jest żelazo 60Fe, w którym – w odróżnieniu od najpowszechniej występującej i najlepiej nam znanej odmiany żelaza 56Fe z 30 neutronami – znajdują się odpowiednio 26 protonów i 34 neutrony. W zasadzie można by powiedzieć, że izotop ten nie wyróżnia się niczym szczególnym i nie ma zasadniczo żadnego znaczenia – jednak w astrofizyce właśnie ten izotop żelaza odgrywa niebanalną rolę. Żelazo 60Fe powstaje bowiem, jak zakładamy obecnie, niemal wyłącznie w trakcie wybuchów gwiazd supernowych, czasem dochodzi też do jego wytworzenia w meteorytach pod wpływem wszędobylskiego promieniowania kosmicznego. W naszym sielskim Układzie Słonecznym tego izotopu praktycznie nie znajdziemy – poza laboratoriami naukowców na planecie Ziemia. Rozpad żelaza 60Fe prowadzi do wytworzenia niezbyt stabilnego izotopu kobaltu 60Co, którego okres połowicznego rozpadu wynosi 5,3 lat, po czym kobalt rozpada się na stabilny już tym razem nikiel 60Ni. Dużym zainteresowaniem badaczy cieszy się nie od dziś właśnie ów niestabilny kobalt, na podstawie którego astrofizycy mogą wysnuwać wnioski o pochodzeniu ciężkich pierwiastków w gwiazdach naszej Drogi Mlecznej. Innym aspektem, który nadaje znaczenia tej grupie izotopów jest również fakt, iż obecność niklu 60Ni stwierdzono w najstarszych meteorytach naszego Układu Słonecznego, pamiętających początki naszego systemu gwiazdowego: obecność tego izotopu we wspomnianych skałach pozwala przypuszczać, że w początkowej fazie Układu Słonecznego to właśnie żelazo 60Fe wspólnie z innymi pierwiastkami mogło służyć jako źródło ciepła wewnątrz powstających właśnie planet; pierwiastki radioaktywne odgrywały bowiem generalnie ważną rolę w tych zamierzchłych czasach – rozpad takiego pierwiastka generuje bowiem ciepło i może utrzymywać otaczającą go materię w stanie płynnym. Obecność żelaza 60Fe we wczesnym Układzie Słonecznym astrofizycy interpretują jako pozostałość wybuchu supernowej, która w tamtym czasie musiała eksplodować względnie niedaleko rodzącego się systemu. Materia odrzucona w trakcie eksplozji dotarła na rubieże nowego układu, gdzie zmieszała się z gazem i pyłem formującym Układ Słoneczny. Biorąc pod uwagę ten fakt oraz wspomniane wcześniej można więc przypuszczać, że znajomość połowicznego okresu rozpadu dla żelaza 60Fe ma spore znaczenie i w przypadku błędnego jego wyznaczenia trzeba będzie skorygować sporo rachunków dotyczących procesów jądrowych. I z tym właśnie wiąże się zaskoczenie, zgotowane światu naukowemu przez badaczy z Niemiec i Szwajcarii. Zmierzyli oni bowiem bardzo precyzyjnie (w porównaniu z poprzednimi pomiarami) okres połowicznego rozpadu żelaza 60Fe, wyznaczając jego wartość na ok. 2,6 miliona lat. Całkiem sporo jak na “niestabilny” izotop, prawda? Nie w tym jednak problem, że to sporo czy mało – problem leży w tym, że wcześniej naukowcy zakładali wytrwale, iż izotop ten ma okres połowicznego rozpadu wynoszący… 1,5 miliona lat. I już robi się ciekawiej. Przyznać trzeba, że korekta wprowadzona przez Gunthera Korschinka (jednego z autorów wspomnianej pracy) i jego kolegów jest dość potężna, mówimy tutaj w końcu o wydłużeniu wcześniej szeroko akceptowanej wartości o 75%! Nie mam wprawdzie pojęcia, w jaki sposób wartość wyznaczano wcześniej (gdzie margines błędu wynosił nawet kilkadziesiąt procent), niemieckojęzyczni naukowcy obiecują jednak, że w przypadku ich pomiaru błąd mieści się w granicach góra 2%. Do takiego wyniku naukowcy doszli w trakcie dość mozolnego i długotrwałego badania – przez trzy lata bardzo czuły spektrometr promieniowania gamma (które emitowane jest w trakcie rozpadu promieniotwórczego) kontrolował próbkę zawierającą sztucznie wytworzone żelazo 60Fe, jednocześnie rejestrowano wzbogacanie się próbki o efekt tego rozpadu, kobalt 60Co. Po tak żmudnych badaniach okazało się w końcu, że w przeszłości naukowcy mocno niedoszacowali badane wartości. Jakie w rzeczywistości to może mieć znaczenie dla wspomnianych wcześniej modeli i rachunków astrofizycznych nie mnie oczywiście oceniać. Z pewnością nasza wizja Kosmosu nie stanie z tego powodu na głowie i nie zaczniemy pisać astronomicznych kronik od nowego roku “zero”. I nie w tym tkwi, prawdę mówiąc, dla mnie sedno sprawy – pomijając mniejsze lub większe korekty, jakie w pocie czoła astrofizycy będą musieli wprowadzić do swych modeli, ważniejszym wydaje mi się w sumie oczywisty a jakże często zapominany problem nie tylko astrofizyki – czasem niepozorny błąd w założeniach może skrycie, jak przysłowiowy kret ryjący nasz wspaniały ogródek, prowadzić do wypaczenia różnych teorii, za które dalibyśmy sobie uciąć głowę. Praca naukowców na “Physical Review Letters” Źródła: Link 1 Link 2 Link 3 Wyświetl pełny artykuł
  10. Choć w sumie dość ciepłe i słoneczne jak dotąd lato z pewnością nie skłania do nadmiernego przesiadywania przed komputerem (i jak najbardziej nie powinno, choć wymogi rzeczywistości są niestety inne), z pewnością pamiętacie jeszcze pewien ambitny projekt internetowy pod nazwą Galaktyczne Zoo. Kilka razy wieki już temu przekonywałem zapalczywie do założenia tam konta i współudziału w katorżniczym klasyfikowaniu galaktyk, po cichu licząc też na to, że przynajmniej jednej lub jednemu z Was udało mi się zaszczepić bakcyla astronoma-amatora (bez teleskopu i nieprzespanych nocy, nawiasem mówiąc). Jeśli natomiast czyta ten wpis ktoś, kto o tym cudacznym projekcie jeszcze nie słyszał – w dalszym ciągu gorąco zapraszam do zapoznania się ze stroną projektu (przetłumaczoną już od jakiegoś czasu na nasz rodzimy język, z tym nie będzie więc problemów) i partycypacji w jakże doniosłej pracy badawczej. Nie o samym Galaktycznym Zoo jednak dziś chciałbym napisać, choć omawiane poniżej zagadnienie ma bezpośredni i bardzo bliski związek z tym projektem. Zupełnie przypadkiem bowiem dowiedziałem się kilka dni temu, przeglądając artykuły na portalu UniverseToday, że klasyfikacja galaktyk wszelakiej maści już nie jest jedynym zadaniem bojowym, przed jakim twórcy strony postawili chętnych amatorów – od jakiegoś czasu istnieje strona pod zapowiadającą ekscytujące zajęcie nazwą Galaxy Zoo Supernovae, której celem jest ni mniej ni więcej poszukiwanie supernowych właśnie! O ile pewna monotonia i znudzenie może wkradać się czasem do grzebania w tysiącach podobnych do siebie rozciapkanych i zamazanych zdjęć galaktyk, prezentowanych w ramach Galaxy Zoo (dlatego też polecam, ale po cichutku tylko, Galaktyczne Zoo jako wyśmienity “przyspieszacz czasu” w trakcie, powiedzmy, chwil wolnych w pracy), o tyle nie tylko mi się chyba wydaje, że poszukiwanie supernowych może być tutaj całkiem nową jakością. Nie każdy z nas ma z pewnością fundusze, czas oraz w ogóle wystarczającą wiedzę, by przesiadywać całymi nocami z teleskopem przed nosem (czy raczej spuchniętym od wytężonego zerkania okiem) i obserwować niebo (a niektórzy, jak na przykład ja, nie mają jeszcze do tego w ogóle lokalizacji), jednak supernowe w komputerze, z piwem w ręku jak to sformułował kiedyś prezydent naszego kraju (ale bez tego drugiego, kontrowersyjnego składnika)? Dlaczego by nie – zobaczmy więc o co tutaj tak naprawdę chodzi. Jak dowiedziałem się na wspomnianym wyżej portalu, twórcy Galaktycznego Zoo nawiązali współpracę z projektem Palomar Transient Factory (PTF), czyli szeroko zakrojonym, zaplanowanym na pięć lat i wspieranym przez renomowane placówki naukowe, takie jak uczelnie Caltech, Berkeley, Oxford, Columbia oraz instytuty Brookhaven National Laboratory czy Infrared Processing and Analysis Center należące do NASA, systematycznym, zautomatyzowanym programem eksploracji nieba w zakresie światła widzialnego. To właśnie dzięki tej współpracy internauci otrzymują niepowtarzalną szansę poszukiwania nieznanych wcześniej ludzkości supernowych – projekt opiera się na obserwacjach nieba przy pomocy teleskopu Samuel Oschin Telescope (o średnicy zwierciadła 1,2 metra), znajdującego się w zespole obserwatoriów Palomar Observatory w okolicach San Diego w USA. Udziały projektu PTF w czasie obserwacji tego teleskopu wynoszą 80%, a więc całkiem sporo, dzięki temu oraz zautomatyzowaniu procesu uzyskiwanych jest ogrom danych obserwacyjnych, to jednak nie wszystko – jest jeszcze 50% czasu “antenowego” teleskopu o średnicy zwierciadła 1,5 metra (zautomatyzowany teleskop Palomar). Projekt PTF służy głównie obserwacji wszelakich względnie szybkich zmian na obserwowanym niebie – czy to gwiazd zmiennych, asteroid przecinających pole widzenia teleskopu, czy też – na koniec, lecz nie ostatnich – supernowych. Na tym właśnie opiera się współpraca GZ z PTF: specjalnie wyselekcjonowani “kandydaci” na supernowe (brane pod uwagę są supernowe określonego typu, w tym przypadku Ia) przesyłani są do projektu Galaxy Zoo Supernovae, gdzie zarejestrowani internauci przeszukują zdjęcia i wybierają trefne obiekty. Najlepsze typy trafiają następnie w ręce dwóch astronomów, którzy mają dostęp do sporawego teleskopu Williama Herschela (La Palma, Wyspy Kanaryjskie), którego zwierciadło posiada niebagatelną już średnicę 4,2 metra. Tam prowadzone są już precyzyjne obserwacje delikwenta. Niestety w tej chwili wszystko to, o czym powyżej piszę, jest zarówno dla Was jak i dla mnie teorią – nie posiadam tam konta (przegapiłem otwarcie projektu, posypuję się popiołem), stworzyć w tej chwili takowego również się nie da – strona na dzień dzisiejszy nie działa a z informacji pod jej adresem wynika, że twórcy kombinują coś wokół niej i ją usprawniają. Nie wiem więc niestety, jak poszukiwanie supernowych w rzeczywistości wygląda – myślę jednak (w końcu autorzy strony zapewniają solennie, że wkrótce serwis będzie znów online) że może to być całkiem ciekawe. Gorąco więc polecam każdemu z Was, jeśli oczywiście macie na to ochotę, zerkanie co jakiś czas pod ten adres. Być może już wkrótce pierwsza supernowa przez Was odkryta znajdzie się w annałach astronomii XXI wieku:) Źródła: Link 1 Wyświetl pełny artykuł
  11. Z pewnością do ważniejszych dat, będących swoistą cezurą w historii nowożytnych badań Wszechświata, zaliczyć można jakże już wydawałoby się odległy rok 1998 – wtedy to właśnie dwa niezależne od siebie zespoły badaczy Kosmosu (High-z Supernova Search Team oraz Supernova Cosmology Project) opublikowały prace naukowe, podsumowujące dokonywane przez nie obserwacje supernowych w odległych zakątkach Wszechświata. Najbardziej brzemienny w skutki bezpośredni wniosek, wysnuty na podstawie tych obserwacji, był co najmniej zaskakujący – ekspansja Wszechświata nie tylko nie zwalnia stopniowo, jak niektórzy przypuszczali, ale wręcz przeciwnie: rozszerzający się Wszechświat ekspanduje coraz szybciej. Równocześnie to przełomowe odkrycie postawiło spory znak zapytania nad ówczesnym stanem wiedzy o “komponentach”, z których składa się Wszechświat. O ile większość społeczności naukowej zdążyła się w tym czasie już pogodzić z bardzo niewielkim wkładem “zwykłej” (złożonej z dobrze nam znanych cząstek elementarnych) materii, obejmującym zaledwie (szacunkowo) marne 4 procent całkowitej “zawartości” Wszechświata, o tyle konsekwencje wypływające w naturalny sposób z przyspieszającej ekspansji Wszechświata wydawały się jeszcze poważniejsze i bardziej kontrowersyjne – narodziło się wówczas pojęcie “ciemnej energii”, tajemniczego składnika Wszechświata, co do czego natury i składu zdania ciągle są mocno podzielone; warto też pamiętać o tym, że nie brak naukowców, którzy “ciemnej energii” jako takiej nie akceptują wcale i wysuwają alternatywne propozycje. Cały ten rozgardiasz rozpoczął się od wspomnianych wyżej obserwacjach supernowych szczególnego typu, mianowicie supernowych Ia. Supernowe te to, zgodnie z naszą obecną wiedzą, białe karły, które, niecnie wykorzystując swego gwiazdowego partnera (najczęściej czerwonego olbrzyma) podkradają z niego materię. I jak to nierzadko bywa również wśród gatunku ludzkiego – zbytnia łapczywość w końcu nie popłaca, gdyż biały karzeł opychając się materią partnera osiąga w końcu masę zbliżoną do masy ok. 1,4 mas słonecznych (zwaną również granicą Chandrasekhara), która jest równoznaczna z nieodwołalną zagładą karła – po osiągnięciu tej krytycznej masy dochodzi do inicjacji zapłonu i niepozorny dotąd biały karzeł zamienia się w zasadzie w ogromną bombę termojądrową, niszcząc samego siebie i przy okazji stając się niezwykle jasnym źródłem światła, widocznym nawet z odległości miliardów lat świetlnych. Jednak to nie ogromna odległość, z jakiej obserwujemy supernowe typu Ia, odgrywa w omawianym przypadku decydującą rolę (choć znaczenie oczywiście swoje ma). Szczęśliwie dla astronomów okazało się bowiem swego czasu, że supernowe Ia charakteryzują się również bardzo podobną krzywą blasku (zależnością jasności od czasu) jak i porównywalną jasnością absolutną. A ponieważ zdają się występować dość równomiernie w różnych typach galaktyk, stały się bardzo szybko niezastąpionymi wręcz tzw. świecami standardowymi, czyli obiekta o powtarzalnej, dobrze poznanej charakterystyce, które służą astronomom za doskonałe narzędzia do w miarę precyzyjnych pomiarów odległości we Wszechświecie. Na tej charakterystycznej cesze supernowych typu Ia opierały się również wspomniane na początku badania związane z ekspansją Wszechświata. Odchylenia od przewidywanych jasności odległych supernowych zmusiły kosmologów do przyjęcia frapującej tezy, iż Wszechświat rozszerza się coraz szybciej – w inny sposób naukowcy nie potrafili wyjaśnić tego odchylenia. Osoba postronna może jednak szybko w takim razie zadać niełatwe wcale pytanie – skoro na podstawie obserwacji supernowych wysnuwa się tak dalekosiężne wnioski, na ile “pewną” są one miarą? Niestety nie można odpowiedzieć na to pytanie w najprostszy sposób i stwierdzić, że wszystkie obserwowane supernowe typu Ia zachowują się identycznie i z tego względu jakiekolwiek korekty w trakcie pomiarów nie są konieczne. Wiele zależy tutaj od odpowiednio dużej próbki, jaka podlega obserwacjom oraz od wymaganej precyzji obserwacji. Planowane są obecnie zróżnicowane projekty, związane z ciemną energią, wymagające od badaczy znaczącego zmniejszenia skali błędu pomiarowego, co zmusza astronomów w pierwszej kolejności do upewnienia się co do jednego – jeśli różnice pomiędzy supernowymi istnieją, to od czego są zależne i w jaki sposób błędy pomiarowe z nimi związane można systematycznie wyeliminować. W tym tygodniu w prestiżowym piśmie naukowym “Nature” opublikowana została praca naukowa zespołu badawczego, który za swój cel obrał rozpoznanie zagrożeń związanych właśnie ze zróżnicowaniem w rodzinie supernowych typu Ia. Główny autor pracy, Daniel Kasen z University of Califonia (Santa Cruz, USA) wraz ze współpracownikami – Stanem Woosleyem z tej samej uczelni oraz Fritzem Röpke z Max-Planck-Institut für Astrophysik (Garching, Niemcy) uzyskali w tym szczytnym celu dostęp do superkomputera Jaguar, znajdującego się w amerykańskim Oak Ridge National Laboratory, który, nawiasem mówiąc, znajduje się obecnie na drugim miejscu w rankingu najpotężniejszych superkomputerów na świecie. Ogrom obliczeń, jakie naukowcy zlecili do wykonania supermaszynie, zdaje się też usprawiedliwiać taki a nie inny wybór. Zgodnie z tym, co powiada Kasen, nie od dziś mamy świadomość, że supernowe Ia mimo wszystko różnią się na przykład jasnością w ograniczonym, ale mimo wszystko rzeczywistym, stopniu. W międzyczasie, dzięki tej świadomości, opracowano też odpowiednie techniki korekcji błędów, które operując na dużej ilości obserwowanych supernowych potrafią takie różnice niwelować i tym samym odpowiednio “urealniać” otrzymywane wyniki. Jednak to nie do końca rozwiązuje sam problem – warto bowiem wiedzieć, co w ogóle powoduje takie różnice i tym samym lepiej poznać sposoby unikania związanych z tym błędów pomiarowych. Kasen i koledzy zaprzęgli więc Jaguara do tytanicznego zadania – stworzyli na rzecz swego projektu dwuwymiarowy model supernowej typu Ia, przy czym praca różniła się od poprzednich pod dwoma bardzo ważnymi względami – o ile wcześniejsze podobne symulacje były symulacjami jednowymiarowymi (ze względu na ogromne zapotrzebowanie na moc obliczeniową, nie zawsze dostępną), dotyczyły także supernowych, których wybuch był w zasadzie doskonale symetryczny, czyli przebiegał identycznie w każdym kierunku przestrzeni. Kasen i jego zespół tymczasem przeszli w dwa wymiary (co spociło zapewne samego Jaguara), jednak co ważniejsze ich model uwzględniał brak symetryczności w trakcie wybuchu. Opierając się na przeprowadzonych symulacjach naukowcy wykazali, że większość różnic, obserwowanych w przypadku rzeczywistych supernowych typu Ia, wynika właśnie z chaotycznej natury procesów przebiegających w trakcie eksplozji oraz ich asymetryczności. Asymetria wydaje się być kluczowym elementem – zależnie od nieprzewidywalnego przecież przebiegu eksplozji dwie różne supernowe mogą wykazywać wahania w absolutnej jasności. “Rozpracowanie” tego mechanizmu pozwoli naukowcom na stworzenie jeszcze lepszych narzędzi, które przy założeniu, że badana jest odpowiednio duża próbka supernowych, pozwolą na rosnące minimalizowanie błędu pomiarowego. Co prawda, jak zauważa sam Kasen, konieczne będzie jeszcze stworzenie odpowiednich symulacji biorących pod uwagę zróżnicowany skład chemiczny supernowych w zależności od wieku samego Wszechświata, który to może mieć co prawda niewielki ale jednak rzeczywisty wkład w błędy pomiarowe, to samo dotyczy drobnych różnic związanych z kątem, pod jakim obserwowana jest eksplozja. Kolejnym natomiast krokiem, wymagającym jednak naprawdę potężnego sprzętu obliczeniowego, jest przeniesienie symulacji w trzy wymiary. Chcąc zbadać naturę ciemnej energii – przykładowo szukając odpowiedzi na frapujące pytanie, czy ciemna energia zmieniała swoje właściwości w trakcie ewolucji Wszechświata czy też jej cechy były “stałe” – konieczne jest znaczące usprawnienie dokładności pomiarów odległości na przestrzeni miliardów lat. A ponieważ supernowe Ia w dalszym ciągu są jak najbardziej idealnymi kandydatkami na świece standardowe, konieczne jest opracowanie metod pozwalających pomiary odległości do tych supernowych wykonywać z niespotykaną dotąd dokładnością. Praca Kasena i kolegów jest kolejnym krokiem w tym kierunku, co, miejmy nadzieję, pozwoli w końcu przybliżyć się naukowcom do tajemnicy związanej z ciemną energią. Praca naukowców w “Nature” Źródła: Link 1 Link 2 Link 3 Link 4 Grafika: To jeden z obrazów uzyskanych w trakcie symulacji – widoczny jest asymetryczny przebieg eksplozji supernowej, kolory natomiast przedstawiają różne pierwiastki powstające w trakcie wybuchu (przykładowo barwa czerwona to nikiel-56) Źródło grafiki Credit: D. Kasen et al. Wyświetl pełny artykuł
  12. Osławione czarne dziury jako jedne z bardzo niewielu egzotycznych “wynalazków” astrofizyków przebiły się do szeroko pojętej masowej świadomości – już sama zaprawdę chwytliwa nazwa, której powstanie jak się zdaje nie do końca poprawnie przypisuje się zmarłemu ponad rok temu wybitnemu amerykańskiemu fizykowi teoretykowi, Johnowi Archibaldowi Wheelerowi, brzmi mrocznie i niezwykle frapująco zarazem; fascynacja rośnie tym bardziej, im więcej niebywałych szczegółów je charakteryzujących poznamy. Jako skromny obserwator współczesnych dokonań astronomii mógłbym z łatwością założyć, że czarne dziury stały się “standardową”, akceptowaną jako “oczywistość” klasą obiektów kosmicznych, mija się to jednak w rzeczywistości z prawdą – autorzy artykułów popularyzujących fascynującą wiedzę o Wszechświecie (nie wykluczając tutaj mojej osoby, a jakże) popełniają nagminnie karygodny błąd, przyznając lekką ręką czarnym dziurom status obiektów ze wszech miar rzeczywistych i bezdyskusyjnie istniejących: trzeba jednak uczciwie przyznać, że istnieją nie od dziś teorie alternatywne, nie tak popularne, które nie przewidują dla czarnych dziur “zastosowania” we Wszechświecie. To jednak temat na inną historię – załóżmy na potrzeby niniejszego tekstu, że czarne dziury istnieją nie tylko na papierze w formie równań. Postawmy następnie arcytrudne pytanie – czymże tak naprawdę taka czarna dziura jest? Dla amatora-laika, którym otwarcie się przyznając jestem, jest to pytanie z rzędu tych najgorszych – trudno nie odnieść wrażenia, że czarna dziura to w zasadzie czysta żonglerka matematyką, mająca bardzo mętne przełożenie na świat obiektów rzeczywistych. Dla umysłu “normalnego” człowieka, pomijając oczywiście geniuszów pokroju Stephena Hawkinga, czarna dziura jest czymś niewyobrażalnym, przekraczającym możliwości pojmowania. Bo cóż to znaczy, że czarna dziura to obiekt, w którym gęstość materii sięga nieskończoności i “zrywana” jest tkanka czasoprzestrzeni? Brzmi bardzo abstrakcyjnie, trudno chyba zaprzeczyć. Definicja czarnej dziury nie stanowi jednak sporego zagwozdka tylko dla laika – to, co podobno tkwi w ich centrum, spędza także nie od dziś sen z oczu teoretykom fizykom. Zgodnie z ogólną teorią względności możliwym w zasadzie jest, by materia w pewnym punkcie przestrzeni kumulowała się w takim stopniu, by jej gęstość rosła nieuchronnie ku nieskończoności. Nieskończoności… Pojęcie to jest bardzo kłopotliwe dla fizyków i matematyków, czemu w sumie trudno się dziwić – uważa się zazwyczaj, że wartości nieskończone, wypluwane jako wynik równań jakiejś teorii stanowią jednocześnie jej smutny koniec: teoria, która prowadzi do takich rezultatów, musi być niekompletna, lub, co gorsza, błędna. Niewiele inaczej sprawy mają się w przypadku czarnych dziur – sam Einstein uważał, że jego teoria osiąga swój kres właśnie w przypadku osobliwości, czyli hipotetycznego obiektu, tkwiącego w samym środku czarnej dziury. Do opisu tej osobliwości jego teoria się nie nadaje – nie znamy też obecnie teorii, która taki opis potrafiłaby stworzyć, podobno – podobno! – ma nią być kiedyś kwantowa teoria grawitacji. Osobliwości, kryjące się ponoć w czarnych dziurach, to tym samym prawdziwy postrach astrofizyków – zakładając, że osobliwości rzeczywiście istnieją, musimy pogodzić się również z tym, że znana nam fizyka załamuje się w ich obecności kompletnie i prawa fizyczne trzeba odstawić w kąt. Stawia to równocześnie wielki znak zapytania nad naszą wiedzą o Wszechświecie i próbami przewidywania jego przyszłości, skoro mogłoby w nim istnieć choć jedno miejsce, w którym prawa fizyka tracą rację bytu. Nie zapominajmy również o tym, że o ile czarne dziury to jeden problem, osobliwość zdaje się pojawiać również w przypadku zagadnienia o wiele większej wagi – samego Wielkiego Wybuchu, któremu podobno zawdzięczamy istnienie całego Wszechświata. Z tego między innymi względu wiele już lat temu fizycy teoretyczni gorączkowo poszukiwali rozwiązania tego palącego problemu – jednym z takich poszukiwaczy był Roger Penrose, wybitny matematyk i fizyk brytyjski, który wysunął tzw. hipotezę Kosmicznego Cenzora. W 1969 roku Penrose postulował, że każda osobliwość (a więc i czarna dziura) musi z konieczności być otoczona przez tzw. horyzont zdarzeń, który możemy sobie wyobrazić jako hipotetyczną sferę, rozgraniczającą niejako Wszechświat na dwie części – część “wewnętrzną” czarnej dziury, z której nic, nawet samo światło nie może nigdy uciec, oraz część zewnętrzną, która zostaje w ten sposób niejako odseparowana od osobliwości. Dzięki temu sprytnemu założeniu Penrose uwolnił za jednym zamachem kosmologów od prawdziwego koszmaru – skoro każda osobliwość musi siłą rzeczy posiadać horyzont zdarzeń, staje się tym samym “ukryta” przed zewnętrznym Wszechświatem, a samej osobliwości nigdy nie da się zaobserwować. Tym samym wspomniany kosmiczny cenzor staje się samym Wszechświatem, który ratując swoją logikę wypycha osobliwości niejako poza swoją rzeczywistość. Nie mam rzecz jasna żadnego pojęcia na jakiej podstawie Penrose wywnioskował, że każda osobliwość horyzont zdarzeń mieć musi, z pewnością też niewiele z tego byłbym w stanie zrozumieć, przypuszczam jednak, że nie było to po prostu założenie wyssane z palca. Zasada Kosmicznego Cenzora pozwoliła jednak naukowcom na spokojniejszy sen, zgarniając, mówiąc obrazowo, “nieczystość” osobliwości pod przysłowiowy kosmiczny dywan. Niestety dla kosmologów nie jest to wszystko takie całkiem proste – od wielu lat bowiem narwani naukowcy spekulując odnośnie możliwości istnienia tzw. nagich osobliwości. Choć nie potrafię sobie w żaden sposób wyobrazić w jaki sposób taka osobliwość mogłaby się wizualnie manifestować (wyglądałaby jak gwiazda czy byłaby zupełnie niewidoczna?), przemawia do mnie jako tako mechanizm wytworzenia czegoś równie egzotycznego. Czarne dziury, mimo swej ponurej nazwy, nie są po prostu “otworami” w czasoprzestrzeni, które poza prostym istnieniem nie “zajmują się” niczym innym. Jak zdaje się to potwierdzać wiele pośrednich obserwacji w okolicach czarnych dziur rozgrywają się prawdziwie dantejskie sceny – ogromne ilości materii ogrzewają się do niebotycznych temperatur, wypromieniowując ogromne ilości promieniowania w trakcie swej podróży ku horyzontowi, przyciąganie przez miażdżącą siłę grawitacji czarnej dziury. To niezbywalna jakby cecha każdej czarnej dziury – jeśli tylko w jej otoczeniu istnieje odrobina materii, czarna dziura “nie spocznie”, póki nie “pożre” jej do ostatniego atomu. W trakcie takich posiłków czarna dziura “grubnie”, tym samym zmuszona jest do aktywności (zupełnie jak my ludzie), by pokarm przetrawić – czarne dziury bardzo często wirują. I na tym właśnie opiera się cały pomysł z nagimi osobliwościami: co się stanie, gdy będziemy karmić taką dziurę stale materią (abstrahując od raczej niemożliwego do wykonania takiego eksperymentu), czy rosnąca prędkość wirowania nie doprowadzi w końcu do tego, że horyzont zdarzeń zostanie zniszczony i “odrzucony”? Jak się okazuje teoretycznie jest to rzeczywiście możliwe – zasilanie materią czarnej dziury może w końcu spowodować, że prędkość jej rotacji stanie się tak wielka, by odrzucić horyzont i… odsłonić “nagą osobliwość”. Przerażeni taką możliwością naukowcy wzięli się w te pędy za obliczenia i doszli ostatecznie do wniosku, że każda czarna dziura MUSI mieć pewien “wrodzony” limit prędkości obrotowej, która by zapobiegała takiemu niemiłemu scenariuszowi. Symulacje, które wykonywano dotąd wskazywały, że czasoprzestrzeń, “wleczona” niejako przez czarną dziurę w jej okolicy sprawiać musi, iż “dodawanie” materii staje się stopniowo coraz trudniejsze a wzrastająca siła odśrodkowa odrzuca materię zanim ta zdąży osiągnąć horyzont. Wydawać by się mogło, że po raz kolejny porządek świata został w ostatniej chwili uratowany. Symulacje te jednak opierały się na pewnym odgórnym założeniu – bohaterkami symulacji były zawsze czarne dziury, który obracały się w trakcie “iniekcji” ze swą maksymalną dozwoloną prędkością. Inaczej do tematu podeszli tym razem dwaj naukowcy z University of Maryland (College Park, USA), Ted Jacobson oraz Thomas Sotiriou, którzy przygotowali symulację, w której dokarmiali czarną dziurę materię, krążącą wokół niej w tym samym kierunku co jej kierunek obrotu, i, co najważniejsze, czarna dziura wirowała z prędkością mniejszą niż dopuszczalny limit. Wyniki, jakie uzyskali, zdają się sugerować, że w takiej sytuacji w pewnym momencie horyzont może zostać zniszczony i odrzucony przez wyłaniającą się z tego rozgardiaszu nagą osobliwość. Podobne scenariusze, jak się zdaje, nie mogą należeć do rzadkości we Wszechświecie – w końcu materia opada podobno w wielu miejscach na czarne dziury, choćby w centrach sporych galaktyk (choć w naszej jest raczej spokojnie). Nie można więc do końca wykluczyć, że – gdzieś w bezkresnych otchłaniach Kosmosu – istnieje osobliwość nieosłonięta horyzontem zdarzeń, łamiąc tym samym zasadę Kosmicznego Cenzora. Obaj naukowcy, odpowiedzialni za powyższe herezje, są jednak bardzo ostrożni w swojej konkluzji – ich zdaniem prawdopodobnie powinien istnieć jakiś inny, nieznany nam mechanizm, który Natura wykorzystuje, by uniknąć powstania nagiej osobliwości. Praca naukowców Źródła: Link 1 Zdjęcie: Jedyne zdjęcie prawdziwej czarnej dziury (jak się okazuje, nieubłaganie wciągającej… kaczki) Źródło zdjęcia Credit: http://www.zbiodra.wordpress.com Wyświetl pełny artykuł
  13. Każdego dnia od jakiegoś czasu próbowałem mozolnie wygospodarować kilka dłuższych chwil na na stworzenie nowego wpisu, jednak, jak to zwykle bywa, wysiłki te nie przyniosły spodziewanych rezultatów. W końcu jednak dogodny moment znaleźć się musiał (i się znalazł) – tym razem jednak proponuję dość niezwykłą jak na mojego bloga tematykę, z “kosmicznością” nie związaną w sumie ani trochę. Powody takiego wyskoku są w zasadzie dwa – po pierwsze nastał chyba na dobre sezon ogórkowy i całe rzesze astrofizyków i astronomów wszelakiej maści wybrały się na wyczekiwane długo urlopy, po drugie zagadnienie prezentowane poniżej, mimo że nie jest związane z Kosmosem jako takim, od dłuższego już czasu leży również w polu moich zainteresowań. Do rzeczy więc – dziś będzie o ewolucji życia na naszej planecie. Od razu zastrzegam, zanim przejdę dalej, że moja wiedza w tej dziedzinie jest nieporównywalnie wątlejsza, niż ma to miejsce w przypadku astrofizyki (gdzie i tak w sumie wygląda to kiepsko), z tego względu z góry przepraszam wrażliwych za możliwe przeinaczenia i błędy. Formalności mamy za sobą – czas przejść do zaiste interesującego zagadnienia, jakim jest kwestia miejsca, w którym powstały pierwsze organizmy wielokomórkowe. Nasza wiedza o prapoczątkach życia jest bardzo mętna – wiemy co prawda już co nieco o warunkach, jakie się z tym wiązały, nikt jednak nie potrafił dotąd wyjaśnić, w jaki sposób życie powstało. Popularna w niektórych kręgach jest teoria mówiąca, że “zarodniki” życia dotarły do Ziemi “na pokładzie” komet (ostatnio czytałem też frapujący artykuł o tym, że zarodniki takie dotarły do młodej Ziemi jako “pozostałości” umierającego niedaleko Słońca układu gwiazdowego, niestety link gdzieś mi zaginął), jednak nie jest to szeroko akceptowane podejście – większość naukowców, jak mi się zdaje, przychyla się do opinii, że z materii niożywionej, w praoceanach, w których istniała specyficzna mieszanka związków chemicznych zwanych “pierwotną zupą”, wykształciły się cząsteczki organiczne o rosnącym stopniu skomplikowania, by w końcu stworzyć coś, co możemy określić “życiem”. Nie mam zamiaru z tym polemizować – ciekawe jednak jest to, że mimo doświadczeń nikomu tak naprawdę nie udało się powtórzyć tego “eksperymentu”. Hipoteza pozostaje więc hipotezą. Generalnie jednak praoceany uważane są za kolebkę życia. Załóżmy, że tak sprawy się miały w rzeczywistości, jednak mówimy tutaj o najprostszych organizmach, jednokomórkowcach, które następnie przez miliardy lat niepodzielnie rządziły naszą planetą. Dopiero bowiem “zaledwie” kilkaset milionów lat temu ewolucja przyspieszyła niewspółmiernie – po miliardach lat względnej stagnacji pojawiły się na Ziemi pierwsze stworzenia wielokomórkowe. Mówimy tutaj o ediakarze – epoce geologicznej, która trwała od mniej więcej 635 do 542 milionów lat temu. W wykopaliskach z tego okresu znaleziono pierwsze ślady zwierząt wielokomórkowych. I choć prawdziwa eksplozja życia nastąpiła w kolejnej epoce, kambrze, ediakar jako taki ma kolosalne znaczenie dla ewolucji życia na Ziemi. Ponieważ zgodnie z wspomnianą wyżej hipotezą zakładamy, że pierwsze organizmy powstały w praoceanach, nieodległa temu jest również hipoteza, że tak samo było w przypadku wielokomórkowców. Czy jednak na pewno? Thomas Bristow to naukowiec z University of California (Riverside, USA). Wraz z kolegami ze swej uczelni opublikował niedawno w fachowym piśmie “Proceedings of the National Academy of Sciences” artykuł naukowy, w którym sugeruje, iż pierwsze wielokomórkowce powstały nie w praoceanach, a w śródlądowych zbiornikach wodnych (jeziorach). W jaki sposób doszedło do takiego wniosku? Otóż Bristow i koledzy grzebali sobie w warstwach kopalnych formacji Doushantuo, datowanych an ok. 600 mln lat wstecz, znajdujących się w południowych Chinach. W trakcie tego radosnego grzebania naukowcy specjalną uwagą obdarzyli minerały, występujące w tych warstwach. Ku zaskoczeniu badaczy ich skład chemiczny wydaje się nie do końca pasować do przypuszczalnego składu ówczesnych praoceanów – odkryli bowiem minerał o przyciężkawej nazwie: montmorillonit magnezowy (saponit), minerał z grupy krzemianów, wraz z produktami jego “twardnięcia”. Kłopot w tym, że minerał ten zazwyczaj powstaje w warunkach, które nie są do pogodzenia ze składem praoceanów – o ile uważamy, że praoceany były bardzo słone, o tyle mont…, ech, saponit powstaje przy wartości pH równej 9,0 lub nawet większej, a więc przy dużej zasadowości (zbliżonej do zasadowości dobrze nam znanego mydełka). Dodatkowo minerał ten nie jest równomiernie rozmieszczony w badanych pokładach, czego spodziewać by się można po jego zawartości w praoceanie – pojawia się tylko miejscami, co sugeruje odseparowanie jego skupisk z jakiegoś względu. Przy założeniu, że w prehistorii Ziemi minerały powstawały w podobny sposób jak ma to miejsce dzisiaj, niedaleko stąd do stwierdzenia, że saponit powstawał w oddzielonych od siebie, względnie niewielkich, zbiornikach wodnych. Sugestia Bristowa i jego drużyny wydaje się być całkiem logiczna – praoceany zgodnie z naszą wiedzą były potwornie słone, tym samym tlen jako taki rozpuszczał się w nich dość kiepsko. Z tego między innymi względu miejsce to wydawać się może raczej niedogodnym miejscem dla powstania wielokomórkowców. Jednak prawdziwie fascynującym wnioskiem, płynącym automatycznie z tego założenia jest coś innego – skoro mówimy o odizolowanych zbiornikach wodnych, w których powstawało życie, nie można wykluczyć, że ewolucja przebiegała w nich w zupełnie inny sposób i zbiorniki takie owocowały niepowiązanymi ze sobą, kształtującymi się osobno, formami życia! Bristow, mimo takiej sugestii, podchodzi jednak do sprawy jak przysłowiowy pies do jeża – zastrzega, że aby wykazać coś takiego trzeba jeszcze sporo dalszych badań. Dotąd zakładano, że życie ewoluowało w praoceanach, skąd dopiero po dłuuugim czasie przedostało się na ląd i w końcu do izolowanych mórz i jezior. O ile w przypadku prawdziwych prapoczątków wydaje się to mocno prawdopodobne, praca Bristowa rzuca nowe światło na kwestię powstania wielokomórkowych stworzeń – kolejność zasiedlania zostaje postawiona na głowie. Czy badacze mają rację, okaże się oczywiście dopiero z czasem. Praca naukowa Bristowa i kolegów Źródła: Link 1 Link 2 Grafika: Dziwne “kuleczki” na zdjęciu powyżej to, jak się uważa, najstarsze ze znanych embrionów wielokomórkowców, znalezione w formacji Doushantuo Źródło zdjęcia Credit: Prof. Shuhai Xiao (Virginia Tech University) Wyświetl pełny artykuł
  14. Dzięki niezwykłemu rozwojowi technologii astronomowie nie mogą narzekać od lat na brak użytecznych narzędzi swej pracy – ograniczeni są co prawda względnie niewielką ilością najpotężniejszych z nich i wynikającymi z tego nagminnymi kłopotami z ich dostępnością, jednak w rzeczy samej – takimi możliwościami badawczymi jak dziś astronomia nie mogła pochwalić się nigdy wcześniej. Dzięki temu sprzyjającemu faktowi jesteśmy w stanie zaglądać coraz dalej i dalej w bezkresną pustkę Wszechświata, wyrywając – kawałeczek po kawałeczku – kolejne tajemnice z zazdrosnych objęć Kosmosu. Dziwne w tym kontekście może wydawać się jednak to, że mimo rosnącej stale wiedzy o najdalszych rubieżach Wszechświata ciągle stosunkowo niewiele wiemy o naszym najbliższym kosmicznym otoczeniu. Początki naszego Układu Słonecznego, które datowane są ze sporym jak sądzę przybliżeniem na ok. 4,6 miliarda lat temu, potrafimy w miarę poprawnie zilustrować posługując się szeroko akceptowanymi obecnie hipotezami, trzeba jednak pamiętać o tym, że hipotezy te, wiodące dziś prym wśród gronie naukowców zajmujących się ewolucją układów planetarnych, równie dobrze mogą za jakiś czas zostać rzucone bezpardonowo na dno kosza historii. Problem, jak mi się wydaje, tkwi zasadniczo w jednym aspekcie tego procesu – jego bezładnej chaotyczności. Nie sposób w modelach teoretycznych, służących naukowcom do formułowania hipotez o powstaniu Układu Słonecznego (czy też jakiegokolwiek gwiazdowego w ogólności), ująć wszystkich przypadkowych czynników, mających niebagatelny wpływ na przyszłość całego układu, nie sposób w końcu przewidzieć ani tym bardziej odtworzyć z satysfakcjonującą dokładnością przebiegu wszystkich zdarzeń, które doprowadziły do uformowania się naszego Układu Słonecznego takim, jakim widzimy go dziś. Wiele niewiadomych nie oznacza jednak zupełnego braku informacji – bez wnikania zbytnio w szczegóły zakładamy obecnie, że Układ Słoneczny powstał w pewnym rejonie ogromnego, wielkości kilku lat świetlnych zapewne, obłoku molekularnego (składającego się z z wodoru i helu z domieszką pyłu międzygwiezdnego), który na wskutek jakiegoś “zawirowania” (prawdopodobnie wybuchu supernowej w okolicy obłoku) stał się niestabilny i tym samym pojawiać zaczęły się w nim regiony o zróżnicowanej gęstości materii. Moment ten można uznać za moment wejścia na prawdziwą “drogę bez powrotu” – nieubłagane prawa fizyki sprawiły, że wszystko musiało potoczyć się dalej tak, jak się potoczyło – jedno z takich miejsc o większej gęstości zaczęło z rosnącą prędkością przyciągać okoliczny gaz, grubnąc i zwiększając swoją temperaturę. Astronomowie mówią w przypadku tego obłoku o tzw. mgławicy przedsłonecznej, kolebce Układu Słonecznego. Z zasady zachowania momentu pędu wynika, że zapadający się grawitacyjnie obłok musi zacząć wirować, i to coraz szybciej. Po pewnym czasie ok. 98% masy tego obłoku zamieniło się w centralną protogwiazdę, dobrze nam skądinąd znane Słońce, drobniutka reszta natomiast musiała – w wyniku niezliczonych kolizji i zagęszczania materii – uformować w dysku protoplanetarnym znane nam planety, komety, asteroidy i całą resztę inwentarza. Tyle – w telegraficznym zaiste skrócie – mówi hipoteza o powstaniu Układu Słonecznego. Jednym z założeń tej hipotezy jest to, że impulsem, prowadzącym bezpośrednio do prawdziwej lawiny zdarzeń kolejnych, był wybuch supernowej w okolicach obłoku. Nie jest to założenie wyssane z palca – w ostatnich latach dokonano wiele obserwacji wskazujących na to, że wybuch supernowej w pobliżu “wylęgarni” gwiazd może stanowić “kopniak”, inicjujący prawdziwy boom narodzin gwiazd. Fala uderzeniowa, towarzysząca wybuchowi supernowej, zaburza bowiem chmurę gazu i tym samym prowadzi do jego niestabilności. Potwierdzeniem wersji z supernową wydają się być również odkrycia, które zostały dokonane już w latach sześćdziesiątych minionego wieku – w najstarszych odkrytych meteorytach, których powstanie datuje się na początki Układu Słonecznego, z pewnym zaskoczeniem zarejestrowano obecność radioaktywnych izotopów pierwiastków, których – teoretycznie – być w nich nie powinno, a przynajmniej nie mogliśmy wtedy znaleźć odpowiedzi na pytanie, skąd byś się tam wziąć miały. Całkiem rozsądnym wytłumaczeniem dla tej zagadkowej historii okazało się założenie, że radioaktywne izotopy przedostały się do meteorytów jako “podarek” od pobliskich supernowych. Na tym też poprzestano, warto jednak pamiętać, że cała sprawa może mieć tak naprawdę kolosalne znaczenie dla egzystencji nas samych – zakłada się bowiem, że owe izotopy, powiedzmy po milionie lat od momentu uformowania się Układu Słonecznego, zaczęły się rozpadać, generując przy tym wysokoenergetyczne protony, nagrzewając tym samym pierwsze skały, będące później składnikami planet skalistych. A ponieważ zakłada się również, że większość wody na Ziemi pierwotnie pochodzi właśnie z tych skał – radioaktywna ich zawartość może mieć spore znaczenie dla istnienia życia na Ziemi. Przeciwko hipotezie o supernowej wypowiedział się ostatnio międzynarodowy zespół astronomów, w którego gronie znalazła się między innymi dr Maria Lugaro z Monash University w Australii. Opierając się na obserwacjach gwiazd za pomocą teleskopów oraz łączące wnioski z tych obserwacji z nowymi modelami teoretycznymi, które na superkomputerach pozwalają nam poznawać tajniki ewolucji gwiazd, zespół odrzuca założenie o supernowej i zamiast tego postuluje, że obserwacje do spółki z modelami wskazują raczej na gwiazdę o masie ok. 6 mas Słońca, która umierając względnie spokojnie swymi wiatrami gwiazdowymi “nadmuchała” sporo radioaktywnych izotopów do mgławicy przedsłonecznej. Z pewnością takie podejście mogłoby zmienić nasze rozumienie prapoczątków Układu Słonecznego – zespół naukowców planuje pracować nad zagadnieniem dalej i sprawdzić, czy obecność izotopów radioaktywnych w początkach innych układów planetarnych jest regułą, czy też wprost przeciwnie. Takie obserwacje mogą wspomóc badaczy, którzy badają obce układy planetarne – dzięki rozpracowaniu zagadnienia moglibyśmy zdobyć informacje o tym, jakie jest prawdopodobieństwo obecności wody na odległych, skalistych planetach w naszej Galaktyce. Źródła: Link 1 Link 2 Link 3 Grafika: Artystyczna wizja tego, jak mogły wyglądać prapoczątki Układu Słonecznego. Umierająca gwiazda o masie ok. sześciu Słońc (po lewej) nawiewa w okolice powstającego Słońca (po prawej) gaz wzbogacony w powstałe w niej izotopy radioaktywne Źródło grafiki Credit: Gabriel Perez Diaz (Multimedia Service of the Institute of Astrophysics of the Canary Islands) Wyświetl pełny artykuł
  15. Równo czterdzieści lat temu, niezależnie od małostkowych politycznych aspiracji, które doprowadziły do realizacji szalonego jak na te czasy projektu, istoty ludzkie po raz pierwszy postawiły stopę na powierzchni obiektu kosmicznego innego niż Ziemia. Zapomnijmy na chwilę o wspomnianej wyżej przebrzydłej polityce, zapomnijmy o w sumie niewielkim znaczeniu naukowym programu Apollo – symboliczna wartość tego dokonania z całą pewnością zasługuje na odpowiednie poszanowanie, z pewnością też, jeśli nie jesteście całkowicie odizolowani od mediów w Puszczy Białowieskiej lub podobnym jej miejscu, słyszeliście w ostatnich dniach sporo na ten temat – z tego też względu na tej krótkiej wzmiance poprzestanę, gdyż sensu nie ma powielać po raz n-krotny te same wieści. Zaproponuję natomiast coś odmiennego – powracamy do cyklu “wrażeń wizualnych” powiązanych z Kosmosem. W 1887 roku francuski astronom i wieloletni dyrektor marsylskiego obserwatorium astronomicznego, niejaki Edouard Stephan, natrafił podczas swoich obserwacji na rzeczywiście niezwykły astronomiczny “rodzynek” – w konstelacji Pegaza, w – jak się okazało wiele lat później – odległości ok. 280 milionów lat świetlnych od Ziemi, zaobserwował on grupę galaktyk w szalonym tańcu, zwaną od nazwiska odkrywcy Kwintetem Stephana (wedle innych systematyk również Hickson 92 lub Arp 319). Na zdjęciu prezentowanym powyżej widocznych jest pięć galaktyk – mamy tutaj do czynienia zarówno z galaktykami spiralnymi jak i eliptycznymi. Tak naprawdę jednak nie jest to jedna, zwarta grupa – galaktyka spiralna, wizualnie największa, znajdująca się u dołu zdjęcia trochę po lewej od środka, wedle różnych oszacowań znajduje się znacznie bliżej Ziemi niż pozostałe cztery – o ile w przypadku grupy w tle mowa o ok. 280 milionach lat świetlnych, o tyle galaktyka NGC 7320 (bo o niej mowa) znajduje się co najmniej połowę bliżej (szacunkowo od 50 do 100 mln lat świetlnych). Mamy tutaj więc do czynienia niejako z intruzem, który z zazdrości chyba wkradł się niecnie na rzeczywiście piękne zdjęcie. Pozostałe galaktyki to – patrząc od lewej – spiralna galaktyka z poprzeczką NGC 7319, następne w kolejce są wizualnie bardzo bliskie sobie NGC 7318b i NGC 7318a, w większej odległości od nich po prawej – eliptyczna NGC 7317. Te cztery galaktyki obserwujemy w bardzo dynamicznym (przykładając, rzecz jasna, kosmiczną miarę do pojęcia dynamiczności) tańcu – galaktyki kotłują się wokół wspólnego środka ciężkości, łącząc się i rozrywając. Z pewnością niezwykle fascynujący widok na niebo mieć powinni hipotetyczni mieszkańcy jednej z tych galaktyk – niebo to chyba nie sprawia ponurego wrażenia czarnego aksamitu nakrapianego z rzadka jasnymi punkcikami jak ma to miejsce w naszym przypadku. Inna sprawa, że życie w takim miejscu byłoby pewnie dość nerwowe – nigdy nie wiadomo, kiedy pozornie znikąd pojawi się jakaś gwiazda, przemykająca w szalonym pędzie przez taki układ gwiazdowy. Galaktyka NGC 7318b, jak się okazuje, pędzi z zawrotną szybkością przez centrum grupy – szacuje się, że jej prędkość oscyluje wokół ok. 3,2 miliona kilometrów na godzinę. Gwałtowny ruch galaktyki wywołuje potężną falę uderzeniową, która na powyższym zdjęciu została ukazana jako jasnoniebieski łuk w centrum zdjęcia (łuk ten jest większy od Drogi Mlecznej!). Łuk ten to gaz pobudzony do świecenia w zakresie rentgenowskim. Fala uderzeniowa w Kwintecie Stephana należy do największych jakie udało się zaobserwować. Samo zdjęcie stanowi złożenie dwóch obrazów, zarejestrowanych w świetle widzialnym przez Canada-France-Hawaii Telescope na Hawajach, oraz w zakresie rentgenowskim przez amerykańskiego satelitę Chandra X-Ray Observatory. Źródło Zdjęcie: Kwintet Stephana w pełnej krasie Źródło zdjęcia Credit: X-ray (NASA/CXC/CfA/E.O’Sullivan); Optical (Canada-France-Hawaii-Telescope/Coelum) Wyświetl pełny artykuł
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.