Skocz do zawartości

NewsBot - Aktualności

Społeczność Astropolis
  • Postów

    41
  • Dołączył

  • Ostatnia wizyta

Treść opublikowana przez NewsBot - Aktualności

  1. Dwa tygodnie mijają właśnie od publikacji poprzedniego wpisu. Wprawdzie w ostatnich czasach to nic niezwykłego, jednak mimo to poczułem się w obowiązku by w kilku słowach usprawiedliwić równie kiepską frekwencję. Jak to w życiu bywa najróżniejsze choróbska po ludziach chodzą i nie inaczej stało się ze mną - bez rozwodzenia się o o szczegółach miesiąc temu rozpocząłem leczenie, które niestety jest trudne i długotrwałe, przy okazji wymaga spożywania dzień w dzień sporej ilości dość wrednych farmaceutyków. Leki jak to leki bez skutków ubocznych obyć się nie mogą i przyjmowane przeze mnie nie są tutaj żadnym wyjątkiem, cała gama zróżnicowanych objawów powoduje, że codzienne życie kształtuje się inaczej, niż bywało wcześniej. Leczenie – optymistycznie – potrwa jeszcze kilka miesięcy, w związku z tym proszę Was o wyrozumiałość: psychika cierpi niestety również w pewnym stopniu w trakcie kuracji, co powoduje, że różnie z moją szeroko rozumianą aktywnością bywa, czy to przy codziennych zajęciach, czy też tutaj, na Cytadeli. Z tego względu najwcześniej latem spodziewać się można powrotu do stabilnej “formy” (jeśli taka kiedykolwiek istniała), co solennie też obiecuję. Pozdrawiam! Wyświetl pełny artykuł
  2. Stwierdzenie, iż światło przemieszcza się zawsze ze stałą, niezmienną prędkością, kwalifikuje się współcześnie do kategorii „truizm pierwszej kategorii”, warto jednak pamiętać o tym, że wbrew pozorom naukowcom względnie późno udało się potwierdzić to podejrzenie, wysunięte po raz pierwszy przez duńskiego astronoma Ole Rømera już w XII wieku. O znaczeniu tej stałej trudno dyskutować – niejaki Einstein oparł chociażby na tej fundamentalnej stałej gmach Szczególnej Teorii Względności. Istnieją co prawda wśród naukowców i tacy, którzy raz po raz próbują stałość prędkości światła kwestionować, są to jednak sporadyczne przypadki, które przez naukowe autorytety zbywane są machnięciem ręki. Akceptacja niezmiennej prędkości światła, zupełnie niezależnej od ruchu źródła je emitującego, wprowadza do świata fizyki sporo zamętu i w konsekwencji zmusza nas do pogodzenia się z istnieniem niekiedy mocno nieintuicyjnych zjawisk w rzeczywistości fizycznej, w której dane jest nam istnieć. Jedną z nich jest tzw. dylatacja czasu – zjawisko polegające na tym, że dokonując pomiaru czasu w dwóch układach odniesienia, z których jeden porusza się względem drugiego, nie otrzymamy identycznych wyników. O ile na naszej wygodnej planecie ze względu na jej maleńkość w kosmicznych skalach niełatwo o doświadczenie dylatacji w sposób mierzalny, o tyle astronomowie posiadają tutaj o wiele większe pole manewru – ogromne odległości dzielące obiekty kosmiczne pozwalają testować teorię względności do woli i jak dotąd – o ile mi wiadomo – potwierdzać tylko jej przewidywania z rosnącą dokładnością. Zastanówmy się przez chwilę, gdzie i w jaki sposób efekt dylatacji czasowej mógłby manifestować się w Kosmosie. Zgodnie z najbardziej prawdopodobną obecnie wersją zdarzeń Wszechświat powstał ok. 13,7 miliardów lat temu w trakcie wielce tajemniczego wydarzenia, określanego jako Wielki Wybuch. Od tego czasu Wszechświat, znów zawierzając twierdzeniom naukowców, stale podlega ekspansji, więcej nawet, ekspansja ta od bliżej nieokreślonego momentu w przeszłości zdaje się przyspieszać. Pisząc o dylatacji czasu znowuż wspomniałem, że decydującym założeniem związanym z tym zjawiskiem jest to, iż jeden z układów odniesienia musi poruszać się względem drugiego. Łącząc te dwa fakty otrzymujemy tym samym najwspanialsze laboratorium eksperymentalne, jakie tylko sobie można wymarzyć – staje się nim cały Wszechświat. Ekspansja Wszechświata powoduje, że (z kilkoma wyjątkami w lokalnej części Wszechświata) wszystkie galaktyki zdają się oddalać od Drogi Mlecznej, im taka galaktyka bardziej odległa, tym większa jest prędkość, z jaką obiekt ten zdaje się uciekać w dal. Ponieważ światło przemieszcza się, jak pamiętamy, ze stałą prędkością, coś dziwnego zdaje się zachodzić w takich warunkach z nim samym – światło docierające w bezchmurne noce do zwierciadeł teleskopów na naszej planecie ma do pokonania coraz większą odległość a poprzez ekspansję samej przestrzeni fale elektromagnetyczne ulegają wydłużeniu, tzw. przesunięciu ku czerwieni („redshift”). Im większe poczerwienienie światła docierającego z odległego obieku, tym większa jego odległość od Ziemi. Dylatacja czasu w tym przypadku oznacza jednak coś jeszcze – nie tylko dochodzi do poczerwienienia światła odległych galaktyk, zgodnie z teorią Einsteina bowiem zachodzące w nich zdarzenia muszą „trwać dłużej” w naszych oczach. Nie bez powodu użyłem cudzysłowu – zjawiska te przebiegają w takim samym czasie jak w każdym innym miejscu Wszechświata (zakładając, że przed wieloma miliardami lat przykładowo supernowe wybuchały w taki sam sposób jak obecnie), jednak ze względu na stałą prędkość światła oraz ekspansję Wszechświata ziemski obserwator rejestruje co innego. Eksperymentalnie potwierdzono zjawisko dylatacji czasu we Wszechświecie na podstawie supernowych – naukowcy podejrzewali, że bardzo odległe supernowe musiałyby blednąć zauważalnie wolniej niż supernowe które eksplodowały, załóżmy, w połowie drogi do supernowej odleglejszej. Zależność tą udało się zarejestrować, rzeczywiście wraz z rosnącą odległością supernowe zdają się przechodzić kolejne etapy swej ewolucji odpowiednio wolniej. Zawsze jednak znajdzie się taki jeden z drugim, kto drąży głębiej i głębiej oraz psuje harmonię w rajskim świecie fizyków. Kimś takim okazał się niedawno niejaki Mike Hawkins, pracujący w Royal Observatory of Edinburgh (Wielka Brytania). Czy to z braku zajęć czy też w ramach najprawdziwszej pasji astronom ten zabrał się za niełatwe zadanie – przeanalizował dane obserwacyjne dotyczące ok. 900 kwazarów, zebrane w ciągu ostatnich 28 lat. Kwazar to obiekt mimo wszystko ciągle jeszcze tajemniczy – są to najodleglejsze chyba obiekty kosmiczne, jakie jesteśmy w stanie zaobserwować, wszystko to dlatego, że są to źródła promieniowania o ogromnej mocy i jasności całych galaktyk. Jak podpowiada sama nazwa (pochodząca od angielskiego „quasar”, będącego znowuż skrótem od „quasi-stellar radio source”, czyli „pozornego gwiezdnego źródła radiowego”) mamy do czynienia z czymś, co w pewnym sensie przypomina zwykłą gwiazdę. Chwileczkę, powiecie, pojedyncza gwiazda którą widzimy z odległości miliardów lat świetlnych? Oczywiście, niewykonalne to zadanie, niemniej jednak kiedy odkryto pierwsze kwazary, do czego doszło już w XIX wieku, sądzono rzeczywiście, że chodzi o gwiazdy, znajdujące się we wnętrzu naszej Galaktyki. Jak okazało się z czasem, nic bardziej mylnego. Większość galaktyk, jak uważa się dzisiaj, posiada w swym centrum supermasywną czarną dziurę. W kontekście naszych rozważań najważniejsze jest, że owe monstra zachowują się w sposób bardzo zróżnicowany – czasem, jak w przypadku naszej Drogi Mlecznej, wiemy tylko, że są, bowiem smacznie śpią i ich aktywność jest niemal zerowa, czasem jednak stają się niezwykle aktywne i wówczas stają się centralnym elementem kwazarów właśnie. Jak obecnie przypuszczamy kwazary to hiperaktywne jądra pewnego rodzaju galaktyk, w których centralna czarna dziura dosłownie „wpada w szałâ€ i pożera zachłannie ogromne ilości materii. Materia ta, zmierzając na swej drodze bez powrotu ku czarnej dziurze, zostaje podgrzana do gigantycznych temperatur, co skutkuje znowuż emisją potężnych ilości promieniowania. Wiemy więc, czym z grubsza są kwazary. Biorąc pod uwagę to, co napisałem o supernowych powyżej, wydaje się być logicznym, że podobna zasada związana z dylatacją czasu powinna odnosić się również do kwazarów. I tutaj wspomniany wcześniej Mike Hawkins powiada stanowczo: nie. Ku zaskoczeniu astronoma przeprowadzona przez niego analiza danych wykazała, że okresowość zachowania kwazarów wydaje się być identyczna w przypadku kwazarów w odległości ok. 6 miliardów lat świetlnych oraz kwazarów niemal dwa razy dalej się znajdujących, bo w odległości 10 miliardów lat świetlnych. Stwierdzenie to jest dość kłopotliwe, bo trudno zaprawdę podać powód, dlaczego kwazary właśnie miałyby być tymi obiektami, które wyłamują się z ram teorii względności. Sam Hawkins w miarę ostrożnie wysunął kilka propozycji ze swej strony – można podzielić je na bardzo… „odważne” oraz „mniej odważne”. Pierwsza z nich brzmi naprawdę rewolucyjnie: Wszechświat po prostu się nie rozszerza. Mając jednak z jednej strony pojedynczą analizę Hawkinsa, z drugiej zaś niezliczone obserwacje potwierdzające fakt ekspansji, trudno wróżyć temu pomysłowi wielkie powodzenie. Trochę lżejszego kalibru, choć ciągle dość drastyczne, jest stwierdzenie, iż kwazary po prostu nie znajdują się w odległościach takich, na jakie wskazuje ich poczerwienienie. Sensowniejsze wydaje się w tym kontekście – mimo to ciągle mocno kontrowersyjne – założenie, że tak naprawdę mamy do czynienia ze złudzeniem optycznym: na drodze światła pomiędzy kwazarem a Ziemią znajdować się muszą dość kompaktowe (wielkości gwiazdy?) obiekty, które zniekształcają rejestrowany obraz i „pojaśniająâ€ odległe kwazary. Wydaje się to dość kuriozalne – skoro mowa o setkach kwazarów, badanych przez Hawkinsa, musielibyśmy założyć, że albo niezwykle dziwny przypadek ustawił owe tajemnicze obiekty dokładnie między nami a kwazarami, albo też… obiektów tych jest bez liku. I w tym właśnie tkwi haczyk – jeśli obiekty te rzeczywiście fałszowałyby obserwacje kwazarów, musiałoby ich być tak dużo, że cała ciemna materia Wszechświata zmagazynowana byłaby właśnie w nich. Najlepszym kandydatem wg Hawkinsa są tutaj tzw. pierwotne czarne dziury, które miały zgodnie z niektórymi teoriami powstawać tuż po Wielkim Wybuchu. Sęk w tym, że większość naukowców niechętnie podchodzi do takiego pomysłu – przeważająca ich ilość wierzy, że ciemna materia to raczej jakieś egzotyczne cząstki, nie czarne dziury. Przyznam szczerze, że praca Hawkinsa wydała mi się mocno intrygująca – na chwilę obecną nie istnieje żadne sensowne wytłumaczenie dla dokonanego przez niego odkrycia. Nie jestem co prawda wielbicielem „przełomowych” rozwiązań tej zagadki – sądzę, że Wszechświat i tak się rozszerza i kwazary niewiele w tym zmienią – jednak z przyjemnością poczekam na kolejnych badaczy, próbujących wyjasnić tajemnicę. Źródła: Link 1 Link 2 Wyświetl pełny artykuł
  3. Spoglądając na zdjęcie poniżej stwierdzicie pewnie w pierwszym momencie, że do nadzwyczajności mu całkiem daleko – ot, zdjęcie Księżyca jakich wiele. Kiedy jednak przyjrzycie mu się wnikliwiej zauważycie pewien drobny, aczkolwiek trochę niepokojący szczegół – element, dzięki któremu zdjęcie to warte jest jednak wyróżnienia. Drobna jasna plamka na tle części Księżyca kryjącej się w cieniu nie jest ani poświatą wybuchu jądrowego ani też blaskiem gorejącego wulkanu, można też wykluczyć z góry, że to obca cywilizacja, mająca siedzibę na Srebrnym Globie a przez nas dotąd niewykryta, organizuje jakiegoś sortu księżycowe dożynki. Wprawdzie plamka ta nie jest bogata w szczegóły i z tego względu może znaleźć się wśród Was malkontent, który mi na słowo nie uwierzy, jednak reszta jak sądzę z pewnym zaskoczeniem zaakceptuje stwierdzenie, iż plamka ta to nic innego jak wytwór ludzkiej cywilizacji – Międzynarodowa Stacja Kosmiczna (ISS), wędrująca w swej orbitalnej podróży na tle satelity Ziemi. Zdjęcie wykonane zostało przez fotografa Fernando Echeverria, który w tajemniczy sposób zdołał uchwycić maleńką stację przemykającą niezwykle szybko przed tarczą Księżyca. Fotograf wykonał zdjęcie zaledwie kilka dni temu – dokładniej 5. kwietnia, ok. kwadrans przed startem promu “Discovery” w kierunku rzeczonej stacji. Punktem obserwacyjnym było Kennedy Space Center na Florydzie, z którego to sam prom również startował. Źródło zdjęcia Credit: Fernando Echeverria/NASA Wyświetl pełny artykuł
  4. Choć rosnące w błyskawicznym tempie wyrafinowanie nowoczesnej technologii od kilkudziesięciu lat prowadzi do prawdziwego rozkwitu badań najodleglejszych zakątków Wszechświata, to nie oznacza to wcale, że wiemy już wszystko, ba, istnieje w dalszym ciągu sporo niejasności w naszej wiedzy o obiektach znacznie nam bliższych, wiele jeszcze pozostało nawet do odkrycia w związku z naszą ojczystą planetą. Uzupełnianie luk w tej wiedzy nie należy co prawda do zadań astronomów i kosmologów – których dokonania interesują nas w ramach Cytadeli mimo wszystko najbardziej – jednak nie samą astronomią człek w końcu żyje; przyznam szczerze, że o ile kiedyś dokonania szeroko pojętych geologów interesowały mnie średnio lub nawet wcale, to w ostatnim czasie zarówno geologia właśnie (oraz pozostająca z nią w jakimś tam luźnym związku paleontologia) zostały przeze mnie odkryte jako prawdziwa „terra incognita”. Z tego względu zmuszony jestem prosić Czytelników wyczekujących „kosmicznych” wieści o wybaczenie i wyrozumiałość – jak sądzę warto czasem wrócić z kosmicznych podróży na naszą planetę, a dokładniej skierować zainteresowanie na jej wnętrze. Jedną z ciągle nierozwiązanych do końca zagadek związanych z naszą planetą jest bez wątpienia prawdziwa istota najgłębiej ukrytej w jej wnętrznościach części, czyli planetarnego jądra. Dzięki badaniom sejsmologicznym wiemy co prawda sporo już o jego naturze, mimo to ambitni badacze nie muszą jeszcze przez bardzo długi czas martwić się o brak zajęć. Sejsmologia w ich rękach to naprawdę potężne narzędzie, nie jest to jednak jedyny instrument, dzięki któremu w stanie jesteśmy Ziemi wyrywać po kawałku jej tajemnice – w pierwszej chwili może okazać się to zaskakujące, jednak bardzo dobrze to zadanie realizuje również zmyślnie zastosowana wiedza z dziedziny fizyki cząstek. Międzynarodowy zespół naukowców, złożony z badaczy z Włoch, Stanów Zjednoczonych, Niemiec, Francji oraz Rosji wykorzystywał w swej pracy badawczej (o której za chwilę) dobrodziejstwa oferowane przez placówkę naukową pod dźwięczną nazwą Laboratori Nazionali del Gran Sasso, ukrytą we wnętrzu włoskiego masywu górskiego Gran Sasso (umiejscowioną w okolicy miejscowości L’Aquila). W ramach tej placówki funkcjonuje niecodzienny projekt pod „włosko” brzmiącym akronimem BOREXINO (od BORon EXperiment), który w istocie jest niczym innym, jak po prostu „najzwyklejszym na świecie” detektorem neutrin. Zanim powiemy słów kilka o samych badaniach, słów może kilka o „delikwentach” badaniom podlegającym. Neutrina to bardzo „specyficzne” cząstki elementarne – nie dość, pod względem liczebności są chyba bezkonkurencyjne w całym Wszechświecie, to mają do tego zaskakujące cechy: nie oddziaływują niemal w ogóle z materią, przenikając bez żadnego wysiłku obiekty wielkości na przykład Ziemi, do tego ich masa jest bardzo niewielka i bliska zeru. Biorąc pod uwagę taką charakterystykę cząstek nietrudno się domyśleć, że ich detekcja sprawia niemałe problemy – rzeczywiście, rejestrowanie neutrin do wdzięcznych zadań nie należy. Istnienie neutrin zostało przewidziane – w teorii – przez wybitnego szwajczarskiego fizyka Wolfganga Pauliego, który już w 1930 roku stwierdził, iż cząstki takie muszą istnieć (nie wnikajmy może dlaczego, bo to regiony, w których mogę się niemiłosiernie zaplątać). Zanim jednak potwierdzono eksperymentalnie ich obecność upłynęły niemal trzy dekady – dokonano tego w drugiej połowie lat pięćdziesiątych XX. wieku, i to nie bez wysiłku. Trudności związane z zarejestrowaniem cząstki mogą wydawać się niewiarygodne, gdy uzmysłowimy sobie (zgodnie z naszą obecną o niej wiedzą), że w kazdej sekundzie przez organizm każdego z nas „przelatuje” bez mała… 50 bilionów tych cząstek, jednak wymienione wcześniej egzotyczne cechy neutrin usprawiedliwiają całkowicie biednych badaczy. Wszystkich zainteresowanych szczegółowszymi informacjami o tych fascynujących cząstkach zachęcam do szperania w materiałach dostępnych w Internecie, tutaj dodam tylko, że neutrina powstają – między innymi – w trakcie tzw. rozpadów „beta”, rozróżniamy ich trzy rodzaje (neutrina elektronowe, mionowe i taonowe) i, co bardzo ciekawe, cząstki te potrafią w trakcie swej podróży zmieniać swój rodzaj, podlegają tzw. oscylacji neutrinowej. W kontekście tego wpisu jednak najważniejszym faktem jest pierwszy z wyżej wspomnianych – neutrina powstają przy radioaktywnym rozpadzie niestabilnych jąder atomowych. Kiedy do takiego rozpadu dochodzi, wydzielana jest między innymi energia cieplna. I tutaj szczęśliwie w końcu wracamy to zasadniczego tematu wpisu – mimo że sporo jeszcze tajemnic jądro Ziemi przed nami kryje, to raczej pewne wydaje się, iż duży udział w generowaniu ciepła we wnętrzu planety ma właśnie rozpad pierwiastków takich jak uran, tor oraz potas. Naturalna radioaktywność jądra Ziemi uważana jest za jeden z głównych „generatorów” ciepła naszej planety. Rozpad radioaktywny generuje więc neutrina – badając energię takiej ulotnej cząstki, docierającej do nas z wnętrza Ziemi (zwanej geoneutrinem, by odróżnić je od neutrin słonecznych, docierających do nas od naszej rodzimej gwiazdy, czy też neutrin atmosferycznych, powstających w wyniku kolizji promieniowania kosmicznego z cząsteczkami górnych warstw atmosfery), sporo można dowiedzieć się o charakterystyce jądra, które uległo rozpadowi. W ten sposób to naukowcy uzyskują dostęp do wiedzy o składzie tej części planety, której bezpośrednie badanie jest, jak łatwo się domyśleć, po prostu niemożliwe. Wykrywanie neutrin to zadanie ze względu na ich kłopotliwą charakterystykę niełatwe – w celu ich detekcji buduje się zaawansowane technologicznie detektory, wśród których najszerzej chyba znanym jest potężny detektor SuperKamiokande, umiejscowiony w Japonii. Zasada działania takiego detektora jest (oczywiście w uproszczeniu, i to znacznym) zwykle taka sama: głęboko pod ziemią, najlepiej z dala od sztucznych źródeł neutrin (którymi są elektrowni e jądrowe) umieszcza się potężne zbiorniki z płynem, tzw. scyntylatorem. Scyntylator to inaczej mówiąc substancja, która emituje światło, gdy przenika przez nią promieniowanie. Ogromne zbiorniki pełne scyntylatora umieszczane są więc pod ziemią, gdzie poza zbiornikiem drugim najistotniejszym elementem są fotopowielacze, inaczej mówiąc detektory światła o ogromnej czułości (rejestrujące pojedyncze fotony) i szybkości rejestracji. Takich fotopowielaczy komora zawierająca zbiornik posiada bez liku, wystarczy zajrzeć (gorąco polecam!) do galerii detektora BOREXINO pod tym adresem, by zobaczyć od groma fascynujących zdjęć. Dobrze więc, zbudowaliśmy w pocie czoła detektor, w jaki sposób jednak detektor ten wykrywa neutrina, które przecież nie są „światłem”, do tego niemal nie oddziałują z materią? Otóż wielkość zbiornika ma swoje uzasadnienie – ogromna ilość scyntylatora konieczna jest właśnie dlatego, że neutrina tak bardzo wymykają się detekcji: kiedy przypomnimy sobie, iż na każdy centymetr kwadratowy powierzchni na Ziemi w ciągu sekundy dociera kilkadziesiąt miliardów neutrin, liczba rejestrowanych przez detektory neurin będzie śmiesznie mała – w przypadku detektora BOREXINO mowa jest bowiem o kilku neutrinach słonecznych na dzień, nie wspominając już o geoneutrinach, których rejestrowane jest zaledwie ok. 10 na… rok. Działanie detektora neutrin wymaga więc ogromnej cierpliwości. Neutrina, jak już wiemy, niemal nie posiadają masy i niemal nie oddziaływują z materią, jednak to słowo – niemal – jest tutaj kluczowe. Stwarzając dla neutrin idealne warunki (ogromna ilość scyntylatora), przyprawiając to niezwykle czułą aparaturą (fotopowielacze) i dokładając do tego całe oprzyprządowanie i oprogramowanie oraz anielsko cierpliwą ekipę badaczy w końcu sprawimy, że jedno z nieliczonej liczby neutrin, przenikających w każdej chwili detektor, siłą rzeczy wychwycone zostanie przez szczęśliwe jądro w komorze i doprowadzi do jego rozpadu, a tym samym do wygenerowania ultrakrótkiego błysku światła. Detektor BOREXINO, który jest czternastometrową kulą zawierającą 300 ton scyntylatora otoczoną przez 2.200 fotopowielaczy, powstał właściwie w celu badania neutrin słonecznych, jednak nie powstrzymało to naukowców przed wykorzystaniem detektora do rejestracji geoneutrin. Jak poinformowali badacze biorący udział w kolaboracji nie było to zadanie pozbawione widoków na przysżłość – badacze poinformowali właśnie, że udąło się osiągnąć założony cel. Wnioskując o naturze rozpadających się jąder atomowych na podstawie „przechwyconych” neutrin badacze stwierdzili, że neutrina pochodziły z rozpadu uranu oraz toru, potwierdzając tym samym przypuszczenia geologów odnośnie składu chemicznego wnętrza planety. To jednak dopiero początek – aby poznać skład jądra oraz płaszcza Ziemi w szczegółach sam detektor BOREXINO nie wystarcza, do tego celu konieczne byłoby stworzenie globalnej sieci detektorów neutrin. Naukowcy przypuszczają, że wśród wówczas wykrytych neutrin powinne znaleźć się i takie, które powstały w trakcie rozpadu jąder potasu i rubidu. Wyniki zebrane przez badaczy we włoskich górach nie są wprawdzie pierwszą próbą rejestracji geoneutrin – podobne zadanie realizowane było już w 2004 roku w Japonii, jednak wyniki wówczas uzyskane były co najmniej kontrowersyjne, gdyż detektor zastosowany do ich uzyskania znajdował się w sąsiedztwie kilku elektrowni atomowych, mogących zafałszować rejstrację. Niezależnie od tego jednak dzięki takim badaniom naukowcy bliżsi są znów o krok do poznania prawdziwej natury tysięcy kilometórów skał, po których dzień w dzień stąpamy. Źródło: Link 1 Zdjęcie: Detektor BOREXINO w całej swej krasie Źródło zdjęcia Credit: BOREXINO-Collaboration Wyświetl pełny artykuł
  5. Co prawda mam jak najbardziej świadomość, że powyższe określenie ujęte w cudzysłowy nie brzmi zbyt poprawnie (a przynajmniej żaden ze słowników naszej pięknej ojczystej mowy, które „przewertowałem” w internecie, nie potrafił go zidentyfikować), jednak jestem w końcu panem i władcą udzielnym tej wspaniałej strony i każda fanaberia – tym razem związana z brakiem reguł językowych – zostać mi musi wybaczona, no i, niezależnie od tej swawolnej rozpusty, tytuł wpisu brzmi przez to jakoś tak… okrąglutko i gładziutko. Ale wystarczy tych bzdur i czczej pisaniny – przejdźmy do rzeczy, w końcu czas nagli i klawiatury szkoda. Podwójnych, czy generalnie rzecz ujmując, wielkrotnych układów gwiazdowych znamy w Kosmosie względnie sporo. Układy te są bardzo zróżnicowane – od relatywnie prostych układów dwóch gwiazd obracających się wokół wspólnego środka ciężkości do niezwykle skomplikowanych układó, gdzie składników jest kilka, w których trudno w pierwszym momencie dostrzec który z obiektów krąży wokół którego i jak w ogóle cały ten układ się nie „rozlatuje”. Zwykle jednak wyobrażamy sobie, że układy takie (podwójne czy większe) są, w porównaniu z rozmiarowo takim sobie Układem Słonecznym, dosyć spore – gwiazdy ze względu na swą wielkość niespecjalnie nadają się do egzystencji w naprawdę bliskim sąsiedztwie. Są jednak od tej reguły wyjątki – gwiazdy, które pod względem wymiarów są wręcz mikroskopijne, pod względem masy jednak wcale nie odstają od swych pełnowymiarowych kolegów. Mowa oczywiście – w tym przypadku – o białych karłach. Białe karły to pośmiertne szczątki „normalnych” gwiazd, których wielkość oscyluje wokół średnicy naszej maleńkiej Ziemi, masa natomiast porównwalna jest z masą Słońca. Jak nietrudno sobie wyobrazić gęstość materii w takiej gwieździe musi „co nieco” przekraczać znane nam z codziennego doświadczenia wartości – średnia gęstość materii w białym karle to podobno mniej więcej jedna tona na 1 centymetr sześcienny! Tak silnie upakowane obiekty są same w sobie fascynujące, kiedy jednak gromadzą się w pary, zaczyna się prawdziwie zadziwiający spektakl. W 1999 roku astronomowie wykorzystując dawno już zapomnianego satelitę ROSAT (ROentgen SATellite), który odliczał wówczas ostatnie dni swej aktywności zanim zastapił go nowocześniejszy – i z pewnością lepiej przez Was kojarzony - teleskop kosmiczny Chandra, zauważyli na niebie dziwne źródło silnego promieniowania rentgenowskiego. W ten sposób doszło do odkrycia układu podwójnego białych karłów, który uzyskał miano RX J0806.3+1527 lub, co brzmi chyba znacznie lepiej, HM Cancri. W odległości ok. 16 tysięcy lat świetlnych od Ziemi zaobserwowano wówczas układ karłów, który pod pewnym względem wydawał się mieć niesamowite właściwości – naukowcy przecierając oczy ze zdumienia stwierdzili bowiem, że wszystko wskazuje na to, iż obie gwiazdy obracają się wokół siebie w rekordowo krótkim czasie. Obserwacje z 1999 roku sugerowały, że gwiazdy w układzie HM Cancri wykonują pełen obrót wokół wspólnego środka masy w czasie zaledwie… niewiele ponad pięciu minut. Większość naukowców nie potrafiła uwierzyć, że coś takiego jest możliwe, prawdą jest też to, że obserwacje były dalekie od doskonałości i tym samym na ostateczny dowód – lub zaprzeczenie – czekać trzeba było jedenaście lat. W końcu jednak tajemnica została wyjaśniona a o jej rozwiązaniu międzynarodowy zespół naukowców postanowił napisać w ostatnim wydaniu „Astrophysical Journal Letters” z 10 marca tego roku. Grupa astronomów kierowana przez doktora Gija Roelofsa z Harvard-Smithsonian Center for Astrophysics w Cambridge (USA) ciekawa prawdziwej natury układu HM Cancri uzyskała dostęp do najpotężniejszych teleskopów na naszej planecie – teleskopów Kecka na Hawajach. Wykorzystując teleskop Keck I (jeden z dwóch gigantów o śrenicy lustra 10 metrów) i angażując najnowsze oprzyrzadowanie tych potężnych instrumentów obserwacyjnych, naukowcy prowadzili intensywne obserwacje układu gwiazd. O ile w latach wcześniejszych najczęściej warunki pogodowe zapobiegały odkryciu prawdziwej natury HM Cancri, o tyle tym razem, dzięki połączonym wysiłkom astronomów, pięknej pogodzie oraz potencjałowi teleskopu w końcu udało się potwierdzić niewiarygodne dane o tym gwiezdnym systemie. Naukowcy rejestrowali w krótkich odstępach czasu światło docierające z układu gwiazd, by analizować następnie linie spektralne HM Cancri. Poszukiwali oni w ten sposób ledwie widocznych przesunięć w widmie gwiazd, które – w wyniku wszędobylskiego efektu Dopplera – pojawiały się w wyniku ruchu składników układu. Wraz z przemieszczaniem się gwiazd linie spektralne regularnie przesuwały się to w stronę niebieską to w stronę czerwoną widma, pozwalając w ten sposób precyzyjnie obliczyć prawdziwy okres orbitalny gwiazd. Okazało się, że obie gwiazdy, choć brzmi to niedorzecznie w sumie, wykonują pełny obrót wokół wspólnego środka ciężkości w czasie krótszym zapewne niż poświęcacie na przeczytanie tego wpisu. HM Cancri to układ podwójny, w którym składniki układu potrzebują zaledwie 5,4 minuty na pełny obrót wokół wspomnianego środka! Ma to oczywiście przełożenie na inne, fascynujące cechy układu – szalona prędkość gwiazd wymaga, by sam układ był maleńki, i tak też jest w istocie – odległość pomiędzy gwiazdami jest nie większa niż 8 średnic Ziemi, mówiąc inaczej jedna czwarta odległości Ziemi od Księżyca lub – liczbowo – 100 tysięcy kilometrów. W skali kosmicznej wartości te są śmiechu warte – a jednak, doktor Gij wraz z ekipą udowodnili ich poprawność. Tym samym układ HM Cancri stał się z miejsca najmniejszym i posiadającym najkrótszy okres orbitalny układem podwójnym, jaki jest nam znany. Wedle naukowców jest to również układ, który ociera się o prawdziwe ekstremum – wygląda na to, że niewiele krótszy okres orbitalny prowadziłby nieuchronnie do niemal natychmiastowego zlania się obu karłów. Stanie się to zresztą najprawdopodobniej w trudnej do określenia przyszłości, gdyż taka bliskość gwiazd zmusza je do wyhamowywania się nawzajem i dodatkowo, ponieważ niemal „ocierająâ€ się o siebie, dochodzi do przepływu materii z partnera mniejszego, zniekształconego do formy kropli, na większego. Materia ta dociera w okolice równika większej gwiazdy, gdzie dochodzi do wytworzenia promieniowania rentgenowskiego silniejszego, niż emitowane jest przez nasze Słońce. Sama obserwacja była wielkim wyzwaniem – układ HM Cancri zgodnie z wypowiedziami naukowców jest układem niezwykle „bladym” o jasności miliony razy mniejszej niż najbledszej gwiazdy widocznej gołym okiem. Ultrakrótki okres obrotowy dodatkowo utrudniał wykonanie pomiarów. Astronomowie dumnie przyznają, że ich obserwacje były na granicy współczesnych możliwości sprzętu astronomicznego. Poza stwierdzeniem co do niezwykle egzotycznych cech układu nasuwa się tutaj oczywiście niemal natychmiast kolejna uwaga – skoro mamy do czynienia z tak ciasnym układem dwóch ciał niebieskich, krążących wokół siebie z szalonymi prędkościami, łatwo powiązać ten obraz z ideałem, poszukiwanym przez wytrawnych tropicieli fal grawitacyjnych. Zgodnie z założeniami projektów mających na celu udowodnienie istnienia tychże fal, przewidywanych przez Einsteina daawno już temu, ciasne układy gwiazd są idealnymi kandydatkami do tego celu. Można więc śmiało zakładać, że jeśli już w końcu komuś uda się zarejestrować efemeryczne fale, stać się to może wielce prawdopodobnie właśnie w przypadku układu HM Cancri. Artykuł naukowców Źródła: Link 1 Link 2 Link 3 Link 4 Link 5 Link 6 Link 7 Link 8 Link 9 Link 10 Link 11 Link 12 Grafika: Prawdopodobny wygląd układu (symulacja komputerowa) Źródło grafiki Credit: Rob Haynes, Louisiana State University Wyświetl pełny artykuł
  6. Choć szczerze przyznam, że najgorliwszym pod słońcem fanem uniwersum “Star Trek” nie jestem (wolę od niego mimo wszystko baśniowy kosmos „Gwiezdnych wojen”), to nie oznacza to wcale, że niezwykła wizja świętej pamięci Gene Roddenberry’ego jest mi zupełnie obca – trudną do oszacowania ze względu na moją słabą pamięć serię filmów kinowych (o malejącej regularnie z każdą częścią sagi jakości, choć chlubnym wyjątkiem jest ostatnia część z 2009 roku pod tytułem po prostu „Star Trek”, którą to nawet zobaczyłem z żoną w kinie ku jej i mojej niekłamanej uciesze) widziałem, a jakże, swego czasu w wieku nastoletnim śledziłem również z zapamiętaniem serial „Star Trek: Następne pokolenie” z niezapomnianym Patrickiem Stewartem, grającym kapitalnego kapitana-łysola Jean-Luc’a Picarda. Co prawda czasy się zmieniają i obecnie bardziej interesuje mnie pierwsza kultowa odsłona serialu „Star Trek: The Original Series” z lat sześćdziesiątych minionego wieku – jako produkcja o ogromnym potencjale „rozweselającym” (kto nie zna ten gapa i niech zobaczy choćby ten arcygenialny, jesli nie najlepszy w ogóle, ), jednak i tak trzeba sprawiedliwie przyznać, że obok mrocznych wizji Dartha Vadera i szlachetnej postawy rycerzy Jedi to świat Star Treka właśnie zdobył największą popularność wśród fanów kinowo-telewizyjnego science-fiction. Trudno się więc dziwić, że jako niedoszły „Trekkie” z niemałym zainteresowaniem wczytałem się w artykuł, który pojawił się na łamach portalu Space.com. W artykule tym autor donosi o niejakim Williamie Edelsteinie, fizyku z Johns Hopkins University (Baltimore, USA), który podczas konferencji Amerykańskiego Towarzystwa Fizycznego (American Physical Society), odbywającej się w Waszyngtonie 13-tego lutego, zaprezentował wyniki swego cokolwiek frapującego aczkolwiek kontrowersyjnego – o czym później – opracowania. Edelstein zaprezentował słuchaczom w pierwszej kolejności kultowy fragment każdego chyba z filmów „Star Trek”: kapitana Kirka rozkazującego Scotty’emu wejście w prędkość „warp”. Natychmiast po zademonstrowaniu tego soczystego kawałka filmowej klasyki skomentował widziane słowami: „Well, they’re all dead”. Dlaczego aż tak kiepsko? Dwadzieścia lat temu syn Edelsteina postawił mu pozornie błahe pytanie – czy w przestrzeni kosmicznej istnieje coś takiego jak tarcie? Edelstein bez namysłu odpowiedział, że tak, przestrzeń kosmiczna bowiem, mimo iż w porównaniu z warunkami dla nas swojskimi jest niemal idealnie „pusta”, to zawiera średnio dwa atomu wodoru na centymetr sześcienny, w przypadku poruszającego się „czegośâ€ atomy te „ocierają się” więc o „to”. Bardzo to niewielkie zagęszczenie atomów i w przypadku teoretycznych pojazdów, poruszających się z małymi prędkościami, nie gra żadnej roli, jednak w przypadku prędkości relatywistycznych już jak najbardziej. Jak się okazuje pytanie to nurtowało Edelsteina przez następne dwadzieścia lat (miejmy nadzieję, że znalazł w międzyczasie jeszcze czas na inne zajęcia) aż do momentu, gdy w ostatnim czasie – wspólnie z dorosłym już synem – zajął się fachowymi obliczeniami. Na tapetę obaj panowie wzięli scenariusz, w którym statek kosmiczny miałby przebyć połowę Drogi Mlecznej w czasie 10 lat. Powiecie: niemożliwe, jednak teoretycznie nie można temu pomysłowi nic zarzucić – teoria względności mówi w końcu, że w przypadku prędkości relatywistycznych (czyli bliskich prędkości światła w próżni) czas ulega znacznemu skróceniu. Załóżmy więc, że taki statek Edelstein wraz z synem Arthurem zbudowali i gnają przez otchłanie Galaktyki. Zdaniem Edelsteina taka podróż byłaby skazana z góry na niepowodzenie – podróż przy „tylko” 99% prędkości światła (ciągle za małej, by pokonać wspomniany dystans w ciągu 10 lat) powodowałaby, że statek kosmiczny byłby bombardowany cząsteczkami wodoru, które raziłyby pojazd promieniowaniem przekraczającym dawkę skuteczną 61 siwertów na sekundę. Jednostka ta brzmi dość egzotycznie i dla mnie – wystarczy powiedzieć, że już dawka 1 siwerta na cały organizm człowieka prowadzić może do ostrego zespołu popromiennego, co najczęściej kończy się śmiercią. Doświadczenia załogi na takim statku porównywalne stałyby się więc przeżyciom inżynierów placówki CERN, którzy przypadkowo dostali się pod „ostrzałâ€ Wielkiego Zderzacza Hadronów, „strzelającego” do nich wysokoenergetycznymi protonami. Niezależnie od wszystkich innych „kłopotów” związanych z podróżą kosmiczną promieniowanie to zabiłoby wszelakie życie na statku kosmicznym, nie wspominając o elektronice, która padłaby równie łatwo. Ratunkiem mogłyby być tutaj osłony przed zabójczym promieniowaniem, problem jednak wcale nie staje się przez to bliższy rozwiązania – osłony z ołowiu, pierwiastka cokolwiek ciężkiego, musiałyby posiadać grubość nawet do kilku kilometrów! Biorąc pod uwagę fakt, że wraz z rosnącą prędkością energia konieczna do przyspieszania obiektu rośnie w szalonym tempie, dodatkowe miliony ton (strzelam) z pewnością nie byłyby zbyt ekonomiczne. Warto tutaj zaznaczyć, że rewelacje Edelsteina nie są zbyt oryginalne – o tym, że promieniowanie byłoby bardzo kłopotliwe w trakcie podróży podświetlnych, wiadomo już od dawna. Kiedy jednak zajrzycie do gorącej dyskusji pod samym artykułem, dojrzycie również sedno problemu: nieporadne wiązanie przez Edelsteina czystego science-fiction z faktami naukowymi, przy czym Edelstein wybiórczo dobiera zarówno elementy tego pierwszego jak i drugiego. Fizyk twierdzi, że promieniowanie zabiłoby załogę statku Enterprise, kiedy to kapitan Kirk zleciłby Scotty’emu przejście w „warpa”. Otóż – pozostając w świecie „Star Treka” rzecz jasna – to całkowicie nieprawda, gdyż o problemie promieniowania myślał sam twórca serii, Roddenberry, wyposażając statek w osłony i deflektory, mające za zadanie eliminiowanie takich (i nie tylko) zagrożeń. Co gorsza jednak Edelstein trochę miesza pojęcia – napęd warp nie ma nic wspólnego z przyspieszaniem statku do prędkości świetlnej, ba, nie ma nic wspólnego z ruchem jako takim. Z samej definicji napęd warp sluży do zakrzywiania przestrzeni – statek Kirka nie przemieszcza się w „zwykłej” przestrzeni, jedynie napęd wytwarza podprzestrzenną bańkę, która przemieszcza się do miejsca przeznaczenia – sam statek nie porusza się w niej wcale. Można to zauważyć choćby wtedy, gdy Enterprise przechodzi do prędkości warp – samo przyspieszenie musiałoby z załogi pozostawić mokre plamy. Możemy sobie żartować ze „Star Treka”, jednak problem leży tak naprawdę w tym, że Edelstein jako naukowiec nie do końca przemyślał chyba swój referat – skoro już sięgamy do napędu rodem z fantastyki naukowej to trzeba go akceptować wraz z jego przypadłościami, a więc wspomnianymi deflektorami i podprzestrzenną podróżą. Wtedy przykładanie fizycznych właściwiości rzeczywistego Wszechświata do takiej technologii mija się z celem – to prawda, że próby przyspieszania statku kosmicznego w naszym świecie skończyłyby się ugrillowaniem załogi przez wodór, jednak w naszym świecie nie istnieje również napęd warp jako taki. Prezentacja tematu przez Edelsteina pozostawia pewien niesmak, gdyż brak w niej naukowej konsekwencji. Źródło: Link 1 Zdjęcie: Hm… Źródło zdjęcia Credit: locustsandhoney.blogspot.com Wyświetl pełny artykuł
  7. Minionej soboty późnym wieczorem mogliśmy stać się świadkami odrobinę kuriozalnego spektaktlu medialnego – mimo wcale nie zabawnej przyczyny, jaką było potężne trzęsienie Ziemi o sile 8,8 w skali Richtera zarejestrowane tego dnia w odległym Chile, to, co działo się w anglojęzycznych stacjach telewizyjnych CNN oraz Sky News kilka godzin później musiało mimowolnie wywołać u postronnego obserwatora co najmniej rozbawienie, jeśli nie odczucia gorsze. Zbliżające się z prędkością błyskawicy do Hawajów kolejne fale spodziewanego po trzęsieniu tsunami wygoniły na zalane słońcem plaże grupy żądnych sensacji gapiów z lornetkami i kamerami wideo, wszystko to natmiast wspomniane wyżej stacje telewizyjne przekazywały „na żywo” podpisując monotonne, niemal statyczne ujęcia fal docierających do brzegu sloganami w rodzaju „First tsunami wave to hit Hawaii any moment” albo – kiedy już okazało się, że mimo wytężonego wpatrywania się w smętne fale niewiele można było z tej pierwszej fali zobaczyć – „Second wave expected shortly to hit Hawaii”. Przyznam ze skruchą, że sam straciłem chwilę na intensywną obserwację obrazu z przemysłowych kamer, transmitowanych przez CNN, nie każdego dnia bowiem ma się szansę zobaczyć tsunami „na żywo”. Trochę wprawdzie chaotyczna gadka komentatorów, przerażonych wydłużającym się czasem oczekiwania na zbliżającą się falę i nie bardzo wiedzących, o czym jeszcze w tym czasie rozprawiać, była nużąca, jednak w końcu fala się pojawiła. Podobno, bo wizualnie fala o wysokości – jak podano 1,2 metra – niekoniecznie wyróżniała się spośród wszystkich innych i sam niczego nie zauważyłem. Samo wydarzenie, którego konsekwencją były – nawet jeśli niezbyt widoczne – fale tsunami, było piątym najsilniejszym trzęsieniem ziemi, jakie udało się dotąd zarejestrować. Zaskakująca – szczęście w nieszczęściu – jest w związku z tym względnie niska szacowana liczba ofiar, która obejmuje obecnie niespełna 1000 osób, mimo to wydarzenie to rzuciło Chile w chaos, dochodziło do sporych rozrób, plądrowania czego popadnie i aktów przemocy. Nie tylko jednak mieszkańcy Chile odczuli bezpośrednio to trzęsienie – okazuje się, że miało ono wpływ na całą planetę. Choć w żadnen sposób nie potrafię sobie wyobrazić w jaki sposób tak precyzyjne obliczenia są dokonywane, już w poniedziałek geofizycy z amerykańskiej agencji NASA opublikowali informacje, zgodnie z którymi trzęsienie ziemi w Chile przyczyniło się do skrócenia długości… doby. Zanim jednak zaczniecie psioczyć na coraz krótsze dni, w ciągu których i tak już zawsze jest za mało czasu na załatwienie spraw najpilniejszych, doczytajcie do końca – doba skrócona została bowiem o zaledwie… 1,26 milionowych sekundy. Prawda, że niewiele? Nie dość, że nie jest to jakaś nowa jakość w naszym codziennym życiu, to jeszcze podobno nie da się tego w żaden sposób wymiernie zmierzyć – obliczyć jednak, a jakże, się da (ale nie wiem jak). Ziemia obracając się wokół własnej osi robi to od miliardów lat stopniowo coraz wolniej – głównym winowajcą jest tutaj nasz naturalny satelita, Księżyc, który działa na Ziemię jak przysłowiowy papier ścierny i wyhamowuje prędkość obrotową planety. Z tego powodu co kilka lat dodajemy też w sylwestra jedną dodatkową sekundę (tzw. sekundę przestępną, o której pisałem jakiś czas temu tutaj). Czasem jednak dzieją się rzeczy „nadplanowe”, które – choć globalne – wpływają na ruch całej Ziemi w sposób niemal natychmiastowy. Trzęsienie ziemi w Chile nie było rzecz jasna pierwszym, które wpłynęło na ruch obrotowy naszej planety – potężne trzęsienie ziemi z 2004 roku w południowo-wschodniej Azji, po którym tsunami zabiło setki tysięcy osób, spowodowało skrócenie doby o całe 8 milionowych sekundy. Przyspieszenie to zrzucić można w obu przypadkach na karby, w znacznym uproszczeniu oczywiście, tzw. efektu łyżwiarza. Jak wiadomo osoba taka wyczyniając akrobacyjne cuda na lodzie i wykonując piruety ustala prędkość obrotową oddalając lub przybliżając kończyny do tułowia – na tej samej zasadzie działa to w przypadku Ziemi, gdzie trzęsienia ziemi, w szczególności te naprawdę wielkie, powodują przemieszczenie się ogromnych ilości skał w kierunku centrum planety. O ile jednak trzęsienie ziemi w Chile spowodowało mniejsze przyspieszenie obrotów planety niż trzęsienie w Azji, to – bo wpływ na Ziemię na tym się nie kończy – było silniejsze pod innym względem: poza rozkręceniem planety doszło bowiem również do przesunięcia osi obrotowej globu. Oś obrotowa Ziemi przemieściła się o 8 centymetrów (niestety w którą stronę to nie mam pojęcia). W przypadku wspomnianego trzęsienia z 2004 roku przesunięcie to wyniosło mniej (choć trzęsienie samo w sobie było o wiele potężniejsze), bo centymetrów siedem. Przyczyną takiego stanu rzeczy zgodnie z wypowiedzią badaczy z NASA jest fakt, iż w 2004 roku do katastrofy doszło znacznie bliżej równika, natomiast o Chile powiedzieć tego się nie da. Nie koniec jednak na tym – naukowcy obawiają się również, że obecne trzęsienie może mieć długotrwałe konsekwencje dla Chile: w przypadku tak silnych trzęsień niedługo po nich dochodzi również do rozbudzenia aktywności wulkanów, które dotąd spokojnie sobie spały. Podobna sytuacja, również w przypadku nieszczęsnego Chile, miała już miejsce – w 1960 roku bardzo silne trzęsienie ziemi u wybrżeży kraju spowodowało, że w ciągu następnych trzech miesięcy rozbudziło się aż 5 wulkanów, aktywność ta natomiast odczuwalna była jeszcze przez lata. Źródła: Link 1 Link 2 Link 3 Grafika: Lokalizacja epicentrum trzęsienia ziemi w Chile Źródło grafiki Credit: sanfranciscosentinel.com Wyświetl pełny artykuł
  8. Wszystko wskazuje na to, że umiejscowiony na pograniczu francusko-szwajcarskim Wielki Zderzacz Hadronów (LHC, Large Hadron Collider) zaczął robić w końcu to, po co został w zasadzie stworzony – w jego podziemnych wnętrznościach ponownie zaczynają krążyć wiązki protonów, by w końcu zderzać się z energiami dotąd nieosiągalnymi dla każdego z innych akceleratorów na Ziemi. Brzmi to zaprawdę pięknie, jednak pewna fałszywa nuta również tutaj pobrzmiewa – mimo że LHC i tak już pokonał Tevatron Fermilabu pod względem mocy, to ciągle jest to moc odległa od pierwotnych planów, ba, to zaledwie połowa maksymalnej planowanej mocy. Przez długi czas nie wspominałem o LHC z jednego jak sądzę istotnego powodu – po fatalnej usterce z końca 2008 roku niewiele ciekawego dla osób spoza samej organizacji CERN działo się wokół akceleratora. Naprawy zajęły bardzo wiele czasu, wszystko to spowodowało, że cały harmonogram projektu szlag trafił i mamy na tę chwilę ponadroczne opóźnienie, mimo jesiennego odpalenia akceleratora i pierwszych, udanych doświadczeń. Teraz jednak pojawiają się nowe kontrowersyjne wypowiedzi, którym jak sądzę warto poświęcić trochę uwagi. Jednym z wielu inżynierów biorących udział w budowie LHC był niejaki Lucio Rossi, którego działką było nadzorowanie produkcji nadprzewodzących magnesów niezbędnych do funkcjonowania urządzenia. Człek ten opublikował kilka dni temu mocno krytyczne opracowanie, którego wymowa stawia pod znakiem zapytania jakość całego projektu. Zdaniem Rossiego pamiętna awaria z 2008 roku nie była dziełem przypadku, lecz wynikała z nieprawidłowości w samym projekcie maszyny oraz braku fachowej kontroli jakości i diagnostyki. Jak wiadomo wszystko zaczęło się od zwarcia, do którego doszło w jednym z sektorów akceleratora – zwarcie połączenia dwóch nadprzewodzących kabli doprowadziło do tego, że kable te zaczęły wykazywać niewielki a jednak istotny opór. Oporność kabli spowodowała, że zaczęły się nagrzewać, co, w przypadku kabli wymagających temperatur bliskich zera absolutnego do prawidłowego działania spowodowało, iż przestały „nadprzewodzić”. Prąd o natężeniu tysięcy amperów „przeorałâ€ dosłownie maszynę, tworząc sporą dziurę w akceleratorze i, co miało fatalne konsekwencje, uwalniając kilka ton ciekłego helu służącego do chłodzenia całej maszynerii. Hel zmieniając błyskawicznie postać na gazową siał prawdziwe spustoszenie, wieńcząc całą demolkę. Wnikliwa analiza awarii wykazała, że fachowcy zajmujący się lutowaniem kabli nie wykonali swej roboty zbyt dobrze. Biorąc pod uwagę, że w całym akceleratorze takich połączeń są bez mała dziesiątki tysięcy, trudno oprzeć się wrażeniu, że skoro błąd został popełniony raz, musiał siłą rzeczy zostać popełniony przy takiej liczbie i gdzie indziej. Idąc dalej – zarówno zastosowana cyna (z dodatkiem srebra) jak i kontrola wykonanych połączeń daleko były od optymalnych. Dopiero też po szkodzie zaczęło się montowanie systemu awaryjnego (QPS), który nadzoruje i w razie potrzeby monituje operatorów o wzroście temperatury. Wiadomo już, że połączeń, które mogą prowadzić do „powtórki z rozrywki”, jest więcej – niestety musi się to odbić na terminie, w którym maszyneria osiągnie planowaną pełną moc. W tej chwili władze CERN szacują, że LHC pełną moc osiągnie w ciągu… 18 do 24 miesięcy, czyli, będąc realistami, możemy przyjąć, że dojdzie do tego gdzieś w okolicach 2013 roku! Rossi co prawda nikogo nie wytyka palcem i nie zarzuca bezpośrednio nikomu zepsucia „najdroższej zabawki świata”, mimo to część komentatorów przyznaje mu rację – wiele wskazuje na to, że podczas projektowania maszyny niektóre rozwiązania dobierane były tak, by zoptymalizować elementy pod względem łatwości montażu, bez odpowiedniego zabezpieczenia ich jakości. Z drugiej strony rację mają również ci naukowcy, którzy zaznaczają, iż przy tak ogromnej kompleksowości błędy są nieuniknione. Niezależnie od oceny sytuacji najbliższa przyszłość pokaże kto ma rację – Rossi ostrzega bowiem, że awaria z 2008 roku może powracać jeszcze nie raz w takiej czy innej formie, gdyż sama przyczyna usterki nie może być w tej chwili całkowicie wyeliminowana w całej maszynie. Pozostaje nam mieć tylko nadzieję, że usterek nie będzie wcale lub będzie ich jak najmniej, w oczekiwaniu na 2013 rok, w którym – być może – LHC zademonstruje w końcu swe możliwości. Praca Rossiego (PDF) Źródła: Link 1 Link 2 Link 3 Wyświetl pełny artykuł
  9. Abstrahując od barwnych konfabulacji nawiedzonych osobników pragnących wątpliwego gatunku sławy, którym w najdziwniejszych momentach przytrafiają się bliskie a nawet czasem bardzo bliskie spotkania z przedstawicielami obcych form życia, nasza odpowiedź na odwieczne pytanie o miejsce ludzi we Wszechświecie brzmiące dwojako – jesteśmy nieskończenie udanym i niepowtarzalnym arcydziełem w skali całego Kosmosu czy też jedną z niezliczonych, mniej lub bardziej pokracznych, manifestacji życia, od których dosłownie kipi każdy zakątek tegoż – zależy tylko i wyłącznie od jednego: osobistych preferencji osoby na to pytanie odpowiadającej. Oczywista poniekąd własność Wszechświata – jego niewyobrażalna wielkość i wynikające z niej skale odległości – udaremnia póki co każdą próbę uzyskania miarodajnej odpowiedzi; zapomnijmy o kontynuowanym już od sześćdziesięciu lat i bezsensownie marnotrawiącym fundusze projekcie SETI (a niby dlaczego obce cywilizacje miałyby wysyłać do nas sygnały na wybranych przez naukowców częstotliwościach?), zapomnijmy o słynnym równaniu Drake’a, w którym dowolnie dobierane zmienne mogą prowadzić do wyników akurat takich, jakie są nam na dany moment potrzebne – zapomnijmy w końcu o podróżach kosmicznych w celu eksploracji Galaktyki, które w przewidywalnej przyszłości nie będą możliwe (jeśli w ogóle kiedykolwiek będą) – faktem jest, że w chwili obecnej nasza opinia o tym, czy życie jest lub nie jest czymś „zwyczajnym” w skali Wszechświata, zależy tylko od naszych przekonań. Ponieważ moim niezaprzeczalnym przywilejem jest kształtowanie tego wpisu wedle mojej woli, dodam – propagując mój własny światopogląd – że powtarzalność fenomenu „życia” we Wszechświecie musi w zasadzie być czymś niezaprzeczalnym: wspomniana wcześniej własność Wszechświata, jego wielkość, miriady galaktyk, które go zasiedlają, wymuszają na rozsądnie myślącym cżłowieku akceptację faktu, że Ziemia nie jest jedynym miejscem, w którym powstało życie właśnie. Oczywiście, dowodu żadnego na poparcie tej odważnej tezy przedstawić nie mogę, jednak pomyślcie tylko – nasza Galaktyka, Droga Mleczna, zawiera kilkaset miliardów gwiazd – jaki procent z nich posiada układy planetarne ciągle jest kwestią niejasną – Droga Mleczna jest jedną z miliardów galaktyk w obserwowalnym – powtarzam, obserwowalnym! – Wszechświecie, przy tak przytłaczających liczbach trudno oczekiwać zaprawdę, że z pierwiastków obecnych na Ziemi (które nawiasem mówiąc nie wydają się być pierwiastkami zarezerwowanymi tylko dla tej planety, wręcz przeciwnie) powstało coś, co gdzie indziej powstać nie może. Tak jak napisałem wcześniej – jeśli ktoś chce wierzyć, że życie na Ziemi jest niepowtarzalnym cudem, nie przekona go i tak żadna argumentacja. Choć nasz Wszechświat jest tak przestronnym miejscem, w którym wszystko powinno być w zasadzie możliwe, naukowcom nawet taka gigantyczna piaskownica wydaje się nie wystarczać. Jedną sprawą jest bowiem zastanawianie się nad tym, jak często życie mogło zakwitnąć w naszym Wszechświecie, zupełnie inną parą kaloszy jest jednak spekulowanie co do tego, czy życie mogłoby powstać w innym Wszechświecie. Możecie zaoponować – jak to „innym”, jednak niektórzy z Was z pewnością słyszeli o współczesnych poglądach części kosmologów, którzy wcale nie wykluczają istnienia „innych” Wszechświatów właśnie. Mniejsza o mechanizmy, które za takim „wieloświatem” („multiverse” z angielska) miałyby stać – wymagałoby to rozdęcia tego wpisu do rozmiarów sporego artykułu, dodatkowo zapędziłoby autora w rejony, w których czuje się dość niepewnie – wystarczy przyjąć, że analiza współczesnych teorii naukowcy nie wyklucza istnienia nieskończonej wręcz liczby Wszechświatów, podobnych i niepodobnych zarazem do naszego. Niezależnie od genezy takich Wszechświatów bezpośrednie badanie ich „zawartości” nie jest i nie będzie możliwe – w związku z tym naukowcy mogą tylko swawolnie spekulować co do tego, jakie te Wszechświaty mogłyby być. Jednym z najważniejszych powodów, który pociąga naukowców w takich rozważaniach, nie jest wbrew pozorom sam fakt poszukiwania życia: przyczyną zdaje się być niepokojące (pozornie moim skromnym zdaniem) i bardzo subtelne „dostrojenie” naszego Wszechświata do życia. Co przez to rozumiemy? W filozofii i jednocześnie kosmologii od kilkudziesięciu lat istnieje pewna zasada, która ma wielu zwolenników, jak i również wielu zagorzałych przeciwników. Mowa o tzw. zasadzie antropicznej. Zasada ta jest niejako próbą odpowiedzi na odwieczne pytanie – dlaczego Wszechświat jest taki właśnie, jaki jest, dlaczego prawa fizyczne są takie a nie inne. Zgodnie z brzmieniem tej zasady wszystko to jest właśnie takie, bo… istniejemy. Gdyby ludzie jako tacy nie istnieli, wówczas nie istniałby obserwator, który mógłby stwierdzić, że Wszechświat jest taki lub owaki. Wynika z tego pośrednio wniosek, że Wszechświat jest taki właśnie, jakim go obserwujemy, bo my, ludzie, istniejemy. Mówiąc szczerze zasada antropiczna nigdy do mnie nie przemawiała – skądinąd nigdy nie potrafiłem znaleźć przyczyny, dla której prawa fizyki jak i cały Wszechświat NIE MOGŁYBY być takimi jakimi są, w związku z czym nic nie przemawia za tym, by ludzie nie mogli powstać. Problem jest oczywiście głębszy – tutaj w końcu wracamy do problemu „dostrojenia” Wszechświata. Polega on w skrócie na tym, że ogromna ilość stałych w przyrodzie wydaje się być niezwykle precyzyjnie „dopasowana” do tego, by życie jako takie mogło powstać na Ziemi. Ledwie zauważalne nawet zmiany tylko jednej z nich prowadziłaby nieuchronnie do zupełnie innego wszechświata, w którym – przykładowo – nie powstawałyby wcale gwiazdy lub który zapadłby się w chwilę po jego powstaniu, w każdym bądź razie takiego, w którym człowiek nie miałby racji bytu. Wiele hipotez wysunięto co do „precyzyjnego dostrojenia” – najoczywistszą dla wielu wydaje się ingerencja „wyższej siły”, która w taki a nie inny sposób poukładała wszystkie prawa fizyki. Ponieważ nie chciałbym zagłębiać się tutaj w otchłanie filozoficznych dywagacji, zostawię to pod Waszą rozwagę – superintelekt czy przypadek, każdy decyduje sam. Teorie „wieloświatów” wydają się być niezłą alternatywą dla wyżej opisanego podejścia – w przypadku, gdy Wszechświatów jest nieskończenie wiele (a przynajmniej bardzo ale to bardzo dużo), znika konieczność stosowania zasady antropicznej, dostrojenie staje się również bardziej „naturalne” – nie mówimy już w końcu o jednym Wszechświecie o takich a nie innych stałych fizycznych, a o wielu wszechświatach, gdzie każdy z nich charakteryzuje się innym „zestawem” stałych. Tym samym geneza życia sprowadza się do tego, iż powstało ono po prostu w takim z Wszechświatów, w którym warunki były akurat sprzyjające. Koniec, kropka. Nie raz i nie dwa naukowców badali konsekwencje, jakie niosłaby ze sobą zmiana pojedynczej stałej fizycznej dla całego Wszechświata. Wbrew pozorom cały ten misterny mechanizm skonstruowany jest w taki sposób, by funkcjonować doskonale, jednak tylko w bardzo wąskim przedziale. Naiwnie można by w końcu założyć, że zmiana, weźmy na to, poziomów energetycznych w atomie pierwiastka takiego jak węgiel nie powinna mieć dużego znaczenia – cóż, okazuje się, że taka zmiana oznaczałaby martwy Wszechświat. Rozważano więc konsekwencje zmiany pojedynczej stałej – pójdźmy jednak o krok dalej i zastanówmy się nad tym, co działoby się wówczas, gdyby naukowców dopuszczono do kilku lub więcej „pokrętełâ€ w maszynerii Wszechświata? O ile zmiana jednej tylko stałej prowadzi nieuchronnie do katastrofy, o tyle zmiana kilku stałych może doprowadzić do całkiem ciekawych wyników. W lutowym wydaniu „Świata Nauki” ukazał się bardzo ciekawy artykuł, w którym amerykańscy badacze z instytutu MIT (Massachusetts Institute of Technology) rozważali właśnie takie podejście. Co prawda artykuł ten jest ogólnie dostępny w czasopiśmie, jednak uznałem, że warto kilka słów naskrobać o nim samym, dodatkowo dotarłem również do tekstu opublikowanego przez samą uczelnię. W każdym bądź razie zainteresowanych odsyłam dodatkowo do samego pisma. Fizycy Robert Jaffe, Alejandro Jenkins oraz Itamar Kimchi przyjęli, że istnieje coś takiego jak „wieloświat”. To pierwsze założenie – drugim, może i dyskusyjnym, jednak upraszczającym analizę, było założenie, że analizujemy owe wszechświaty alternatywne biorąc pod uwagę ich „dostrojenie” dla życia opartego na węglu. Założenie to było w zasadzie konieczne, gdyż nie nakładając tego ograniczenia spekulacje stałyby się zupełnie dowolne. Idźmy dalej – praca naukowców z MIT jest wyjątkowa pod pewnym ważnym względem – o ile dotąd analizowano konsekwencje zmiany jednej stałej, o tyle badacze z USA zastanawiali się nad tym co by się stało, gdyby zmienić tych stałych kilka. Wbrew pozorom wnioski, do jakich doszli, były dość zaskakujące – nawet wszechświaty o zupełnie innym „zestawie” stałych nie musiałyby być automatycznie martwe. Przykłady? Proszę bardzo. Amerykańscy fizycy manipulowali przy masach kwarków – elementarnych składników materii. W naszym Wszechświecie tzw. kwark dolny jest mniej więcej dwa razy cięższy od tzw. kwarka górnego (nie pytajcie o więcej szczegółów!), z tego też powodu neutron posiada masę większą o 0,01 % od masy protonu. Tak to wygląda w przypadku naszego świata i jak widzimy to na własnym przykładzie działa to wyśmienicie. Jaffe z kolegami założył jednak, że w wyimaginowanym wszechświecie sprawy mają się inaczej – tam kwark dolny nie dość, że nie jest cięższy, to jest nawet lżejszy: protony stawały się tym samym cięższe od neutronów o 1%. I cóż się okazało? W takim scenariuszu byłoby ciągle hipotetycznie miejsce na życie oparte na węglu – najważniejsze z punktu widzenia naukowców pierwiastki – wodór, węgiel i tlen – istniałyby w stabilnych formach, umożliwiając powstawanie skomplikowanych cząsteczek. To tylko jeden z przykładów – manipulacji przy masach kwarków naukowcy podjęli więcej, znajdując grupę wszechświatów, w których mimo egzotycznej struktury cegiełek materii ciągle mogłoby powstać życie „węglowe”. Przy okazji naukowcy z MIT wspominają również o innych badaczach (z Lawrence Berkeley National Laboratory), którzy, można by rzec, poszli jeszcze dalej w swoich poszukiwaniach – naukowcy ci bowiem nie majstrowali przy masach cząstek a całkowicie wyeliminowali jedną z czterech fundamentalnych sił przyrody definiujących nasz Wszechświat – oddziaływanie słabe. I tutaj się okazało, że mimo braku fundantalnej w końcu siły niewielkie zmiany w pozostałych oddziaływaniach mogłyby prowadzić do powstawania stabilnych pierwiastków mających znaczenie dla życia. Oczywiście prace obu zespołów są czysto spekulacyjne – w żaden sposób nie uda nam się ani potwierdzić ani zanegować wyników tych opracowań z tego względu, że inne wszechświaty (o ile oczywiście w ogóle istnieją, co również podlega dyskusji) nie będą nigdy podlegać obserwacjom. Mimo to takie zabawy myślowe mają swoje znaczenie – nawiązując do zasady antropicznej oraz „dostrojenia” Wszechświata, o którym wspominałem na początku tego wpisu, może pomóc nam zrozumieć jakie naprawdę jest nasze miejsce we Wszechświecie. Fragment artykułu w “Świecie Nauki” Źródła: Link 1 Wyświetl pełny artykuł
  10. Świadomość tego, że dla porażającej większości istot ludzkich już sam dźwięk słowa „nauka” stanowi wystarczający powód do mimowolnego kręcenia nosem i rozpaczliwego poszukiwania sposobu ewakuacji z niewygodnej dla nich konwersacji, nie jest z pewnością naprzyjemniejszym doznaniem, na jakie na co dzień jestem narażony. Od razu dodam asekurancko – „nauka” w powyższym kontekście to bynajmniej nie katorżnicze zakuwanie materiałów edukacyjnych w trakcie zdobywania swego wykształcenia, w tym przypadku bowiem nie mogę sam udawać Greka i opowiadać bzdur o tym, jak bardzo uwielbiałem się swego czasu uczyć (bo nie lubiałem, taka okrutna to prawda) – mam raczej na myśli w tym konkretnym przypadku „naukę” jako pojęcie ujmujące całokształt naszej, gromadzonej od tysięcy lat, wiedzy o Wszechświecie. Nieskrywana niechęć przytłaczającej większości społeczeństwa do tematów związanych z wiedzą naukową wydaje mi się co najmniej dziwna – skądinąd uważam, że ciekawość jest mimo wszystko jednym z naszych wrodzonych instynktów i w takim świetle zupełny brak zainteresowania dokonaniami najtęższych głów może mocno zastanawiać. Jedną z przyczyn takiego stanu rzeczy jest zapewne królujące wśród wielu ludzi przekonanie, że „nauka” to takie skostniałe „cośâ€, co w zasadzie już mniej lub bardziej dawno zostało raz na zawsze zbadane, „stwierdzone” i ustalone, a cała robota współczesnych naukowców polega na tym, by dopieszczać szczegóły i ewentualnie wygładzać nierówności na tym nieskazitelnym tworze. Z tego względu „nauka” jawi się wielu jako coś niezmiernie nudnego, wypranego zupełnie z dynamiki, nagłych zwrotów i zmian – rzeczy, które w rzeczywistości są charakterystyczne dla kształtowania wiedzy ludzkości i bez których postep jako taki nie byłby chyba możliwy. Nie bez kozery ten przydługi wstęp kończę zdaniem o „nagłych zwrotach”, gdyż słowa te jak ulał pasują do tematu dzisiejszego wpisu. O tzw. świecach standardowych pisałem już kilkakrotnie, w wielce telegraficznym skrócie przypomnę więc tylko, że tym mianem nazywane są obiekty w Kosmosie, dzięki których dobrze poznanej charakterystyce i powtarzalności ich zachowania możemy w miarę dokładnie określać odległości w ogromnych skalach. Świecami standardowymi są między innymi tzw. supernowe Ia, o których również nie raz i nie dwa już pisałem. Supernowe Ia to supernowe mocno specyficzne – zgodnie z aktualnie wiodącą teorią to białe karły posiadające partnera w postaci gwiazdy –olbrzyma zasysające niejako materię od większego kooperanta, by po przekroczeniu pewnej krytycznej masy zapłonąć w ogniu termojądrowej eksplozji i zostać rozerwanym na strzępy. Miłą dla astrofizyków cechą takich supernowych jest bardzo charakterystyczna krzywa blasku, opisująca w miarę ściśle sposób, w jaki zmienia się jasność eksplodującej gwiazdy w czasie; w przypadku wszystkich supernowych tego typu krzywa ta wygląda bardzo podobnie. Dzięki temu, że supernowa Ia zachowuje się oględnie rzecz biorąc zawsze tak, jak każda inna przedstawicielka gatunku, możliwe jest wykorzystywanie takich gwiazd jako wspomniane wcześniej świece standardowe. Biorąc bowiem pod uwagę krzywą blasku i oceniając jasność eksplozji i jej zmiany w czasie łatwo można wywnioskować, w jakiej odległości sama gwiazda się znajduje. Co bardzo ważne w tym kontekście – supernowe należą do niezwykle jasnych obiektów, przyćmiewających w szczycie swej „działalności” całe galaktyki, tym samym widoczne są z ogromnych odległości, na których inne techniki pomiaru tejże zupełnie zawodzą. Dzięki świecom standardowym dowiedzieliśmy się sporo o Wszechświecie – najważniejszym jednak chyba odkryciem związanym z supernowymi Ia jest stwierdzenie w 1998 roku, że ekspansja Wszechświata przyspiesza. Jasność bardzo odległych supernowych nie do końca pasowała do wcześniej wspomnianej charakterystyki krzywej blasku, co zmusiło badaczy do zaakceptowania tego, iż Kosmos ekspanduje coraz szybciej. Na dzień dzisiejszy tak właśnie wygląda w ogromnym uproszczeniu nasz stan wiedzy w tej materii – okazuje się jednak, że wszystko to, co napisałem powyżej, może nie do końca być prawdą. W nobliwym piśmie „Nature” ukazał się bowiem niepokojący artykuł, który – jeśli potwierdzą się dane w nim przedstawione – może spowodować spore zamieszanie w światku kosmologów. Naukowcy z Max-Planck-Institut für Astrophysik w Garching (Niemcy), Akos Bogdan oraz Marat Gilfanov, postanowili pewnego pięknego dnia przyjrzeć się założeniom, leżącym u podstawy wcześniej opisanych mechanizmów. Precyzując – postanowili sprawdzić, czy obserwacje potwierdzają najbardziej „chodliwąâ€ obecnie teorię wyjaśniającą genezę supernowych Ia. W tym celu zaprzęgli do roboty amerykańskiego satelitę rentgenowskiego Chandra, który posłużył do obserwacji pięciu pobliskich galaktyk eliptycznych oraz centralnego obszaru galaktyki Andromedy. Jak wspomniałem wcześniej uważa się obecnie, że supernowe typu Ia powstają, gdy białe karły, podróżujące przez otchłanie Kosmosu z masywnym kompanem, nakradną od niego więcej materii, niż to dla nich zdrowe, co kończy się tragicznie. Ważną cechą tego procesu jest sam przepływ materii, który – jak uważają naukowcy – trwa względnie długo: do powstania supernowej Ia nie dochodzi w mgnieniu oka, biały karzeł zasysa materię nawet przez dziesiątki milionów lat, zanim dojdzie to wybuchowego finału. Ów przepływ materii powinien jednocześnie generować promieniowanie w zakresie rentgenowskim przez równie długi czas. Specyficzne ślady promieniowania rentgenowskiego stały się celem poszukiwań naukowców z Garching. Ku wielkiemu ich zaskoczeniu okazało się jednak, że promieniowanie rentgenowskie o takiej charakterystyce jest od 30 do 50 razy słabsze, niż powinno być, jeśli model przepływu energii do karła jest poprawny. Opierając się na wynikach swych obserwacji naukowcy doszli do cokolwiek zdumiewającej konkluzji, że – przynajmniej w przypadku obserwowanych systemów gwiezdnych – supernowe typu Ia musiały niemal wszystkie powstać w inny sposób: na drodze „zlania” się ze sobą dwóch białych karłów. Dotąd przypuszczano, że taki scenariusz ma miejsce w przypadku bardzo niewielu supernowych tego typu – winą za przeważającą większość obarczano białe karły kradnące materię od partnerów. Takie podejście zabezpieczało byt supernowych Ia jako świec standardowych, jednakże jeśli uznać, że jest odwrotnie, to świece te stają się nagle dość niepewne. Naukowcy oparli swe wnioski na fakcie, że zjawisku połączenia dwóch białych karłów towarzyszyć powinien krótki rozbłysk promieniowania rentgenowskiego, czym można by uzasadnić niewielką ilość tego promieniowania zaobserwowaną przez naukowców. Problem staje się poważny gdy zauważymy, że kolizje białych karłów są zróżnicowane pod względem jasności eksplozji – wszystko staje się zależne od masy białych karłów przed kolizją. Krzywa blasku staje się tym samym charakterystyczna tylko dla danego układu, nie jest natomiast reprezentantywna dla całego „gatunku” supernowych. Jeśli zaakceptujemy taki wniosek, musimy wykonać krok drugi i przyznać, że wyznaczanie odległości na podstawie pomiarów blasku supernowych Ia może być obarczone sporymi błędami. Zanim świat kosmologów stanie na głowie trzeba jednak jeszcze upewnić się co do tego, czy odkrycie astrofizyków z Niemiec jest reprezentatywne dla wszystkich galaktyk – ponieważ pięć z sześciu galaktyk obserwowanych przez Niemców było galaktykami eliptycznymi, nie można wykluczyć, że to cecha takich właśnie galaktyk, z wykluczeniem spiralnych, które odgrywają zazwyczaj o wiele ważniejszą rolę w naszych obserwacjach. W tym celu konieczne jest prowadzenie dalszych badań, zbyt wczesnie więc mówić już o małej rewolucji. Warto jednak przyglądać się rozwojowi sytuacji ze sporą uwagą – jeśli doniesnienia z Garching się potwierdzą, wówczas trzeba będzie na nowo przyjrzeć się danym, na podstawie których ekspansja Wszechświata uznana została za przyspieszającą. Artykuł w “Nature” (płatny!) Źródło: Link 1 Grafika: Teoretycznie tak dochodzi do kolizji białych karłów Źródło grafiki Credit: NASA/Dana Berry, Sky Works Digital. Wyświetl pełny artykuł
  11. Pisząc o tym jak wielką względnością charakteryzuje się nasza subiektywna percepcja upływającego miarowo w końcu czasu nie odkryję zapewne niczego niezwykłego – „chwilowa” przerwa od pisania, na jaką zdecydowałem się u finału minionego roku, okazała się być niezmiernie długą „chwiląâ€, rozciągającą się jak się okazało na koszmarnie długie dwa miesiące. Nie oznacza to bynajmniej, że Cytadela odeszła całkowicie w zapomnienie w tym czasie – niezwykle miło było zajrzeć co jakiś czas na stronę i odnaleźć nowe komentarze, świadczące o tym, że mimo wydłużającego się zastoju celowym jest powrót do aktywności. Serdecznie z tego względu dziękuję za owe komentarze, przepraszając jednocześnie za grobowe milczenie z mojej strony – przerwa w pisaniu jednak w założeniu miała być przerwą „totalnąâ€; nie objęła zresztą tylko samej Cytadeli ale dotyczyła niemal wszystkich miejsc, w których bywałem aktywny w Sieci. Wiele się zdarzyło w minionych dwóch miesiącach – naukowcy nie zważając na moje nieróbstwo pracowali dalej nad swymi tajemniczymi zadaniami, Wszechświat nie zatrzymał się nieoczekiwanie w miejscu (w jednych jego zakątkach niektóre gwiazdy umierały, w innych znowu inne rozpoczynały swój żywot) a nasze życia toczyły się oczywiście tak jak i wcześniej mniej lub bardziej beztrosko. Sporo czasu mi zajęło zastanawianie nad tym, o czym napisać w pierwszy wpisie po tak długiej – dotąd niespotykanej w końcu w już ponad dwa lata trwającej epopei pod nazwą Cytadela – przerwie: po długim namyśle doszedłem jednak do wniosku, że nie warto wracać do przesłości, tworząc wydumane podsumowania najciekawszych moim zdaniem informacji. Część z Was zresztą zapewnie nie poprzestawała na wizytach na mojej stronie, mam nadzieję, że źródła, podawane przeze mnie w każdym z wpisów, stały się dla najbardziej zainteresowanych miejscami, w które zaglądali nie raz i nie dwa (ze wskazaniem na doskonały portal UniverseToday.com, który nie od dziś jest moim faworytem w tej kategorii). Z tego względu niniejszy wpis jest niejako „grubą krechąâ€, oddzielającą to, co działo się w ostatnich dwóch miesiącach od tego, co dzieje się obecnie i dziać się będzie w interesującym nas świecie kosmicznych zagadek. Wpis ten służy również sprawom „organizacyjnym” w pewnym sensie – co prawda przygotowałem już sobie w zarysie tekst na następny wpis „tematyczny”, jednak uznałem, że warto wpierw ponownie się przywitać i wyjaśnić to i owo. Jedną z takich kwestii jest prośba od jednego z czytelników, dotycząca wpisu o jego ambitnym, amatorskim projekcie – proszę o wybaczenie, że dotąd nie odpowiedziałem, jednak nie zapomniałem o tym i wpis taki z pewnością wkrótce się pojawi. Kolejna sprawa to konkurs na Blogera Roku 2009 – chyba niezbyt rozsądną jest prośba o oddanie głosu na Cytadelę na kilka dni przed zakończeniem konkursu (bodajże 23 lutego zamyka się głosowanie), jednak mimo to nie odwiedzie mnie to od złożenia takiej prośby na Wasze ręce – w minionym roku udało mi się w końcu załapać na trzecie miejsce w kategorii, więc czemu nie miałoby się to udać ponownie? I oczywiście ważna uwaga – każda osoba, która zagłosuje, również może coś wygrać latpopa (chyba tak). Kończąc ten „powitalny” wpis chciałem jeszcze raz podziękować wszystkim czytelniczkom i czytelnikom za wytrwałość i wiarę w – cóż za fantazyjne porównanie – powrót marnotrawnej Godzilli (która, jak bardzo mnie rozbawiając tym komentarzem ujął jeden z czytelników, zaginęła w głębinach oceanu na długo) do Zatoki Tokijskiej. Cóż, Godzilla zawsze kiedyś powróci siać spustoszenie i zagładę, taka już kolej rzeczy. I tym optymistycznym akcentem… Wyświetl pełny artykuł
  12. Obecna – dobiegająca szczęśliwie, choć niestety tylko pozornie – przerwa w aktywności z pewnością jest jedną z najdłuższych, jeśli w ogóle nie najdłuższą, z jakimi mogliście mieć do czynienia obcując z tym blogiem; nie ma jednak sensu rozwodzić się zbytnio o przyczynach tej przewlekłej apatii autora, wystarczy zamiast rozwlekłych wynurzeń użyć jednego, jakże pojemnego słowa – życie. Jak w przypadku wszystkiego innego czasy dzielą się na lepsze i gorsze, wyjątkiem od tego nie jest również prowadzenie strony internetowej (szerzej nawet ogólnie pojęta aktywność w Internecie), przypadłość ta nie ominęła niestety i mnie samego – w ostatnich tygodniach moja obecność w Internecie osiągnęła swoiste minimum, choć trudno mi w zasadzie powiedzieć, dlaczego tak się dzieje, bo trudno to nazwać przesytem czy znudzeniem. Nie mogło w związku z tym być inaczej – Cytadela pokryła się na ponad już dwa tygodnie kurzem i pleśnią, poza sporadycznymi komentarzami nie byłem w stanie napisać czegoś więcej. Nie wspominam tutaj świadomie o pojawiających się komentarzach Czytelników, które z przyjemnością czytałem i za które serdecznie dziękuję. Przepraszam wszystkich rozczarowanych brakiem wpisów (przy założeniu, rzecz jasna, że tacy istnieją), miła niezmiernie jest świadomość, że pisze się coś, co kto inny czyta z przyjemnością, jeszcze milsza, że może tej koślawej twórczości komuś brakować. Niestety muszę przyznać, że wpis dzisiejszy jest bardziej pokraczną próbą wyłgania się od napisania o czymś konkretnym niż takim właśnie „zwyczajnym” wpisem, liczę na Waszą wyrozumiałość w tej kwestii. Z jednej strony zapewniam, że Cytadela jako taka nie dokona (przynajmniej w przewidywalnym dla mnie czasie) żałośnie żywota i stanie się jednym z milionów blogów, które straszą po Internecie datami ostatnich wpisów sprzed roku czy nawet dłuższego czasu. Włożyłem naprawdę sporo pracy zarówno w stworzenie strony w takiej formie, jaką ma obecnie, jak i w setki wpisów, nie byłoby dobrym pomysłem rzucić tym wszystkim i zmarnować dwa lata pracy. Z drugiej jednak strony chcę być wobec wszystkich szczery – poza ogólnie pojętą „Internetową apatiąâ€ istnieje coś bardziej niebezpiecznego – pomijając brak czasu, inne zajęcia i dee, brak mi w ostatnim czasie prawdziwej radości związanej z pisaniem, w pewnym sensie maszynka, która działała lepiej lub gorzej przez ostatnie dwa lata dostała zadyszki i pogubiła się trochę w swoim świecie. A ponieważ uważam, że tworzenie wpisów „dla porządku”, aby po prostu się mogły pojawiać, bez szczerego entuzjazmu, rozmija się z celem, jaki przyświecał mi podczas zakładania strony, wolę po prostu od pisania odpocząć. Mam nadzieję, że decyzja ta spotka się z Waszym zrozumieniem. Ponownie zastrzegam, że to nie koniec istnienia strony, w żadnym wypadku – jedynie bliżej niezdefiniowania „przerwa w działalności”, niezdefiniowana, bo nie potrafię teraz w żaden sposób oszacować, ile czasu minie aż syn marnotrawny powróci. Z pewnością nowe wpisy nie pojawią się jeszcze w tym roku – wyjeżdżam na dłuższy czas za granicę, gdzie odpoczynek i świąteczna atmosfera nie będą nakłaniać mnie do pisania. Trudno mi też powiedzieć, czy aktywność zwiększy się po Nowym Roku – mam jednak szczerą nadzieję, że nowe wieści o Wszechświecie pojawią się tutaj w okolicach połowy stycznia. Dziękuję wszystkim wytrwałym czytelnikom za wierność i wytrwałość, komentarze i aktywne motywowanie do pisania, to rzecz nieoceniona. Na czas świąt życzę wszystkim udanego, relaksującego odpoczynku od spraw życia codziennego, nie zapominając o udanym „ślizgu” w nowy, dziesiąty rok tego tysiąclecia. Do zobaczenia za kilka tygodni! Pozdrawiam serdecznie! Wyświetl pełny artykuł
  13. Swego czasu o Wielkim Zderzaczu Hadronów (Large Hadron Collider, LHC), gigantycznej machinie piekielnej zakamuflowanej w kazamatach szwajcarskiego instytutu naukowgo CERN, zadarzało mi się pisać i rzadziej i częściej (bardziej to drugie), z tego względu niektórzy z Was mogą być zaskoczeni tym, że i tym razem wpis o LHC jednak nie będzie – zbyt wiele hałasu, nawet w „szeroko dostępnych” mediach, wokół tej „maszyny końca świata” ostatnio było, by po raz kolejny mnożyć niepotrzebnie i tak już wtórne treści – wystarczy mi z wielkim zadowoleniem stwierdzić, że LHC ponownie działa po czternastu miesiącach przerwy, pierwsze wiązki w końcu spotkały się na swych przeciwbieżnych drogach a wszystko przebiegło zaskakująco dobrze – więcej nawet: dosłownie “przed chwilą” (informacja z wczoraj) urządzenie to ustanowiło rekord jeśli chodzi o energię przyspieszanych protonów, warto odnotować to i dlatego, że wbrew obawom sceptyków Ziemia jako taka ciągle istnieje i świat się nie skończył. Jeśli jednak tylko coś rzeczywiście ważnego w przyszłości w CERN’ie się wydarzy (pomijając, mam nadzieję, kolejną usterkę, mam tutaj na myśli bardziej przełomowe odkrycia) nie odmówię sobie przyjemności o tym rozwlekle jak to mam w zwyczaju napisać. Szampańska fiesta społeczności naukowej związana z rozkręceniem LHC na dobre nie jest jednak jedynym godnym uwagi, choć niewątpliwie najgłośniejszym, wydarzeniem ostatnich dni i tygodni w świecie – do takich przynależy w moim mniemaniu również jak najbardziej fakt, któremu wspomnianej wyżej uwagi poświęcono o wiele mniej – dwa tygodnie temu, 13 listopada, w odległości niespełna dwóch i pół tysiąca kilometrów od naszej planety przemknęła sobie po cichutku sonda kosmiczna Rosetta. Z pewnością samo wydarzenie jako takie nie rzuca na kolana i nie odbierze Wam spokojnego snu nocami, jednak to nie do końca tak, jak na pierwszy rzut oka wygląda – zazwyczaj mimo wszystko nie fatyguję się pisać o każdym przelocie sond kosmicznych wokół Ziemi (czy innej planety), musi więc chodzić o coś więcej. Niektórzy z Was pewnie już mogą przypuszczać, do czego zmierzam – do tzw. anomalii „fly-by”. Angielskojęzycznym, a jakżeby inaczej, pojęciem „fly-by” określa się manewr, służący do – oględnie mówiąc – przyoszczędzenia kilku wcale niemałych groszy w przypadku misji kosmicznych. Ponieważ sondy badawcze to z założenia względnie niewielkie urządzenia i wszystkim naukowcom zależy na tym, by jak najwięcej aparatury pomiarowej w nich upchać, ogranicza się ilość paliwa niezbędnego do wykonania całej misji do niezbędnego minimum. Pomaga w tym niewątpliwie właśnie wykorzystanie mechanizmu „fly-by”, polegającego na tym, że sonda kierowana jest (nawet kilkakrotnie) po precyzyjnie obliczonej trajektorii w pobliże masywnego obiektu (w naszym Układzie Słonecznym świetnie nadaje się do tego na przykład Jowisz, Ziemia spełnia również swoje zadanie całkiem dobrze), gdzie sonda ta, uchwycona w grawitacyjne łapy planety nabiera „darmowo” prędkości i jak z procy wystrzeliwana jest w dalszą podróż. Poprzez kilkakrotne powtórzenie tego manewru można wydatnie przyspieszyć urządzenie bez inwestowania w to wszystko zbyt wiele energii. Można więc powiedzieć, że manewr „fly-by” oddaje nieocenione przysługi wszystkim operatorom misji badawczych. I mogłoby tak pozostać na wieki wieków, jednak poza korzyściami zawdzięczamy mu również jedną z najbardziej frapujących tajemnic współczesnej eksploracji kosmosu – mianowicie anomalię z nim związaną. Jeśli jeszcze nie spotkaliście się z tym zagadnieniem, to pewnie zaskoczy Was fakt, iż nie jest to jakaś absolutna nowość – o istnieniu anomalii wiadomo już od niemal dwudziestu lat, tym bardziej może dziwić, że mimo najróżniejszych prób jej wyjaśnienia naukowcy ciągle są zasadniczo w tym samym miejscu, co wówczas – krótko mówiąc nie mają zielonego pojęcia co anomalię wywołuje. Anomalia „fly-by” polega w uproszczeniu na tym, że sondy kosmiczne, zbliżając się do Ziemi w celu nabrania prędkości, „głupiejąâ€ i ich prędkość zmienia się w sposób niezgodny z precyzyjnymi obliczeniami w oparciu o Ogólną Teorię Względności. Sondy niezwykle subtelnie zdają się przyspieszać – wartości o jakie zmienia się prędkość są niezwykle małe (rzędu milimetrów na sekundę), nie są to jednak wartości, które można by zaniedbać całkowicie (choć dla samej realizacji misji nie mają znaczenia) i jednocześnie wystarczają, by wykazać niezgodność z przewidywaniami. Wszystko zaczęło się w grudniu 1990 roku, kiedy to sonda kosmiczna Galileo zbliżyła się do Ziemi na odległość niespełna tysiąca kilometrów, wykazując przy tym nieznanego pochodzenia zwiększenie prędkości o 3,92 mm/s w stosunku do wartości przewidywanej. Zaskoczeni naukowcy sprawdzili wszystkie możliwości – wykluczono błędy pomiarowe, obliczeniowe lub inne możliwe przyczyny, nie udało się również znaleźć sensownej odpowiedzi na pytanie, dlaczego sonda zwiększyła prędkość. Kiedy ta sama sonda przybliżyła się ponownie do naszej planety w 1992 roku, była zbyt blisko (300 km nad powierzchnią), poprzez co znalazła się w wysokich warstwach ziemskiej atmosfery, tym samym wiarygodne pomiary tajemniczego efektu nie były po prostu możliwe. Kilka kat później, bo w 1998 roku, sonda NEAR Shoemaker przelatując obok Ziemi wykazała największe zmierzone dotąd zwiększenie prędkości – „ażâ€ o 13,46 mm/s. W 2005 roku sonda Rosetta, w odległości niemal dwóch tysięcy kilometrów od planety, przyspieszyła o zaledwie 1,82 mm/s. To jednak nie wszystko – obraz zdaje się zaciemniać dodatkowo zaskakujący fakt, iż zwiększenie prędkości nie dotyczyło wszystkich sond, gorzej nawet, nie zostało stwierdzone w przypadku wszystkich przelotów jednej i tej samej sondy. Pierwszy przypadek dotyczy na przykład przelotu sondy Messenger w sierpniu 2005 roku, kiedy zmierzona wartość była zbyt mała, by wyjść poza ramy możliwego błędu pomiarowego. Najciekawiej jednak przedstawia się historia wspomnianej na początku Rosetty – o ile w 2005 roku, podczas poprzedniego przelotu, sonda ta przyspieszyła, o tyle podczas kolejnego naukowców spotkało rozczarowanie – w 2007 roku zmian prędkości nie zanotowano. Można więc łatwo się domyśleć, że badacze zainteresowani rozwiązaniem zagadki anomalii z niecierpliwością wyczekiwali na listopad tego roku, kiedy to sonda Rosetta po raz ostatni zbliżyła się do Ziemi, by nabrać prędkości dla swego wojażu ku komecie okresowej 67P/Czuriumow-Gierasimienko, ku której w końcowej fazie projektu (w roku 2014) wysłany zostanie lądownik Philae. Oczekiwano nowych rewelacji, tymczasem… sonda zachowała się tak jak poprzednio, czyli „zwyczajnie”. Analiza danych zebranych przez naukowców śledzących przelot sondy w pobliżu Ziemi, dokonana wspólnie przez agencje kosmiczne NASA i ESA, wykazała, iż nie ma mowy tym razem o jakimkolwiek odchyleniu od przewidywanych wartości. Wszystko przebiegło zgodnie z planem i obliczeniami, tym samym tajemnica ciągle pozostaje nierozwiązana i poczekamy jeszcze trochę na jakieś konkretne wnioski (jeśli w ogóle kiedyś ją rozwikłamy). Pomysłów związanych z anomalią „fly-by” w ciągu minionych 20. lat było naprawdę wiele – agencje kosmiczne przeprowadzały szeroko zakrojone i bardzo skrupulatne badania, które pozwalały im zawsze wykluczać przyczyny leżące po naszej stronie, czy to związane z błędami sprzętowymi, oprogramowania czy obliczeniowymi. Odważniejsi naukowcy sugerowali coraz bardziej szalone wersje zdarzeń, między innymi chciano kwestionować podstawy współczesnej fizyki, związane z Ogólną Teorią Względności. Rozważano na przełomie lat wiele frapujących propozycji – jedne z nich rozważały wpływ sił pływowych naszej planety na obiekty w jej pobliżu, inne za winowajcę uznawały ciśnienie promieniowania emitowanego lub reflektowanego przez Ziemię, skrajni fantaści w tym miejscu widzieli nawet sławetną ciemną materię lub ciemną energię. Swego czasu pojawił się interesujący w rzeczy samej pomysł – stworzono wzór obliczeniowy, który brał pod uwagę wpływ kąta, pod jakim sonda zbliża i oddala się w stosunku do równika naszej planety, jednak kiedy Rosetta w 2007 nie wykazała żadnego odchylenia, równanie i to równanie okazało się niewypałem. Innym obiecującym rozwiązaniem może być założenie, że tzw. wleczenie czasoprzestrzeni przez ruch obrotowy Ziemi jest silniejszy, niż się spodziewano. Niezależnie jednak od tego, czy istnieją obiecujące pomysły czy też nie, jedno pozostaje faktem – od dwudziestu lat nikt nie podał wyczerpującego wyjaśnienia dla anomalii. Choć może w końcu się okazać, że to coś naprawdę kuriozalnego lub banalnego, to póki co nie mamy pojęcia, z czym mamy do czynienia. A czym byłaby nauka bez tajemnic? Źródła: Link 1 Link 2 Grafika: Sonda Rosetta Źródło grafiki Credit: ESA/AOES Medialab Wyświetl pełny artykuł
  14. Nie sposób mówić o współczesnej astrofizyce bez długiego orszaku modeli teoretycznych, stworzonych dla zrozumienia najróżniejszych procesów i zjawisk, jakie – jak przypuszczamy niekiedy „w ciemno” – miały, mają i będą mieć miejsce we Wszechświecie. Nie ma sensu tutaj odmawiać im znaczenia, które jest bezsprzeczne – mają one jednak przy okazji jedną, ogromną wadę, wynikającą już z samych założeń ich istnienia: do potwierdzenia prawidłowości wymagają prędzej czy później konfrontacji z rzeczywistością, zweryfikowania przewidywań na podstawie empirycznych obserwacji. Choć dziś nie o tym wpis akurat będzie, wrodzona złośliwość każe mi jednakże dodać, że to tylko jeden z wielu problemów, z jakimi borykać się muszą wielbiciele teorii strun. Wracając jednak do modeli – najlepszy nawet pozornie model teoretyczny wart jest czegoś dopiero, gdy znajduje potwierdzenie w obserwacjach. Nie inaczej sprawa ma się również w przypadku modeli opisujących ewolucję gwiazd. O ile istnieje spora zgodność pomiędzy najlepszymi modelami a obserwowanymi przez astronomami gwiazdami w zróżnicowanych fazach ich egzystencji, jest jeszcze sporo elementów, wymagających empirycznego potwierdzenia – jednym z nich jest model opisujący powstawanie szczególnego typu gwiazd, tzw. białych karłów. Białe karły to specyficzne kosmiczne „mumie” – zgodnie z naszym współczesnym rozumieniem procesów gwiazdowych powstają, gdy „lekkie” lub „średniomasywne” gwiazdy (o masie w granicach od drobnego ułamka masy Słońca do kilku mas Słońca) kończą swój długi żywot w miarę spokojnie (w porównaniu do supernowych niezwykle wręcz apatycznie), wypalając paliwo jądrowe w formie kolejnych, coraz cięższych pierwiastków w swym wnętrzu i odrzucając zewnętrzne powłoki. Taki sam los oczekuje nawiasem mówiąc również nasze macierzyste Słońce, nie warto jednak już teraz nad tym lamentować, gdyż zostało najprawdopodobniej kilka miliardów lat do tej smutnej chwili. Jakby jednak nie było, białe karły to pozostałości po niegdyś żywotnych gwiazdach, pozostałości fascynujące, warto dodać. Ponieważ powstaniu białego karła towarzyszy grawitacyjne zapadanie (zahamowane jednak w pewnym momencie przez ciśnienie zawartej w nim materii), mamy do czynienia z względnie maleńkimi obiektami – zakłada się, że białe karły to gwiazdy wielkości Ziemi, o ogromnej gęstości zawartego w nim niezwykle gorącego, zdegenerowanego gazu. Wolałbym nie wnikać w zawiłości związane ze stanem materii w białym karle – przekracza to moje zdolności pojmowania a co dopiero klarownego opisania, istnieje jednak w Internecie i różnych książkach sporo źródeł, z których taką wiedzę jej spragnieni mogą zaczerpnąć. Warto byłoby w końcu powiązać w jakikolwiek sposób wcześniejsze rozważania teoretyczne z białymi karłami – przystąpmy więc do dzieła. Najlepsze modele teoretyczne powiadają, że gwiazda, która w trakcie swego zejścia z tego świata odrzuciła zewnętrzne warstwy, gdyż spaliła zawarty w niej wodór i hel, zamienia się w białego karła. Koniec kropka. Nie do końca jednak jest to takie proste – białe karły, jak powiada teoria, składają się wówczas głównie z tlenu i neonu, przy czym jądro takiego karła otoczone jest przez cienką, zewnętrzną powłokę z takiego samego tlenu lub helu, kryjącą przed obserwatorami wewnętrzną “zawartość”. Większość modeli podpowiada również, że jądro powinno być otoczone również przez cienką, bogatą w węgiel warstwę, która zapobiega ucieczce tlenu w przestrzeń, jednocześnie obliczenia wskazują, że węglowa powłoka powinna stawać się coraz cieńsza im masa karła bliższa jest maksymalnej dopuszczalnej (ok. 1,4 masy Słońca, tzw. granica Chandrasekhara, powyżej której białego karła czeka los supernowej typu Ia). Brzmi to wszystko dość mętnie, jednak na mój chłopski rozum wygląda to w uproszczeniu tak – według modelu muszą istnieć białe karły, w przypadku których owa powłoka węglowa pozwala dominować tlenowi i w wyniku tego karły takie powinne być „szkieletami” względnie masywnych gwiazd. Nie będę ukrywał, że sam bym tego nie wymyślił – co prawda tok rozumowania źródeł, na których oparłem ten wpis, pozostaje dla mnie dość tajemniczy i trudno mi zrozumieć, co z czego wynika, faktem jednak jest, że jakiś związek między tym wszystkim istnieć musi (potrzebujących klarowności proszę o przeczytanie źródeł w oryginale). W każdym bądź razie wnioski są tutaj następujące – trzeba znaleźć białego karła o dużej zawartości tlenu, by potwierdzić mechanizm opisany wyżej. Demonstrując sprawność współpracy ponad narodowymi podziałami naukowcy z Universität Kiel (Kiel, Niemcy) oraz University of Warwick (Coventry, UK) postanowili poszukać takich właśnie gwiazd. Podjęli się w tym celu dość mozolnej roboty – wykorzystali dane, które od lat już zbiera wyspecjalizowany teleskop pracujący na rzecz wielkiego przeglądu nieba pod nazwą Sloan Digital Sky Survey (SDSS). Teleskop został dobrany nieprzypadkowo – urządzenie pozwala bowiem pstrykać zdjęcia obiektom kosmicznych w pięciu odmiennych długościach fali i, co ważne w kontekście wspomnianych badań, analizować ich widmo. Niemiecko-brytyjscy kooperanci wykorzystali takowe zdolności teleskopu, sortując wpierw zebrane przez niego dane pod względem barwy gwiazd – w ten sposób wytypowanych zostało, bagatela, 25 tysięcy kandydatek. Kolejnym etapem przesiewowych badań było badanie widm tej grupy (zautomatyzowane, warto dodać) pod względem linii spektralnych tlenu. Po zakończeniu tej fazy badań pozostało ok. tysiąc wyselekcjonowanych gwiazd, które tym razem ku utrapieniu badaczy były już analizowane manualnie. Na koniec na polu bitwy zostały… dwie gwiazdy. Białe karły o lirycznych nazwach SDSS 0922+2928 oraz SDSS 1102+2054 to gwiazdy znajdujące się odpowiednio w odległościach 400 i 220 lat świetlnych od Ziemi. O ile wszystkie dotychczas obserwowane białe karły charakteryzowały się zawsze mniejszą zawartością tlenu w stosunku do węgla, o tyle w przypadku nowo odkrytych stosunek ten jest odmienny – tlenu dopatrzono się na podstawie analizy widmowej więcej. Najprawdopodobniej odkryto w ten sposób po raz pierwszy „nagie” białe karły, neonowo-tlenowe jądra, w których otoczka węglowa jest w zaniku. Odkrycie to potwierdziło przewidywania modeli, wedle których w przypadku względnie dość masywnych gwiazd niemal cały węgiel w gwieździe został „skonsumowany”, dzięki czemu gwiazdy o masie bliskiej wartości granicznej (powyżej której czeka je los supernowej) zamiast wybuchać w oślepiającej eksplozji w spokoju zamieniają się w białego karła. Z tego też względu wszystko wskazuje na to, że w przypadku obu wspomnianych karłów mamy do czynienia z masywnymi przedstawicielami tego gatunku – ich masa prawdopodobnie zbliżona jest do masy Słońca, natomiast gwiazdy, które w takie karły się przemieniły, musiały mieć od 7 do 10 mas Słońca. W przypadku gwiazd o wspomnianej wyżej masie (7-10 mas Słońca) istnieją zgodnie z modelami dwie drogi, w zależności od tego, jakiego mają farta (i pewnie poważniejszych czynników, które są dla mnie jednak niejasne): jedną z nich jest żywot białego karła, drugą gwałtowne zejście pod postacią słabej supernowej typu II. I jakkolwiek ciągle nie do końca wiem o czym piszę i co z czego tutaj tak naprawdę wynika, to bezsprzecznie cieszy mnie fakt, że naukowcom po raz kolejny udało się dowieść, iż ich mozolnie opracowywane modele znajdują potwierdzenie w obserwacjach. I tym optymistycznym akcentem dzisiejszy wpis zakończę ku uciesze zdezorientowanych podobnie do mnie czytelników. Źródła: Link 1 Link 2 Link 3 Link 4 Link 5 Link 6 Link 7 Zdjęcie: Nie wygląda to co prawda spektakularnie, ale ten niebieski placek wskazany strzałką to właśnie jeden z białych karłów, o których mowa wyżej Źródło zdjęcia Credit: SDSS Wyświetl pełny artykuł
  15. Po przejrzeniu ostatnich wpisów ze skruchą zmuszony jestem przyznać, że na długi czas zadomowiłem się w bezkresnych przestrzeniach Wszechświata, z upodobaniem egzaltując się odległościami rzędu milionów i miliardów lat świetlnych od Ziemi, zaniedbując przy tym nasze najbliższe kosmiczne otoczenie, z pewnością warte zainteresowania – mam rzecz jasna na myśli nasz przytulny Układ Słoneczny. Chcąc naprawić to niedopatrzenie chciałbym tym razem przedstawić garść informacji o aktualnych badaniach naszej życiodajnej gwiazdy – Słońca. Choć o gwiazdach jako takich wiemy już sporo, niewspółmiernie więcej niż kilkadziesiąt nawet lat temu, to ciągle istnieją niemałe wcale luki w tej wiedzy – mechanizmy pozwalające funkcjonować tym fascynującym obiektom przez niewyobrażalne miliardy lat nie są przez nas w pełni zrozumiane. Wiele projektów badawczych ma na celu poprawę tego niewygodnego stanu – jednym z takich projektów jest niewątpliwie projekt pod nazwą SUNRISE (czyli „wschód Słońca”), wspólne dzieło badaczy z Niemiec, w szczególności naukowców z Max-Planck-Institut fürs Sonnensystemforschung (Kaltenburg-Lindau), Hiszpanii oraz USA. SUNRISE to w rzeczywistości teleskop zawieszony na… ogromnym balonie, milionie metrów sześciennych helu o średnicy 130 metrów zamkniętych w odpowiedniej powłoce. Warto tutaj wspomnieć, że teleskop ten jest jednocześnie największym instrumentem badawczym przeznaczonym do badania Słońca, jaki kiedykolwiek oderwał się od Ziemi – waga startowa całego sprzętu przekraczała 6 ton. Teleskop uniósł się w przestworza 8 czerwca 2009 roku z bazy o nazwie ESRANGE, będącej w posiadaniu Europejskiej Agencji Kosmicznej i znajdującej się w północnej Szwecji, sięgając niebagatelnej wysokości 37 km, czyli „zanurzając się” w stratosferze. W tej warstwie ziemskiej atmosfery warunki zbliżone są do tych panujących w przestrzeni kosmicznej, można więc uzyskać doskonałej jakości zdjęcia Słońca niezakłócone kłopotliwymi turbulencjami atmosfery, można również swobodnie prowadzić obserwacje w zakresie ultrafioletowym, który na powierzchni planety jest po prostu niedostępny dla obserwacji – skądinąd pożyteczna bardzo warstwa ozonowa połyka promieniowanie z tego zakresu widma. Ponieważ balon to jednak nie to samo co satelita unoszący się w przestrzeni kosmicznej, misja trwała pozornie bardzo krótko – już po sześciu bowiem dniach została planowo, jak mniemam, zakończona, kiedy to całe instrumentarium wylądowało bezpiecznie posiłkując się spadochronem na Somerset Island, wielkiej wyspie kanadyjskiego terytorium Nunavut w Arktyce. Niezwykle krótki na pierwszy rzut oka czas działania teleskopu może jednak srodze mylić – w ciągu tych kilku dni bowiem teleskop zebrał ok. 1,8 terabajta danych obserwacyjnych i ich weryfikacja ciągle trwa w najlepsze. Już jednak pierwsze wyniki zdają się wiele obiecywać – szczególnie interesujący okazał się ścisły związek łączący intensywność pola magnetycznego z jasnością najmniejszych rozpoznawalnych struktur na obserwowalnej powierzchni Słońca. Warto w tym miejscu przypomnieć, że Słońce przy dokładniejszym się mu przyjrzeniu nie do końca przypomina uśmiechnięte słoneczka malowane przez każdego z nas w dzieciństwie – nie mamy do czynienia z niemal jednolitą kulą gazu, oślepiająco jasną. To, co naprawdę dzieje się na (i wewnątrz) Słońcu, przypomina raczej wrzącą, gęstą zupę przyprawianą ogniami piekielnymi – powierzchnia Słońca jest wyraźnym tego dowodem, można wręcz powiedzieć, że mamy do czynienia z „gotowaniem” się Słońca. Jedną z cech charakterystycznych powierzchni Słońca jest jej „granulacja”, inaczej mówiąc wyraźnie widoczne są pojedyncze, maleńkie struktury, które są w zasadzie „pakietami” gorącego gazu, bez ustanku unoszące się i opadające, wszystko to napędzane jest natomiast niezwykle skomplikowanymi układami pola magnetycznego. Dysponujemy co prawda na Ziemi coraz wydajniejszymi komputerami, o których jeszcze kilkadziesiąt lat temu nikomu się nawet nie śniło, kompleksowość zjawisk na powierzchni Słońca jest jednak tak wielka, że nawet najlepsze symulacje borykają się wieloma problemami i nie ma jak to zwykle w takiej sytuacji bywa nic lepszego, niż solidne potwierdzenie ich wyników w ramach obserwacji. I tutaj właśnie misja SUNRISE może oddać naukowcom nieocenione usługi. Instrumenty obserwacyjne SUNRISE z niespotykaną dotąd rozdzielczością ukazały niezwykle kompleksowe oddziaływania na powierzchni Słońca; wspomniany wcześniej związek pomiędzy siłą pola magnetycznego a jasnością pojedynczych „cegiełek” jest w końcu i dla nas wszystkich o tyle ważny, że natężenie pola zmienia się w ramach cykli słonecznych, tym samym wyraźny staje się związek pomiędzy natężeniem pól, jasnością „ziaren” a ilością ciepła, docierającego do naszej planety. Szczególnie wyraźne wahanie to jest w zakresie ultrafioletowym, warto dodać, że w zakresie, którym zajmował się SUNRISE (od 200 do 400 nanometrów), obserwacje takie nie były dotąd wcale prowadzone. Instrumenty obserwacyjne dzięki swej wyśmienitej jakości pozwoliły na odwzorowanie maleńkich struktur z dużym kontrastem – wystarczy powiedzieć, że najmniejsze rozpoznawalne struktury na zdjęciu powyżej mają wielkość kątową porównywalną z wielkością monety oglądanej z odległości 100 km. Ponieważ obserwacje prowadzone były przez dwa bardzo czułe instrumenty jednocześnie – jeden z nich, pod nazwą SUFI, rejestrował „ziarenka” w ultrafiolecie, drugi, IMaX, rejestrował rozkład pola magnetycznego oraz prędkość przepływu gorącego gazu w tych strukturach – naukowcy uzyskali tym samym dostęp do ogromnej ilości danych, na podstawie których z pewnością dokonane zostaną kolejne postępy w procesie zrozumienia kompleksowych procesów generujących – nie zapominajmy mimo wszystko o tym – życiodajną energię dla naszej maleńkiej planety. Artykuł o misji SUNRISE (zdjęcia ze startu) w j. angielskim Źródła: Link 1 Link 2 Link 3 Link 4 Link 5 Link 6 Zdjęcie: Sfotografowana przez teleskop SUNRISE powierzchnia Słońca w czterech różnych długościach fali w “bliskim” ultrafiolecie Źródło zdjęcia Credit: MPG/MPS Wyświetl pełny artykuł
  16. Dla najwytrwalszych bywalców tej strony (jeśli takowi oczywiście w ogóle istnieją) dzisiejszy wpis nie będzie z pewnością całkowitą „premierąâ€ w takim sensie, że dwukrotnie przynajmniej zdarzyło mi się w zamierzchłej przeszłości wspominać o potencjalnych kandydatkach do miana tzw. „średniomasywnych czarnych dziur” (tutaj i tutaj), chimerycznej póki co klasy obiektów kosmicznych, których hipotetyczne istnienie od wielu lat czeka na solidne potwierdzenie w ramach obserwacji. O ile dwa pozostałe „szczepy” czarnych dziur (gwiazdowe, powstające w trakcie grawitacyjnej zapaści sporawych gwiazd, o masie nieprzekraczającej kilkudziesięciu mas Słońca, oraz supermasywne, bytujące w jądrach wielu galaktyk i sięgające masą miliardów mas słonecznych) od bez mała kilkudziesięciu lat stanowią przedmiot intensywnej (choć niestety siłą rzeczy tylko pośredniej) obserwacji, o tyle spora skądinąd luka pomiędzy nimi (szacowana pod względem masy na 100 do 10000 mas słonecznych) czeka ciągle na konkretne uzupełnienie – pojawiają się co prawda co jakiś kolejni pretendenci do miana „zawodników wagi średniej” (o których pisałem właśnie we wspomnianych wyżej archiwalnych wpisach), wydaje się jednak, że żaden z nich nie przekonał do siebie przeważającej większości badaczy. W ostatnim czasie naukowcy z amerykańskiego Goddard Space Flight Center, jednego z ośrodków agencji NASA, zaproponowali jednak kandydata, który – jak się obecnie wydaje – stanowi poniekąd „najlepszego podejrzanego”: charakterystyka obiektu, który na przeciągu kilku minionych lat poddawany był przez nich natarczywym obserwacjom, sprawia, że jest on największym “kandydatem-pewniakiem” do miana „średniomasywnej czarnej dziury”. Po kolei jednak. W odległości ok. 15,7 miliona lat świetlnych od Ziemi znajduje się galaktyka o katalogowej nazwie NGC 5408. W zasadzie galaktyka jak każda inna (z tych nieregularnych), o tyle jednak ciekawa, że przynależy do grona pewnej ich podgrupy, która wyróżnia się obecnością w swych wnętrznościach „superjasnych źródeł rentgenowskich” („Ultraluminous X-ray Source”, ULX), frapujących, niezwykle silnych „emiterów” promieniowania X, które zdają się generować więcej energii niż każdy znany nam proces związany z gwiazdami, mniej jednak niż ma to miejsce w przypadku supermasywnych czarnych dziur w aktywnych jądrach galaktycznych (”Active Galactic Nuclei”, AGN). Jak nietrudno się domyśleć, z tego właśnie względu źródła ULX stanowią niezgorszych kandydatów na średniomasywne czarne dziury, co też powoduje, iż naukowcy poświęcają im względnie sporo uwagi. Źródło ULX w galaktyce NGC 5408 jest jednak szczególnie interesujące nawet na tle pozostałych przedstawicieli swej rodziny – w latach 2006 oraz 2008 naukowcy z Goddard Space Flight Center, posługując się instrumentami obserwacyjnymi znajdującymi się na pokładzie europejskiego satelity XMM-Newton, prowadzili obserwacje tego źródła, oznaczonego swego czasu mianem NGC 5408 X-1. Kosmiczne obserwatorium zarejestrowało coś, co naukowcy w swym ojczystym języku określili mądrze jako „quasi-periodic oscillations”, inaczej mówiąc pozornie okresowe oscylacje blasku, pochodzącego od niezwykle gorącego gazu opadającego na hipotetyczną czarną dziurę wewnątrz dysku akrecyjnego, formującego się zwyczajowo wokół masywnych obiektów. „Migotanie” to, bo do tego ów tajemniczy angielski zwrot ostatecznie się sprowadza, miało ciekawą charakterystykę – odbywało się ok. 100 razy wolniej, niż ma to zazwyczaj miejsce w przypadku gwiazdowych czarnych dziur, z drugiej jednak strony o taki sam czynnik źródło to było jaśniejsze (w zakresie rentgenowskim). Biorąc pod uwagę wspomniane migotanie oraz inne charakterystyczne cechy źródła, naukowcy doszli po intensywnym namyśle do wniosku, że przyczyną takiego a nie innego zachowania źródła musi być tajemniczy obiekt o masie pomiędzy tysiącem a dziewięcioma tysiącami mas słonecznych (swoją drogą, ciekawe skąd aż tak szeroki rozrzut w szacunku), natomiast jego horyzont zdarzeń – a więc hipotetyczna w przybliżeniu sferyczna powierzchnia, otaczająca centrum czarnej dziury, wewnątrz której grawitacja nie wypuszcza „na zewnątrz” nawet światła – musiałby mieć średnicę mieszącą się w zakresie od połowy do czterokrotności średnicy Ziemi. Jeśli rzeczywiście w przypadku źródła NGC 5408 X-1 mamy do czynienia ze średniomasywną czarną dziurą, to intensywny blask źródła wiąże się zapewne z pożeraniem przez nią gazu z otoczenia – w tym przypadku zasysania jej z „gwiazdy-ofiarodawcy”, co dzieję się względnie często w przypadku gwiazdowych czarnych dziur w naszej Galaktyce. Chcąc to założenie udowodnić badacze zaplanowali w 2008 roku przesiadkę na kolejne kosmiczne obserwatorium – tym razem amerykańskiego SWIFT’a, dzięki któremu chcieli natrafić na ślady takiej kosmicznej towarzyszki. Od kwietnia 2008 roku satelita SWIFT kilka razy w tygodniu „zerkałâ€ w stronę źródła NGC 5408 X-1, rejestrując najsubtelniejsze nawet regularne wahania w poziomie promieniowania rentgenowskiego, co mogłoby wskazywać na obecność gwiezdnego partnera. Dzięki temu po wielu miesiącach obserwacji astronomom udało się w końcu stwierdzić, że taka maleńka zmiana następuje miarowo co mniej więcej 115,5 dnia. Zakładając, że takiej długości jest również okres orbitalny domniemanej gwiazdy-sponsora, można było ostatecznie przedstawić wniosek, że gwiazda ta musi być co najmniej gwiazdą olbrzymem o przypuszczalnej masie od 3 do 5 mas słonecznych. Trzeba tutaj jednak od razu zaznaczyć, że do chwili obecnej satelita SWIFT zdążył wskazujące na to „wahnięcie” blasku źródła zaobserwować zaledwie cztery razy, nie można więc mówić tutaj o jakiejś absolutnej pewności – nadzór trzeba będzie w dalszym ciągu kontynuować, by potwierdzić podejrzenia. Jakby jednak nie było, wiele wskazuje na to, że wyczekiwany od lat z utęsknieniem przez wielu astronomów silny dowód obserwacyjny wskazujący na istnienie średniomasywnych czarnych dziur powoli zaczyna znajdować się w zasięgu ręki obserwatorów. Nawet jeśli w przypadku bohaterki dzisiejszego wpisu wszelkie wnioski okażą się w ostatecznym rozliczeniu błędne (co wydaje się jednak mało prawdopodobne, trzeba przyznać), to pojawiające się w ostatnim czasie coraz częściej prace w tym zakresie w końcu kiedyś zaprezentują „pewniaka”, obiekt, który bez zastrzeżeń zostanie oficjalnie mianowany przedstawicielem nowej klasy czarnych dziur. Wszystko to – warto o tym wspomnieć na koniec – ma jednak sens przy oczywistym w tym przypadku założeniu, że czarne dziury jako takie w ogóle istnieją, co nie przez wszystkich naukowców jest w końcu akceptowane. Wspominam o tym dlatego, że dla osób zainteresowanych alternatywnymi wizjami (w tym przypadku mowa o tzw. „czarnych gwiazdach”) z przyjemnością polecić mogę lekturę najnowszego wydania „Świata Nauki”, w którym arcyciekawy artykuł na ten temat się pojawił. Artykuł naukowców o odkryciu na ArXiv.org Źródła: Link 1 Link 2 Link 3 Link 4 Link 5 Link 6 Zdjęcie: Archiwalne zdjęcie wykonane przez teleskop Hubble’a, gdzie zaznaczono źródło NGC 5408 X-1 Źródło zdjęcia Credit: NASA/ESA/C. Lang, P. Kaaret, A. Mercer (Univ. of Iowa), and S. Corbel (Univ. of Paris) Wyświetl pełny artykuł
  17. Niewątpliwie Wszechświat stanowi niewyobrażalnie wielką scenę, na której rozgrywają się spektakularne, pełne rozmachu i dramatyzmu zjawiska, wszystko to jednak odbywa się tak daleko stąd i pozornie tak powoli, że niezwykle trudno przy pomocy naszych ograniczonych zmysłów pojąć, jak gwałtowne i brutalne w rzeczywistości mogą być takie „kosmiczne fajerwerki” – wystarczy pomyśleć tutaj choćby o gigantycznych kosmicznych kolizjach, w efekcie których uczestnicy takiego karambolu zmieniają zupełnie swe oblicza. Istnieją jednak również zjawiska, które nawet w porównaniu do maleńkiego przedziału czasowego, jakim dysponują zazwyczaj ludzie za swego życia, są niezwykle krótkie – czymś takim są z pewnością tzw. rozbłyski gamma (skrótowo GRB od angielskiego „Gamma-Ray Burst”), w przypadku których te najkrótsze trwają nawet drobne ułamki sekund. Rozbłyski gamma, których zasadniczy podział wiąże się właśnie z czasem ich trwania (błyski krótkie, trwające mniej niż 2 sekundy oraz błyski długie, trwające dłużej, nawet do godziny) to, zgodnie z obecnym stanem naszej wiedzy, echa odległych, niezwykle gwałtownych zjawisk, związanych z eksplozjami supernowych oraz łączeniem się ze sobą tak egzotycznych obiektów, jak gwiazdy neutronowe czy czarne dziury. Warto tutaj wspomnieć, że energia wydzielana w trakcie tych zdarzeń musi być wprost niewyobrażalna – przytoczę na rzecz tego choćby dość aktualny i świeży argument taki, że kilka miesięcy temu zaobserwowany rozbłysk gamma (GBR090423) stanowi najprawdopodobniej ślad najodleglejszego obiektu, jaki kiedykolwiek zaobserwowaliśmy we Wszechświecie; biorąc pod uwagę ogromny dzielący nas od niego dystans i to, że błysk został dostrzeżony, wydzielona energia musiała być przeogromna. Błędem byłoby jednak przypuszczenie, że wysoce energetyczne promieniowanie gamma, rejestrowane siłą rzeczy w trakcie takich błysków, na wyłączność powiązane jest z dramatycznymi kosmicznymi katastrofami. Wraz z nadejściem mrocznej epoki atomu człowiek stworzył niszczycielskie narzędzie, które – poza całym asortymentem innych morderczych efektów – wydziela również promieniowanie gamma. Broń jądrowa to jednak tylko jeden z przykładów – promieniowanie to ma również (pomijam tutaj astronomię i rejestrację promieniowania w celach badawczych) zastosowanie w medycynie i przemyśle. O ile jednak nie wydaje się to specjalnie zaskakujące, to pewnie nie każdy wie o tym, że błyski gamma nie są charakterystyczne tylko dla odległych otchłani Wszechświata – mamy do czynienia z nimi również zupełnie blisko, bo w naszym bezpośrednim sąsiedztwie na Ziemi. Oczywiście takie porównanie może na pierwszy rzut oka wydawać się mocno naciągane – w żadnym wypadku nie można postawić obok siebie kosmicznych rozbłysków gamma (GRB) i tzw. ziemskich błysków gamma (TGFs, z angielska „Terrestial Gamma-ray Flash”). Zarówno przyczyny, skala jak i charakterystyka tych błysków są zupełnie odmienne, niemniej jednak istnienie błysków gamma na Ziemi jest niezaprzeczalnym faktem. Po raz pierwszy błyski TGF zarejestrowane zostały już we wczesnych latach 90-tych dwudziestego wieku, kiedy to amerykański satelita Compton Gamma Ray Observatory (CGRO), wypełniający poczciwie swą misję do 2000 roku, kiedy to zakończył żywot w Oceanie Spokojnym, kątem oka zapewne zauważył takie błyski „za plecami” w atmosferze ziemskiej; kolejnym instrumentem badawczym, który zarejestrował dotąd aż ok. 800 takich błysków, jest satelita RHESSI (Reuven Ramaty High Energy Solar Spectroscopic Imager) , którego zadaniem jest zasadniczo obrazowanie aktywności słonecznej w zakresie promieniowania rentgenowskiego i gamma. Można więc powiedzieć, że ziemskie błyski gamma nie są niczym specjalnie nieoczekiwanym ani zajmującym – ostatnie dni jednak pokazały, jak niewiele naprawdę o nich wiemy. Kosmiczny teleskop FERMI w ciągu pierwszych 14 miesięcy swej „działalności” zarejestrował do chwili obecnej 17 błysków gamma „ziemskiego” pochodzenia. W trakcie tegorocznego „FERMI Symposium”, konferencji speców wykorzystujących teleskop w swej pracy zawodowej, jeden z nich – niejaki Michael Briggs z University of Alabama w Huntsville (USA), który, nawiasem mówiąc, fizykiem jest mocno nietypowym (od 10 lat jest aktywny jako „oblatywacz” eksperymentalnych maszyn na usługach amerykańskiego US Air Force), przedstawił piątego listopada w ramach swego referatu frapujące wyniki obserwacji, dotyczące dwóch z wspomnianych wyżej kilkunastu błysków. Warto w tym miejscu może byłoby wreszcie zdradzić, skąd owe błyski energetycznego promieniowania w ogóle się biorą, a przynajmniej jakie są nasze podejrzenia odnośnie ich przyczyn. Wedle najlepszej współczesnej wiedzy błyski TFG pozostają w ścisłym związku ze zjawiskiem każdemu z nas z pewnością znanym – burzami. Do rejestracji błysków dochodzi bowiem zazwyczaj bezpośrednio przed, w trakcie lub też natychmiast po zarejestrowaniu skądinąd znanych każdemu piorunów. Naukowcy przypuszczają, że błyski TFG inicjowane są czasem (swoją drogą dlaczego nie za każdym razem?) w górnych warstwach chmur burzowych a zjawisko ma związek z polem elektrycznym, towarzyszącym nieodłącznie burzom. Wedle naukowców spierających się jeszcze co do szczegółów zasadniczo dochodzi do przyspieszenia elektronów, które złapane zostaną w okowy takiego pola, następnie owe niezwykle szybkie elektrony zderzają się z cząsteczkami powietrza, powodując emisję promieniowania gamma, zdarzyć się również może, że elektrony takie „wybijająâ€ elektrony z tych cząsteczek, wywołując „lawinę” cząstek w polu elektrycznym. Ponieważ szczegóły są dla mnie jednak dość mętne i niewiele z tego zrozumiem, pozostawię eksplorację szczegółów ambitniejszym czytelników. Jakby jednak nie było – ziemskie błyski gamma powiązane są z piorunami, to wydaje się być raczej pewne. Wspomniany wyżej Briggs nie chciał jednak o tym snuć swych rozważań – wiadomo o takim związku nie od dziś, pilot USAF poinformował zaskoczonych słuchaczy, że dwa z siedemnastu błysków gamma, zarejestrowanych przez teleskop FERMI, wskazywały na związaną z nimi emisję… antymaterii. W trakcie dwóch obserwowanych nie tak dawno burz teleskop zarejestrował emisję promieniowania gamma o ściśle określonej energii (dokładniej mówiąc 511 keV), które mogło zostać wyemitowane – zgodnie z naszą obecną wiedzą – wyłącznie w trakcie rozpadu pozytonów, inaczej mówiąc odpowiedników elektronów w przeciwnym „obozie” antymaterii. Po raz pierwszy w historii dokonano takiej obserwacji – naukowcy głowią się obecnie nad tym, jaki mechanizm kryje się za zaskakującym faktem kreacji antymaterii w trakcie burzowej zawieruchy. Niezwykła sygnatura pozytonów zdaje się póki co sugerować, że dochodzić musi w jakiś sposób do odwrócenia zwyczajnej orientacji pola elektrycznego, powiązanego z burzą. Briggs opracowuje obecnie wyniki swych obserwacji, przygotowując je do druku. Aktualnie brak godnego uwagi opisu zjawiska, wygląda na to, że zapracowanym fizykom trzeba będzie dać trochę czasu na opracowanie teoretycznego wyjaśnienia, wiążącego burze z antymaterią. Niewątpliwie jednak jest to ciekawe odkrycie – kto wie, może w trudnej do przewidzenia przyszłości ułatwi ono fizykom opracowanie nowych, dotąd nieznanych sposobów kreacji antymaterii, co byłoby alternatywą dla wielce mozolnego procesu wykorzystywanego choćby w ośrodku CERN. Źródła: Link 1 Wyświetl pełny artykuł
  18. Kontynent umiejscowiony wokół mroźnego Bieguna Południowego zwany Antarktydą wywołuje z pewnością automatycznie sporo utartych skojarzeń – a to wyobrażamy sobie śnieżną i lodowatą pustynię, po której hasają gromadki niezniszczalnych pingwinów, to znów myślimy o topniejących lodowcach zagrażających nadmorskim kurortom, pierwszym jednak przymiotnikiem, który nasuwa się na myśl, jest: „zimny”. Rzeczywiście, to na Antarktydzie właśnie notowano swego czasu rekordowo niskie w skali Ziemi temperatury, jest to jednak tylko jeden z kilku decydujących powodów, dla których naukowcy nie raz i nie dwa wybierali ten mroźny kontynent jako placówkę badawczą. Poza niskimi temperaturami niebagatelną rolę – dla naszych ulubionych astronomów – odgrywa również oczywisty brak tzw. „light pollution”, czyli zanieczyszczenia nieba światłami cywilizacji (chyba że akurat co bystrzejsze grupy pingwinów wpadły na pomysł rozpalania gigantycznych ognisk, co jednak wydaje się, trzeba szczerze przyznać, mało prawdopodobne), jak i klarowność i czystość powietrza skutego mocarnym mrozem. Sporo eksperymentów astrofizycznych przewinęło się już przez Antarktydę; tym razem chciałbym wspomnieć o jednym, który – umiejscowionym w pobliżu samego Bieguna Południowego – może mieć całkiem duże znaczenie dla naszej wiedzy o zawartości Wszechświata. O mikrofalowym promieniowaniu tła (cosmic microwave background, CMB) wspominałem już wcześniej tyle razy, że aby nie powtarzać do znudzenia tej samej litanii po raz n-ty, nie pozostaje mi nic innego, jak poprosić Was o sięgnięcie do wyszukiwarki z prawej u góry strony lub choćby do Wikipedii, jeśli jeszcze nie wiecie, co to takiego. Promieniowanie to ma ogromne znaczenie dla naszej współczesnej wiedzy o Wszechświecie, wszyscy jednak, którzy mogliby uważać, że swoją oświeceniową misję spełniło już jakiś czas temu ukazując nam mapę fluktuacji młodziutkiego Wszechświata, są w błędzie – CMB kryje przed nami jeszcze wiele cennych informacji, przy czym te najbardziej pożądane są dla nas ciągle jeszcze nieosiągalne ze względu na niedoskonałości aparatury badawczej (rzucę tylko mimochodem tajemniczym pojęciem „mod B”, wytrzymałych zapraszam do samodzielnych poszukiwań, podaję tylko przykładowy link). Jednym z fundamentalnych zagadnień, w przypadku których CMB wydaje się służyć naukowcom w najlepsze, jest kwestia rzeczywistego składu Wszechświata, inaczej mówiąc tego, ile tak naprawdę „zwykłej” materii w nim się znajduje. Nie od dziś naukowcy w przeważającej mierze zakładają, że „zwykła” materia (z której składamy się my sami, gwiazdy i planety oraz wszystko, co jesteśmy w stanie zobaczyć) niespodziewanie stanowi niewielki ułamek całkowitej „zawartości” Wszechświata. Jakkolwiek może się to wydawać dziwne, wiele poszlak wskazuje na to, że ogromna większość „energii-materii” Wszechświata skoncentrowana jest w egzotycznych formach, zwanych odpowiednio „ciemną energiąâ€ i „ciemną materiąâ€. I choć nie ma naprawdę niezbitych dowodów na istnienie obu tych dziwactw, to tzw. Standardowy Model Kosmologiczny, czyli współczesna najpopularniejsza wśród naukowców wykładnia dotycząca struktury, składu i historii Wszechświata, zakłada, iż „zwykła” materia stanowi zaledwie 5% całości. Niewiele, prawda? Kłótnie wokół „ciemnych” składników Wszechświata trwają w najlepsze, w ostatnich dniach jednak pojawiła się niepostrzeżenie praca naukowa, która dorzuca swój całkiem spory kamyczek do tej dyskusji – tym razem przedstawiając wyniki sugerujące poprawność Standardowego Modelu, inaczej mówiąc – wspierając hipotezę o istnieniu „ciemnych” złoczyńców. Pierwszego listopada na łamach „Astrophysical Journal” ukazała się bowiem praca zespołu naukowców, kierowanego przez panią profesor Sarah Church z Kavli Institute for Particle Astrophysics and Cosmology (KIPAC, Stanford University, Palo Alto, USA) oraz Waltera Gear z School of Physics and Astronomy przy Cardiff University (Cardiff, UK). który w oparciu o wnikliwą analizę promieniowania CMB potwierdza dość jednoznacznie, że Model Standardowy wydaje się być bardzo bliski temu, z czym mamy do czynienia w naszym Wszechświecie. Na Biegunie Południowym znajduje się teleskop przynależący do tzw. kolaboracji QUaD (QUEST and DASI), teleskop o średnicy 2,6 metra, który w sumie jest w uproszczeniu tzw. bolometrem, inaczej mówiąc termometrem, który mierzy w jaki sposób określone rodzaje promieniowania nagrzewają metalowe czujniki detektora. Miejsce dla eksperymentu wybrano nieprzypadkowo – wspomniana na początku niska temperatura ma swoje znaczenie, choć i tak jest nieporównywalnie wyższa od temperatury urządzenia – aby zakłócenia otoczenia nie mogły zafałszować wyników obserwacji, urządzenie schładzane jest do temperatury bardzo bliskiej zera absolutnego. Na co jednak teleskop rzuca okiem, zapytacie – już odpowiadam. CMB to promieniowanie elektromagnetyczne a te może być (lub nie) spolaryzowane. Posiadacze aparatów fotograficznych próbujący trochę poważniej podejść do fotografii z pewnością wiedzą, jak zmienia się rejestrowany obraz po założeniu na obiektyw polaryzatora i przekręceniu go o 90 stopni (w przypadku kołowego), ten sam mechanizm dotyczy jednak generalnie fal (z pewnymi wyjątkami) – światło spolaryzowane to inaczej mówiąc (w dużym uproszczeniu) światło takie, w przypadku którego oscylacje fali elektromagnetycznej następują tylko w kierunku prostopadłym do kierunku przemieszczania się fali – niewiele co prawda mi to mówi jako wybitnemu laikowi, jednak różnicę na wykonywanych zdjęciach widzę i to mi wystarcza, mniejsza zresztą o mechanizm za tym stojący. Co prawda większość promieniowania, z którym mamy styczność, nie jest zasadniczo spolaryzowana, jednak nie jest to cecha, z którą światło musi się „rodzić” i która nie może zostać nabyta – poprzez kontakt z materią światło może zostać spolaryzowane. I taką cechę – polaryzację – wykazuje również kosmiczne promieniowanie tła. Mimo że promieniowanie CMB ochłodziło się niewspółmiernie od czasów, kiedy zostało wyemitowane, to zachowało jednak wzorzec polaryzacji z epoki, która miała miejsce niespełna 400 tysięcy lat po Wielkim Wybuchu, kiedy to Wszechświat stał się w końcu przeźroczysty dla promieniowania elektromagnetycznego. Co jednak ważne, polaryzacja CMB wydaje się mieć ścisły związek z dystrybucją materii w tak wczesnym Wszechświecie – w związku z tym naukowcy, którzy są w stanie precyzyjnie zbadać polaryzację CMB, są również w stanie tworzyć szczegółowe mapy rozkładu materii we wczesnym Wszechświecie. Tego właśnie dokonali naukowcy z obu wspomnianych wyżej uczelni – wykonali oni, korzystając z teleskopu eksperymentu QUaD mapy rozkładu (i – co ważne – również prędkość przemieszczania się!) materii w niemowlęcym wieku Wszechświata o niespotykanej dotąd precyzji. W pracy zaprezentowanej na łamach „Astrophysical Journal” zespół Church i Geara przedstawia takowe mapy, wysnuwając również na ich podstawie dość znaczące wnioski – wszystko wskazuje na to, że charakterystyka polaryzacji CMB zgadza się zaskakująco dobrze z przewidywaniami Modelu Standardowego, wedle którego Wszechświat składa się w 5% ze „zwykłej” materii i pozostałych 95% „ciemnych” składników. Więcej nawet – Wszechświat, który byłby złożony tylko ze „zwykłej” materii, nie mógłby, opierając się na tych mapach, wyglądać tak, jak wygląda obecnie. „Zwykła” oraz „ciemna” materia w różny sposób wpływają na szczegóły (o których wolę się nie wypowiadać w swej niewiedzy) związane z charakterem polaryzacji CMB, z tego względu promieniowanie to stanowi klucz do tego, by w pośredni sposób potwierdzić istnienie „ciemnych” treści we Wszechświecie. Jak sądzę jest to dość znaczące stwierdzenie – alternatywne modele, które posyłają w diabły „ciemne” składniki, tracą w pewnym sensie grunt pod nogami, Standardowy Model, dopieszczający „ciemnąâ€ materię i energię, zyskuje na sile. Można oczywiście tutaj dyskutować zawzięcie (choć do tego potrzebna jest odpowiednia wiedza, którą nie dysponuję) i zarzucać naukowcom to i owo, jednak sam, mimo sceptycznej postawy wobec „ciemnych” składników, muszę przyznać, że trudno mi w jakiś sensowny sposób zarzucić naukowcom błędy – co prawda nikt nie pokazał nam bezpośrednio „grudki” ciemnej materii, jednak związek między polaryzacją CMB a zawartością Wszechświata z jakiegoś powodu wskazuje na niewygodną dla wielu strukturę. Pozostaje tylko czekać na kolejne próby obalenia lub umocnienia hipotez „ciemnych” składników. Źródła: Link 1 Link 2 Link 3 Zdjęcie: Teleskop QuAD Źródło zdjęcia Credit: Rfriedman81/Wikipedia Wyświetl pełny artykuł
  19. Pozwolę sobie na wstępie (ostrzegam, wstęp tym razem jest naprawdę dłuugi!) zuchwale założyć, że w kręgu osób wizytujących mniej lub bardziej sporadycznie mojego bloga zwolennicy kreacjonizmu stanowić powinni zaniedbywalną jak mniemam mniejszość – wszyscy pozostali zgodzą się zapewne ze mną co do tego, że człowiek (jak i wszelakiej maści organizmy żywe na Ziemi) ewoluując wykształcił zmysły obejmujące otaczającą go rzeczywistość w takim zakresie, jaki jest mu niezbędny do “prostej” egzystencji, prostej w takim sensie, że przykładowo percepcja wzrokowa obejmuje tylko niewielki zakres szerokiej gamy promieniowania elektromagnetycznego dlatego, iż większy niekoniecznie przynosiłby nam jakiekolwiek rzeczywiste korzyści. Natura, jeśli tak można powiedzieć, jest zdeklarowaną pragmatyczką – sprawdza niewyobrażalną liczbę możliwości, eliminując te niepotrzebne i wzmacniając istotne. Jeśli zastanawiacie się skąd u mnie takie niebywale mądre refleksje, postaram się w miarę płynnie, choć i tak kulawo, przejść do konkretów – z ludzkich zmysłów nie bez powodu wymieniłem powyżej wzrok, bo dzisiejszy wpis wiele wspólnego ma właśnie z bodźcami, których wzrok jest odbiorcą – światłem. Swego czasu, w początkach minionego wieku, niejaki Albert Einstein stwierdził po latach wytężonego dumania, że każdego rodzaju fale elektromagnetyczne – od niskoenergetycznych fal radiowych do “nasyconych” ogromną energią fal promieniowania gamma – rozchodzą się w próżni z jednakową prędkością, równą… no tak, prędkości światła w próżni. Ponadto, co ważne bardzo w kontekście poniższych akapitów, prędkość ta jest niezależna od energii, jaką niosą same fotony. Zanim przejdziemy dalej, musimy powiedzieć słów kilka o drugim obok światła pierwszoplanowym bohaterze tego wpisu - czasoprzestrzeni. O ile w przypadku promieniowania elektromagnetycznego nasze zmysły zdolne są rejestrować zaledwie fragment całego spektrum, jednak coś tam nieporadnie postrzegamy, o tyle w przypadku czasoprzestrzeni sprawa przedstawia się znacznie gorzej – można z łatwością wyobrazić sobie naszych przodków sprzed setek tysięcy lat sapiących z zachwytem nad feerią kolorów charakterystyczną dla otaczającego nas świata, trudniej jednak byłoby uwierzyć, że podobne ochy i achy towarzyszyły podziwianiu struktury czasoprzestrzeni. Czas co prawda (choć i tak nie mamy zielonego pojęcia czym naprawdę jest ani do końca czy rzeczywiście istnieje) jest pojęciem pozornie nam bliskim i stale obecnym w naszym codziennym życiu, przestrzeń jednak wydaje się być mocno abstrakcyjnym pojęciem – spróbujcie choćby na własne potrzeby ją sensownie zdefiniować. Przyjmijmy trochę nieporadnie dla celów tego wpisu, że przestrzeń to “coś, w czym wszystko jest”, choć kiedy weźmiemy pod uwagę teorię Wielkiego Wybuchu, wedle której przestrzeń powstała w określonym momencie w przeszłości, sprawa zaczyna się gwałtownie gmatwać – skoro to “coś” kiedyś powstało, to co istniało wcześniej? Można by rzec “nic”, jednak tutaj każdy szaraczek taki jak ja musi bezradnie skapitulować – “nic” w potocznym rozumieniu to po prostu pustka w przestrzeni, jak wygląda jednak takie bezwzględne “nic”? Zanim jednak zagalopuję się zbytnio w rozważaniach skrajnie metafizycznych, zawróćmy z tego grząskiego szlaku z powrotem do meritum wpisu. A jest nim pytanie o strukturę czasoprzestrzeni i sposób jej określenia. Ponieważ nasze umysły osiągają tutaj jak sądzę granice pojmowania, na scenę wkraczają matematycy do spółki z fizykami, którym takie zagadnienia nigdy nie straszne. Tylko językiem tych nauk ścisłych można podobne rozważania bezkarnie prowadzić, gdyż Natura z pewnością nie przewidziała, że ludziska zaczną kiedykolwiek roztrząsać równie fundamentalne kwestie. O ile nie sposób chyba sobie coś takiego wyobrazić, o tyle teoretycy od jakiegoś już czasu rozważają możliwość, wedle której czasoprzestrzeń jest “nieciągła“. Co to właściwie oznacza? Dla nas w zasadzie nic, bo nie jesteśmy w stanie tego w jakikolwiek sposób zauważyć, jednak taka cecha Wszechświata niosłaby ze sobą doniosłe konsekwencje (choć bez bicia przyznam, że nie wiem jakie). By nie rozciągać w nieskończoność tego i tak niemiłosiernie długiego wstępu (tak, to ciągle wstęp!) przypomnę tutaj tylko, że jednym z wielkich marzeń naukowców od lat jest wyczyn jak dotąd przez nikogo nie dokonany – połączenie w jedną spójną teorię ogólnej teorii względności Einsteina, spisującej się wyśmienicie w wielkich skalach, i mechaniki kwantowej, równie dobrze działającej w skalach mikroskopowych. Wielu naukowców jest zdania, że obie teorie są w pewnym sensie składnikami jakiejś bardziej fundamentalnej, a prób stworzenia takowej jest naprawdę wiele – większość z nich określanych jest jako teorie “kwantowej grawitacji”. Póki co żaden kozak nie stworzył teorii, która realizowałaby tak ambitne zadania, nawet miłośnicy teorii strun muszą chyba przyznać, że to jeszcze nie “to”. Wraz z rozwojem technologii jednak pojawiają się przynajmniej możliwości, by choć część z nich móc eksperymentalnie zweryfikować – i o takim to właśnie dokonaniu jest ten mętny wpis. Niektóre z teorii grawitacji kwantowej zakładają, że czasoprzestrzeń posiada dyskretną strukturę – inaczej mówiąc, podobnie trochę jak w przypadku światła, którego najmniejsza niepodzielna “ilość” to kwant światła, przestrzeń również nie byłaby wtedy gładkim “płynem” (kiepska analogia, no ale cóż), wypełniającym idealnie Wszechświat. Gdybyśmy mogli dzielić przestrzeń i czas na coraz mniejsze fragmenty, musielibyśmy w końcu natknąć się na swoistą granicę – jej wyjątkowość polegałaby jednak nie na ograniczeniach, wynikających z rozdzielczości instrumentów pomiarowych, a na wbudowanej fundamentalnie w czasoprzestrzeń strukturze. Tym samym, dość co prawda mętnie, można by sobie wyobrażać czasoprzestrzeń nie jako płyn, a jako bardzo drobną “pianę” o maciupkich “ziarnach”. Jeśli rozejrzycie się wokół siebie, z pewnością nabierzecie podejrzeń, że “ziarna” te muszą być naprawdę maleńkie – w końcu nie za bardzo widać wokół nas podział przestrzeni na metrowej wielkości bloczki. I rzeczywiście, owa fundamentalna “jednostka” czasoprzestrzeni, jeśli istnieje, musi być niezwykle, niewyobrażalnie wręcz mała – w przypadku “długości” mowa tutaj o ok. 1,6¡10-35 metra, natomiast w przypadku czasu o 5,3¡10-44 sekundy. Obie te wartości są ściśle ze sobą powiązane i w fizyce znane są odpowiednio pod nazwami skali (długości) Plancka i czasu Plancka. Aby uzmysłowić sobie, o jakich wielkościach mówimy, wystarczy wspomnieć, że długość Plancka stanowi ok. jedną stutysięczną trylionowej wielkości… protonu. Niewiele, to prawda. Tym bardziej jednak większe wrażenie sprawia w świetle tego świadomość, że naukowcy są w stanie eksperymentalnie wykazywać, jak ta struktura rzeczywiście wyglądać może (lub nie może). Wszystko rozpoczęło się w 2005 roku, kiedy to naziemny teleskop MAGIC (Major Atmospheric Gamma-ray Imaging Cherenkov Telescope), pracujący w zakresie promieniowania gamma i znajdujący się na Wyspach Kanaryjskich, podczas obserwacji długiego rozbłysku gamma (trwającego 20 minut!) w odległej o kilkaset milionów lat świetlnych galaktyce Markarian 501, zarejestrował coś frapującego – fotony, podróżujące od pół miliarda lat docierały do teleskopu w różnym czasie, co jednak najważniejsze, owo zróżnicowanie było ściśle skorelowane z pewną cechą fotonów – ich energią. Fotony o bardzo dużej energii dotarły do Ziemi o całe cztery minuty później niż te o energii znacznie niższej. Niby nic ciekawego, jednak informacja o tym dość szybko sporo namieszała w światku astrofizyków i spowodowała, że teoretycy pracujący nad kwantowymi teoriami grawitacji nie mogli pochwalić się stabilnym pulsem. Wszystko dlatego, że wspomniane wyżej teorie, przewidujące nieciągłość czasoprzestrzeni, w konsekwencji tego założenia przewidują (a przynajmniej niektóre z nich), że musi to w zauważalny sposób wpływać na przemieszczanie się fal elektromagnetycznych w tejże przestrzeni. Wspomniana wyżej struktura “ziarnista” w różny sposób musiałaby oddziaływać z promieniowaniem elektromagnetycznym o różnej energii – im foton niesie jej więcej, tym fala jest krótsza; w przypadku niezwykle energetycznych fotonów gamma na tyle krótka, by ziarnista struktura przestrzeni mogła wyraźnie wpływać na ich prędkość, można by wręcz powiedzieć, że fotony takie musiałyby pokonywać dość “wyboistą” drogę, w przeciwieństwie do fotonów o mniejszej energii, którym przy większej długości fali takie grudki nie mogłyby w niczym przeszkadzać. Pewnie domyślacie się już, dlaczego obserwacje teleskopu MAGIC tak pobudziły wyobraźnię niektórych teoretyków – opóźnienie pomiędzy fotonami wydawało się potwierdzać, że czasoprzestrzeń jest “ziarnista” a prędkość światła zależna jest od energii, jaką niesie foton. Warto jednak wspomnieć, że nie do końca tak różowo sprawy wyglądały – zmierzone opóźnienie wymagało, by “ziarnistość” objawiała się w większych skalach, niż wynikało z teorii – to jednak dla fizyków niespecjalny problem, by teorie odpowiednio, ekhem, dopasować. Z problemami czy bez, byłoby to rzeczywiście rewolucyjnym odkryciem, jak na razie bowiem szczególna teoria względności Einsteina jest niepokonana i nie mamy żadnych dowodów na to, iż światło mogłoby zmieniać swą prędkość w zależności od jakiegokolwiek czynnika (oprócz ośrodka, rzecz jasna). Dyskusja rozgorzała więc w najlepsze i tak sprawy miały się do tego roku, kiedy kolejne obserwacje – tym razem teleskopu znajdującego się w Kosmosie – w końcu najprawdopodobniej rozwiały wszelkie wątpliwości. W dniu 20 maja tego roku teleskop kosmiczny FERMI zarejestrował ponownie rozbłysk gamma, tym razem jednak w przeciwieństwie do poprzedniego z gatunku krótkich (trwał 2,1 sekundy), znacznie jednak odleglejszy, gdyż pochodzący z odległości ok. 7 miliardów lat świetlnych. Rozbłysk, ochrzczony zgodnie z odpowiednią nomenklaturą mianem GRB090510, który był manifestacją najprawdopodobniej zderzenia dwóch gwiazd neutronowych (a przynajmniej taki wariant rozpatrują najczęściej w przypadku krótkich błysków gamma astronomowie) okazał się niespodziewanie doskonałym testem dla różnych spekulacji dotyczących struktury czasoprzestrzeni – niestety dla teoretyków wspomnianych wyżej test ten wypadł raczej negatywnie. Po siedmiu miliardach lat podróży fotony powstałe w trakcie rozbłysku dotarły do teleskopu – zarówno fotony o bardzo niewielkiej energii (względnie), jak i fotony o energii milion razy większej. Jak się jednak okazało, opóźnienie pomiędzy tymi fotonami było wręcz zaniedbywalnie małe – wynosiło ok. 0,8 sekundy. Przykładając ten śmiesznie krótki czas do trasy, jaką fotony pokonały… można śmiało założyć, że opóźnienia praktycznie nie było i – w konsekwencji tego – czasoprzestrzeń nie ma struktury “ziarnistej” albo, czego ostatecznie nie można wykluczyć, “ziarna” są znacznie mniejsze, niż dotąd przypuszczano. Po raz pierwszy rozwój technologii obserwacyjnych pozwolił nam prowadzić badania empiryczne nad związkiem efektów kwantowych z geometrią czasoprzestrzeni, warto jednak wspomnieć, że naukowcy nie poprzestają oczywiście na tym i w ciągu najbliższych lat planują wykonanie obserwacji, które mogłyby zweryfikować “ziarnistość” Wszechświata w jeszcze mniejszych skalach. Póki co wydaje się jednak, że teoretycy, pracujący w pocie czoła nad teoriami kwantowej grawitacji, muszą przyłożyć się jeszcze bardziej i zrezygnować z niektórych egzotycznych pomysłów. W przypadku obserwacji teleskopu MAGIC rozważa się obecnie najróżniejsze wytłumaczenia – może to zadziwiające opóźnienie wzięło się z czegoś zupełnie niezależnego od struktury czasoprzestrzeni, może po prostu w tym konkretnym przypadku promieniowanie o niższej energii zostało wyemitowane z niewyjaśnionych jeszcze przyczyn trochę wcześniej niż to o wysokiej? Warto, mimo naprawdę cennego dowodu eksperymentalnego, pamiętać również o tym, że obserwacje teleskopu FERMI nie oznaczają mimo wszystko gwałtownej śmierci wszelkich rozważań nad “ziarnistością” czasoprzestrzeni – konieczna jest zmiana niektórych założeń, dalsze prace teoretyczne, obserwacyjne – kto wie, co jeszcze nas w tej materii czeka. Źródła: Link 1 Link 2 Link 3 Link 4 Link 5 Link 6 Link 7 Link 8 Link 9 Link 10 Wyświetl pełny artykuł
  20. Zapewne naiwna fascynacja Wszechświatem z punktu widzenia przygodnego amatora pokroju autora tego bloga, który świadomie wysupłuje z niezwykle czasem skomplikowanej wiedzy astrofizycznej tylko te elementy, które jest w stanie w miarę pojąć i ogarnąć umysłem, szybko mogłaby przygasnąć i zszarzeć w konfrontacji ze żmudną, rutynową i codzienną pracą nad niekończącymi się zestawami niewiele mówiących liczb, co z dużym prawdopodobieństwem stanowi jedno z głównych zajęć zawodowych obserwatorów nieba. Z tego też względu, mimo pewnych sentymentalnych czasem rozważań, nigdy nie żałowałem tak naprawdę, że obrałem zupełnie odmienną, na wskroś humanistyczną drogę edukacji, odpuszczając sobie ślęczenie nad arcytrudną dla mnie od zawsze matematyką i fizyką – nie jest to teraz moim zawodem i potrafię po latach ciągle na nowo odkrywać w sobie fascynację tajemnicami Kosmosu. To pewnie prawda, że wszyscy astronomowie zajmują się swoją robotą z zamiłowania (bo trudno mi wyobrazić sobie takiego, który w tym elitarnej i wąskiej mimo wszystko specjalizacji wylądowałby przypadkiem), jednak nie można też ukrywać, że każda robota, jakby ciekawa z początku nie była, po jakimś czasie staje się zwyczajna i popadać zaczniemy w zabójczą rutynę. Znacie to pewnie sami, przynajmniej niektórzy, z autopsji i od znajomych, jednak co w takim przypadku mają powiedzieć astronomowie, których wieloletnim zajęciem jest poszukiwanie i zliczanie nowych galaktyk w bezkresie Wszechświata? Jednym z takich nieszczęśników (choć nie do końca, jak się zaraz okaże) jest z pewnością profesor astronomii na Macalester College (Minnesota, USA), niejaki John Cannon. Warto tutaj zwrócić uwagę przy okazji na to, że chyba pierwszy raz zdarza mi się tutaj wspominać o uczelni, której nazwa zapewne nie otarła się każdemu z nas kiedyś o uszy – o ile skrótowce takie jak CALTECH czy MIT są rozpoznawalne na całym świecie, to Macalester College jest prywatną uczelnią z długą tradycją, jednakże nie jest to ani światowej sławy uniwersytet ani też poważany wszędzie instytut. Ale wracając do Cannona – w takim to zacisznym miejscu pracuje John, biorąc między innymi wraz ze swymi studentami udział w projekcie Arecibo Dual Beam Survey (ADBS), który to był (jest?) przeglądem nieba nakierowanym na odkrywanie nowych galaktyk w “lokalnym” Wszechświecie (powiedzmy do odległości kilkuset milionów lat świetlnych od Ziemi) przy wykorzystaniu potężnego radioteleskopu w miejscowości Arecibo (Portoryko). Jak sam profesor Cannon przyznaje, udział w takim przeglądzie to dość monotonne zajęcie, codziennie w sumie w sieci naukowców wpada nowa galaktyka, inna, a jednak taka sama jak cała chmara poprzednich. I w ten sposób można by kontynuować i kontynuować, no ale pewnie domyślacie się, że coś musiało tutaj jednak się ciekawego wydarzyć, inaczej nie popełniłbym tego wpisu. I oczywiście też się wydarzyło – Cannon wraz ze swoimi młodocianymi asystentami w pewnym momencie (co dziwne wieki już temu, bo w 2001 roku) natrafił na zupełnie odmienny od dotychczasowych obiekt w odległości ok. 140 milionów lat świetlnych. W trakcie rutynowego “skanu” w poszukiwaniu galaktyk karłowatych jeden z kolegów profesora uznał, że napotkał w końcu coś, czym warto zainteresować się na dłuższą metę. Obiekt ten posiadał na tyle niepokojące właściwości – o których zaraz opowiem – że naukowcy zdecydowali się na przesiadkę na “cięższy” kaliber obserwacyjny – uzyskali w końcu dostęp do obserwatorium Very Large Array (VLA), obserwatorium radioastronomicznego złożonego z niemal trzydziestu niezależnych, wielgachnych anten rozmieszczonych na sporej przestrzeni w stanie Nowy Meksyk w Stanach Zjednoczonych. Dzięki ponadprzeciętnym możliwościom obserwatorium udało się poznać frapujące właściwości tajemniczego obiektu. Galaktyka karłowata, nazwana przez odkrywców ADBS 1138 (od skrótowej nazwy przeglądu) karłowatą jest tak naprawdę tylko z nazwy – jej wielkość zbliżona jest mniej więcej do wielkości naszej Drogi Mlecznej, co z pewnością w normalnych warunkach dyskwalifikowało by ją jako obiekt takiej klasy. Nie została jednak tak nazwana również dla żartu – o ile niemal wszystkie galaktyki, które znamy, składają się w dużej mierze z materii w stanie silnie “zagęszczonym” (inaczej mówiąc ogromu gwiazd i ich układów planetarnych), to galaktyka ADBS 1138 jest pod tym względem wyjątkowa – na podstawie obserwacji naukowcy stwierdzili, że znikoma ilość całej materii w galaktyce ma formę gwiazd, natomiast przytłaczająca jej większość zawarta jest w niewyobrażalnie wielkim obłoku gazowym – ściślej rzecz biorąc mowa tutaj o ok. 2% materii gwiazdowej. Trudno sobie taką galaktykę wyobrazić, jednak znacznie ważniejsze jest podstawowe pytanie, automatycznie się narzucające – dlaczego w tej galaktyce nie powstawały i nie powstają gwiazdy tak masowo, jak to dzieje się zazwyczaj? Galaktyka została zaklasyfikowana jako karłowata, gdyż pod względem ilości gwiazd jest rzeczywiście maleńka, nie zmienia to jednak faktu, że galaktyka jako taka jest wielka. Nie napotkaliśmy dotąd wśród milionów czy miliardów nawet znanych nam galaktyk takiej, która miałaby podobny stosunek materii “zagęszczonej” do obłoku gazu – tym samym odkrycie Cannona i spółki jest naprawdę zaskakujące. Znane nam dotąd galaktyki – jak się zakłada – powstają z takich ogromnych obłoków, w których – prędzej czy później – niestabilności wymuszają wręcz zagęszczanie gazu w niektórych miejscach, prowadzące nieuchronnie do powstawania gwiazd. Tym bardziej tajemnicze jest w kontekście tego istnienie galaktyki, w której gaz może, że tak powiem, spokojnie egzystować bez grawitacyjnie wydawałoby się koniecznych zagęszczeń. Nie wiemy dlaczego gaz nie koncentruje się w gwiazdy, nie wiemy jaki czynnik może temu przeciwdziałać – naukowcy poszukują obecnie kolejnych galaktyk o tak dziwacznej charakterystyce, jednak jak dotąd bez sukcesów. Można więc oceniać pracę astronoma jako rutynowe, żmudne zajęcie – jednak w sytuacji tak ekscytującego odkrycia wszystkie znoje i godziny nudy szybko odchodzą chyba w zapomnienie, prawda? Praca naukowców w “Astrophysical Journal” Źródła: Link 1 Link 2 Link 3 Zdjęcie: John Cannon we własnej osobie Źródło zdjęcia Credit: Macalester College/J. Cannon Wyświetl pełny artykuł
  21. Nie będę chyba zbytnio odległy od prawdy gdy powiem (a raczej napiszę), że większość z Was dziś zapewne wpisu o innej zgoła treści tutaj by się spodziewała – opublikowane w dniu wczorajszym pachnące jeszcze świeżością rewelacje na temat tajemniczych struktur na obrzeżach Układu Słonecznego, wydobyte na światło dzienne przez krążącego wokół Ziemi od trochę ponad roku amerykańskiego satelitę IBEX (Interstellar Boundary EXplorer), zasługują z pewnością na jak największą uwagę. Jednakże – jak już zdarzało mi się czasem o tym wspominać w takim kontekście – to właśnie medialny tumult wokół jakiegoś zagadnienia i niezdrowe podniecenie z tym związane są jednocześnie tym, co od pisania o takich rewelacjach mnie odwodzi: skoro Cytadela i tak niszowym jest “produktem”, nie widzę zbytnio sensu w tym, by reprodukować po raz n-ty wiadomości, o których poczytać można niemal wszędzie (w tym przypadku polecam wyczerpujący artykuł na zawsze niezadowodnej stronie portalu Astronomia.pl). Skoro usprawiedliwienie zostało przedstawione i – mam nadzieję – zaakceptowane, czas przejść do meritum dzisiejszego wpisu – tym razem po niedługiej przerwie wracamy do prezentacji wizualnych “arcydzieł”, tworzonych – o dziwo – nieświadomie przez matkę Naturę. Przyjrzyjcie się poniższemu zdjęciu – w chwili kiedy je zobaczyłem, wiedziałem natychmiast, że zostanie opublikowane na Cytadeli. Plastyka tego obrazu jest zachwycająca, powiem nawet więcej – ciekaw jestem, czy komuś jeszcze, ze względu na pastelową barwę, zbliżoną do barwy ludzkiej skóry, jak i subtelne zróżnicowanie odcieni tejże, nasunęło się może i cokolwiek odległe ale jednak nieodparte, zmysłowe wrażenie… ekhm, krągłości ciała płci pięknej, pokrytej co prawda dziwacznymi, ale jednak, tatuażami? No dobrze – może i nie nasunęło się nikomu i autor tej wypowiedzi jest najwyraźniej najzwyczajniejszym w świecie perwersyjnym zboczeńcem, jednak spieszę dodać, że niekoniecznie zmusi mnie to do głębszej refleksji (zaznaczam też od razu, że skojarzenie to nie może być jednak aż tak absurdalne, bo autorka z mojego ulubionego bloga UniverseToday.com, Nancy Atkinson, w swoim komentarzu do zdjęcia napisała niemal dokładnie to samo, tyle że w odniesieniu do… płci brzydszej; skojarzenie miałem również ZANIM jej opis przeczytałem) . Zamiast jednak pół żartem pół serio rozwodzić się nad interpretacją treści wizualnej będziemy, przejdźmy może do konkretów: z czym mamy do czynienia tym razem? Już podpowiadam, choć niektórzy z pewnością i tak już się domyślają – wracamy ponownie na Marsa. Nie pierwszy raz Czerwona Planeta dostarcza nam równie fascynujących obrazów. Po raz kolejny też “autorem” tych zapierających dech w piersiach zdjęć jest kamera HiRISE (High Resolution Imaging Science Experiment), tkwiąca nad Marsem na pokładzie satelity Mars Reconnaissance Orbiter (MRO). Zdjęcie, prezentowane powyżej, przedstawia piaszczyste diuny Czerwonej Planety, z – przyznam się szczerze – niezidentyfikowany dla mnie ciemnym pyłem (?) chaotycznie na powierzchni piachu rozsianym. Zdjęć takich jest bez liku – wystarczy zajrzeć na wspomnianą wyżej stronę Nancy, gdzie niezmordowana autorka wybrała kilka szczególnie pięknych zdjęć, można też oczywiście sięgnąć bezpośrednio do źródła na stronie dedykowanej projektowi HiRISE, gdzie nietrudno w tych bajecznych krajobrazach zatonąć po uszy. Inspiracja wpisu Strona HiRISE Całe zdjęcie, którego powyższe jest małym wycinkiem Źródło zdjęcia Credit: NASA/JPL/University of Arizona Wyświetl pełny artykuł
  22. Wszechświat pełen jest rzeczy, których nasza siłą rzeczy ograniczona wyobraźnia nie potrafi objąć – jedną z takich jest z pewnością intrygująca wiadomość (która dotarła do mnie dosłownie przed chwilą, kiedy pisałem pierwsze słowa tego wpisu) o tym, że niejaki Barack Obama otrzymał w dniu dzisiejszym pokojową nagrodę Nobla. Ponieważ jednak strona, na której dziwny trafem znajdujecie się w tej chwili, nie ma służyć rozważaniom nam niewiarygodną wręcz degradacją wartości swego czasu niezwykle ważnej nagrody poprzez przyznanie jej człowiekowi, który niczego wartego wzmianki jeszcze nie dokonał (i wątpliwe jest, czy dokona tego w przyszłości), wykonujemy ostry wiraż i wracamy do tematyki “znanej i lubianej”, czyli – Wszechświata pełnego rzeczy, których… itd.. Jednym z najtrudniejszych do objęcia umysłem obiektów kosmicznych jest z pewnością czarna dziura. Zakładamy tutaj rzecz jasna, że coś takiego jak “czarna dziura” w ogóle istnieje, bo nie sposób przecież wykluczyć opcji, iż jest to tak naprawdę ślepa uliczka teoretyków i mamy tak naprawdę do czynienia z zupełnie odmiennym zjawiskiem – alternatyw, choć stanowczo zbyt mało popularnych, jest sporo. Załóżmy jednak, że czarne dziury jako takie istnieją – wówczas każdy z nas chyba przyzna, że mimo pojawiających się w wielu miejscach wysilonych opisów, mających choć trochę przybliżyć nam ich istotę, bardzo trudno przełożyć zadziwiającą matematykę na zrozumiałe dla nas samych pojęcia. Trudno wyobrazić sobie czarną dziurę, no więc co powiecie na dwie, zbliżające się nieuchronnie do siebie? Choć wydaje się to na pierwszy rzut oka mało prawdopodobne, by czarne dziury spotykały się w swych wojażach, to naukowcy są przeciwnego zdania – ze względu na to, że w zasadzie dość często dochodzi w końcu we Wszechświecie do kolizji galaktyk i ich mariażów, równie często powinno dochodzić do spotkania dwóch supermasywnych czarnych dziur – bo o tych dziś mowa. Zakłada się bowiem, że tego rodzaju monstrualne czarne dziury tkwią w jądrach przeważającej ilości galaktyk – trudno więc nie wyciągnąc tutaj wniosku, że w trakcie zderzenia dwóch galaktyk z zamieszkującymi je supermasywnymi czarnymi dziurami kiedyś dochodzi do pierwszego kontaktu. Jedną z galaktyk, w których taki proces właśnie zdaje się przebiegać, jest galaktyka NGC 6240 – galaktyka odległa od nas o ok. 400 milionów lat świetlnych, dość dobrze poznana i zbadana, której sam “zwichrowany” kształt zdaje się już podpowiadać, że mamy do czynienia z naprawdę frapującym obiektem. Tego samego zdania są również astronomowie – zakłada się, że galaktyka ta powstała w trakcie zderzenia dwóch galaktyk pomniejszych. Co jednak jeszcze ciekawsze, wiele zdaje się wskazywać na to, że gwałtowne zajścia z przeszłości nie są jedyną cechą, zajmującą badaczy – obserwacje sprzed kilku lat oraz wykonane niedawno wskazują z dużym prawdopodobieństwem na to, że obie pierwotne galaktyki mogły wnieść jako posag do związku supermasywne czarne dziury. W 2002 roku obserwacje wykonane przy pomocy kosmicznego obserwatorium Chandra (pracującego w zakresie promieniowania rentgenowskiego, promieniowania powstającego zazwyczaj w bardzo gwałtownych i energetycznych procesach) ujawniły, że w centrum galaktyki NGC 6240 znajdują się najprawdopodobniej dwie supermasywne czarne dziury, odległe od siebie o maleńkie 3000 lat świetlnych. Obserwacje powtórzono całkiem niedawno, dodatkowo zdjęcie w zakresie rentgenowskim połączono ze zdjęciem wykonanym w zakresie widzialnym przez kosmiczny teleskop Hubble’a. Efekt? Wystarczy zerknąć do góry, by na zdjęciu rozpoznać najbardziej charakterystyczne elementy – dwa bliskie siebie, bardzo jasne punktowe źródła światła, położone w centrum galaktyki. Pomarańczowe i czerwone natomiast tło tych punktów, niezbyt pasujące do zwyczajowego obrazu galaktyki, to odwzorowanie danych w zakresie rentgenowskim. Na tym nie koniec jednak – czarne dziury zbliżają się do siebie i prawdopodobnie za dziesiątki lub setki milionów lat połączą się w jedną gigantyczną czarną dziurę. Proces ten zdaje się trwać już od ok. 30 milionów lat, trzeba więc przyznać, że czarnym dziurom niespieszno do spotkania. Wszystko dlatego, że czarne dziury oczywiście nie zmierzają do siebie po linii prostej, co byłoby dość kuriozalne – tak jak i gwiazdy galaktyki NGC 6240 poruszają się o orbitach wokół wspólnego środka ciężkości, czyli inaczej mówiąc po spiralnym torze. Obserwacje i badania układów dwóch lub więcej czarnych dziur to bardzo popularna działka we współczesnej astronomii – galaktyka NGC 6240 jest tylko jednym przykładem, jaki od 2002 roku wyszukano w bezkresie Wszechświata. Zrozumienie tego, w jaki sposób łączące się czarne dziury oddziałują na siebie na wzajem i na otoczenie pociąga wielu badaczy, nie można też zapomnieć o tym, że najprawdopodobniej to właśnie łączące się czarne dziury stanowią najsilniejsze źródło fal grawitacyjnych we Wszechświecie – niestety wszystkie eksperymenty, służące zarejestrowaniu takich fal ciągle nie przynoszą pozytywnych rezultatów, niezależnie od przyczyn tego niepowodzenia. Źródła: Link 1 Link 2 Link 3 Zdjęcie: Galaktyka NGC 6240 (złożenie zdjęć teleskopu Hubble’a w świetle widzialnym oraz obserwatorium Chandra w zakresie rentgenowskim) Źródło zdjęcia Credit: X-ray: NASA/CXC/MIT/ C.Canizares, M.Nowak; Optical: NASA/STScI Wyświetl pełny artykuł
  23. Co robimy – wśród wielu innych aktywności oczywiście – przeciętnie kilkanaście tysięcy razy w ciągu jednej doby? Przyjmując, że dorosły człowiek wykonuje średnio 12 do 16 oddechów na minutę – tyle razy nabieramy powietrza do płuc. Czynność ta jest tak zautomatyzowana i naturalna, że odbywa się bez naszej świadomej ingerencji, z tego też między innymi względu bardzo rzadko poświęcamy krótką chociażby chwilę na zastanowienie się nad tym, jak niewiarygodnie wielka liczba korzystnych zbiegów okoliczności w przeciągu minionych miliardów lat istnienia naszej planety doprowadziła do tego, że w ogóle czym oddychać mamy i tym samym ta właśnie mieszanka gazów atmosferycznych stanowi niezbędny dla naszego funkcjonowania element. Ta sama mieszanina związana jest również z innym zjawiskiem, równie niezbędnym dla naszego funkcjonowania – od czasu do czasu (niekiedy niestety zbyt często, jak ma to właśnie miejsce tegoroczną jesienną porą) w atmosferze dochodzi do kondensacji pary wodnej, która ostatecznie dociera do powierzchni ziemi jako życiodajny deszcz. Nic odkrywczego, no pewnie, jeśli jednak wziąć pod uwagę alternatywne możliwości, jakich jak się okaże poniżej spodziewamy się na odległych planetach pozasłonecznych, powinniśmy spoglądać na miriady niepozornych kropelek H2O, pluskających w nasze okna, znacznie przychylniejszym okiem. Jedną z takich niepokojących alternatyw przedstawili w ostatnich dniach naukowcy, którzy postanowili zaprząc komputery do symulowania warunków atmosferycznych na jednej z planet pozasłonecznych, odkrytej co prawda już w lutym tego roku planecie Corot-7b, planecie, o której zupełnie niedawno stało się dość głośno – w połowie września opublikowano bowiem wyniki wnikliwszych jej badań, wedle których jest ona pod wieloma względami wyjątkowa: planeta ta jest jednocześnie najmniejszą obecnie znaną planetą pozasłoneczną, jej orbita jest najciaśniejszą z nam znanych a na dokładkę jest to pierwsza planeta, o której możemy z pewnością powiedzieć, że jest typu skalistego – a więc o składzie zbliżonym do Ziemi. Poza składem jednak niewiele naszą planetę zdaje się tam przypominać. Planeta Corot-7b krąży wokół pomarańczowego karła (gwiazdy ciut chłodniejszej i młodszej od Słońca) Corot-7, położonego w odległości ok. 490 lat świetlnych od Ziemi w gwiazdozbiorze Jednorożca. Jest ona niespełna dwa razy większa od Ziemi, przy czym jej masa zbliżona jest prawdopodobnie do pięciokrotności masy Ziemi. Zatrważająca jest odległość, jaka dzieli planetę od gwiazdy – to zaledwie 2,5 miliona kilometrów (obrót wokół gwiazdy zajmuje marne 20 godzin!), co stanowi zaledwie 1/60 średniej odległości Ziemi od Słońca – więcej nawet: gorący jak mogłoby się wydawać i niemiłosiernie “przypalany” Merkury, okrążający Słońce w średniej odległości ok. 57 milionów kilometrów, ciągle znajduje się 20 razy dalej niż Corot-7b od gwiazdy! Wiąże się z tym oczywiście iście “piekielna atmosfera”, zarówno dosłownie jak i w przenośni – przypuszczalnie strona planety zwrócona ku gwieździe nagrzewana jest do niebagatelnej temperatury ponad 2.300 °C (!), z drugiej jednak strony przeciwna półkula schładza się gwałtownie do zatrważających wartości ujemnych w granicach minus 200 stopni °C. Temperaturowe inferno na Corot-7b ma oczywiście swoje daleko idące konsekwencje: naukowcy zakładają, że przynajmniej częściowo skały na powierzchni planety znajdują się w stanie płynnym, przypuszczalnie można tam więc spotkać jeziora pełne gotującej się wściekle lawy, jeśli nie całe oceany. Ta unikatowa cecha skłoniła zupełnie niedawno dwójkę badaczy - Bruce’a Fegleya oraz Laurę Schaefer z Washington University w St. Louis (USA) – do przeanalizowania w oparciu o komputerowe symulacje, jak w takich warunkach musiałaby wyglądać atmosfera planety, a przynajmniej to, co do tego miana pretenduje; wyniki swej analizy badacze opublikowali 01. października w “Astrophysical Journal”. Para naukowców zastosowała do swych celów zaawansowane oprogramowanie komputerowe o nazwie MAGMA, które wykorzystane zostało już wcześniej do badań nad wysokotemperaturowym wulkanizmem na jednym z księżyców Jowisza, Io. Ponieważ jak nietrudno się domyśleć naukowcy nie posiadają szczegółowych danych o składzie planety, Bruce i Laura przeprowadzili symulacje w oparciu o różne zestawy danych wejściowych – co jednak ważne we wszystkich próbach uzyskane wyniki, niezależnie od założeń, były bardzo zbliżone do siebie, co sugeruje, iż obraz ten może być bardzo zbliżony do tego, co rzeczywiście na planecie się odbywa. Wyniki uzyskane na podstawie symulacji są naprawdę fascynujące – ze stopionych skał ulatniają się najprawdopodobniej opary, które następnie, zmierzając ku coraz wyższym warstwom atmosfery, zaczynają tworzyć “chmury” – zupełnie odmienne jednak od chmur, które niemal na co dzień możemy ujrzeć nad naszymi głowami. Atmosfera stanowi zapewne mieszankę takich składników jak sód (Na), potas (K), monotlenek krzemu (SiO) oraz tlen (O). Tlen dlatego, że – jak sugeruje Fegley – jest to pierwiastek obficie związany w skałach różnego rodzaju, więc odparowanie tychże skał prowadzi do jego uwolnienia. To podstawowe elementy układanki – do tego dochodzą jeszcze pomniejsze ilości magnezu (Mg), aluminium (Al), wapnia (Ca) oraz żelaza (Fe). To wszystko znajduje się w atmosferze Corot-7b: a ponieważ temperatura atmosfery spada zwykle wraz z rosnącą wysokością, różne składniki atmosfery kondensują również na innych wysokościach. O ile na Ziemi mamy do czynienia z parą wodną, zamieniającą się w końcu w kropelki wody – w przypadku egzotycznej planety opary stopionych skał kondensują w… drobne ich kawałekczki, potocznie zwane kamieniami. Wizja to rzeczywiście niezwykła – choć trudno sobie nawet przy największym wysiłku woli wyobrażać kosmonautów spacerujących beztrosko po jeziorach kotłującej się i rozpalonej lawy, można jednak popuścić cugli fantazji i pofantazjować co do tego, co taki arcytwardy kosmonauta mógłby zobaczyć: rozpalone do czerwoności, przelewające się bez ustanku morze płynnych skał pod stopami, bezlitośnie oślepiający blask bliskiej przecież bardzo gwiazdy i do tego – jako ukoronowanie – opadające z niebios niezliczone drobne kamyczki… Źródła: Link 1 Link 2 Grafika: Żartobliwa wizja wizyty na planecie Corot-7b Źródło grafiki Credit: ??? Wyświetl pełny artykuł
  24. Zakładając nierealistycznie, że niewyobrażalne lenistwo autora tych słów dopuściłoby do przedstawienia na tej stronie ankiety (czegoś, co pamiętają już tylko najwytrwalsi bywalcy jeszcze z zamierzchłych czasów, kiedy blog wegetował na nieszczęsnej platformie Bloggera), której pytanie brzmiałoby : z jaką charakterystyczną cechą kojarzy Ci się sąsiad Ziemi w Układzie Słonecznym, planeta Mars, z pewnością nie ryzykowałbym wiele, stawiając cały swój mikry majątek na znaczącą przewagę odpowiedzi “czerwonawa barwa”. Nie przypadkiem też Mars, który w końcu zresztą swą nazwę własną pochodzącą od rzymskiego boga wojny uzyskał w efekcie wizualnej percepcji planety, ma nieoficjalną etykietkę “Czerwona planeta”; przyglądając się planecie przez teleskop nietrudno zauważyć, że dominującą barwą powierzchni Marsa jest odcień rdzawo-czerwony. O ile świadomi jesteśmy tego, skąd barwa ta się w ogóle bierze – powierzchnia planety pokryta jest różnej maści tlenkami żelaza, które nadają jej charakterystyczny przybrudzony odcień – to co do pierwotnych tego przyczyn zdania są mimo wszystko podzielone. Dość szeroko co prawda akceptowana jest hipoteza, która wiąże barwę Marsa z dawną obecnością płynnej wody na planecie, która miliardy lat temu swobodnie płynęła na planecie i całkiem zwyczajnie sprawiła, że Mars “zardzewiał”, jednak nie jest to jak się okazuje jedyne możliwe rozwiązanie. Inspiracją do poszukiwań innych alternatyw stały się swego czasu się wyniki badań powierzchni planety, które zawdzięczamy wylądowaniu na niej w 2004 roku dwóch łazików: “Opportunity” oraz “Spirit”, wydelegowanych na pobliską planetę w ramach amerykańskiej misji “Mars Exploration Rover”. Sporym zaskoczeniem dla badaczy było wówczas odkrycie na powierzchni planety minerałów, które – zgodnie z naszą obecnym stanem wiedzy – musiałyby ulec zniszczeniu przez kontakt z wodą, mamy więc pewną sprzeczność pomiędzy najpopularniejszą teorią a zebranymi danymi empirycznymi. Jak to często bywa sprzeczności takie zazwyczaj motywują naukowców do wytężonych wysiłków w celu ich eliminacji. Jonathan Merrison oraz jego koledzy z Aarhus Mars Simulation Laboratory w Danii postanowili podjąć się ciekawego, pozornie banalnego eksperymentu – zamknęli szczelnie w szklanych kolbach próbki zwykłego piasku kwarcowego i przy pomocy odpowiedniej maszynerii (bo ręczne wykonywanie tej czynności mogłoby być cokolwiek nużące i męczące) przez siedem miesięcy obracali owe kolby z piaskiem to w górę to w dół (tak przynajmniej rozumiem angielski zwrot “to tumble”, który ma jak na moją słabą znajomość języka zbyt wiele równoprawnych znaczeń). Spokojnie przesypujący się piasek, jak sugerują naukowcy, zachowywał się podobnie, jak analogiczny materiał na powierzchni Marsa, muskany leniwymi i delikatnymi wiatrami owiewającymi planetę. Naukowcy zauważyli po owych długachnych miesiącach, że takie smętne przesypywanie materiału wystarczało do tego, by spowodować postępującą erozję piasku, redukującą ok. 10% całości do bardzo drobnych cząstek pyłu. Swoją drogą, dodam tutaj, mam nadzieję, że w międzyczasie zajmowali się czymś innym poza przyglądaniem się kolbom… Co ta mało frapująca zapewne zabawa – nie zapominajmy, że opłacana przez podatników, a jakże – ma jednak wspólnego z wspomnianą wcześniej barwą Marsa? Otóż po siedmiu miesiącach duńscy badacze dodali do częściowo rozdrobnionego piasku sproszkowany magnetyt, rudę żelaza na Ziemi bardzo pospolitą i szeroko rozpowszechnioną, obecną również w dużych ilościach na Marsie. Obracanie butelek stoicko kontynuowano dalej i z czasem okrągłym jak spodki oczom naukowcom ukazał się niezwykle fascynujący widok – mieszkanka piasku i hematytu zaczęła stawać się coraz bardziej czerwona. Jeśli ktoś nabrał w tej chwili ponurych podejrzeń, że sobie z biednych naukowców prostacko żartuję, ma po części oczywiście rację – żarty te jednak są wynikiem raczej dobrego nastroju autora jako takiego niż specyfiki opisywanych badań. Co prawda mechanizm zabarwiania piasku może wydawać się trywialny, jednak pozory jak to zwykle bywa znów nas nieuków mylą – tak naprawdę nie jest to takie banalne, jak na pierwszy rzut (a nawet i drugi) mogłoby się zdawać. Wedle badaczy obracające się w butelce niezliczoną ilość razy ziarna piasku uderzając o siebie rozpadają się na kawałki, odsłaniając “gołe” powierzchnie, które w kontakcie z magnetytem “oddają” atom tlenu na jego rzecz, prowadząc do powstania kolejnego minerału, tym razem hematytu. Hematyt po sproszkowaniu ma intensywnie czerwony kolor, i co ciekawe, bardzo niewiele tego minerału potrzeba, by całość mieszanki zabarwić dość silnie na czerwono. Wyniki doświadczeń skłoniły Merrisona i spółkę do zaproponowania alternatywnej “historii” poczerwienienia Marsa – o ile dotąd zakładano, że planeta ma swoją charakterystyczną barwę od miliardów lat (czyli od czasów, gdy prawdopodobnie po jej powierzchni płynęła ciekła woda), o tyle Merrison uważa, iż Mars niekonieczne musi być czerwony od tak dawna. Możliwe nawet, że “poczerwienienie” Marsa to kwestia milionów, a nie miliardów lat (proces obserwowany przez grupę badaczy zachodzi względnie szybko), trudno jednak tutaj dopatrzeć się zaprawdę powodów, dla których nie mogłoby do niego dojść wcześniej – brak argumentów naukowców odmawiających procesowi racji bytu miliardy lat temu i trochę niejasne jest, skąd biorą się takie założenia naukowców. Idąc dalej płynna woda na Marsie przestaje być w takim wariancie przebiegu zdarzeń koniecznością, co nie ucieszy chyba wielu wielbicieli prehistorycznych oceanów pełnych fantazyjnych stworzeń na Czerwonej Planecie. Co prawda nie sposób udowodnić póki co, że wszystko przebiegało tak jak opisują to Merrison i koledzy, jednak pomysł wydaje się całkiem ciekawy i godny rozpatrzenia. Pozostaje jednak kilka co najmniej wątpliwych kwestii, o których duńscy badacze nie pisnęli ani słowa – weźmy choćby na pierwszy ogień atmosferę, w jakiej w ogóle doświadczenie realizowano: nie wiadomo nic o tym, czy piasek znajdował się w próżni czy też w mieszance gazowej zbliżonej zawartością do marsjańskiej, czy też w jeszcze innym środowisku. Trudno z tego względu ocenić, w jaki sposób atmosfera mogłaby wpłynąć na wyniki badań. Niezależnie od wątpliwości związanych z badaniami trzeba jednak przyznać, że proponowane rozwiązanie jest godne rozpatrzenia. Trudno mi tylko ocenić w jaki sposób można by je zweryfikować. Żródło: Link 1 Wyświetl pełny artykuł
  25. Jeśli mnie moja zawodna coraz częściej pamięć nie myli nad pięknem otaczającego nas Wszechświata zdarzało mi się rozwodzić nie raz i nie dwa, a nawet prawdopodobnie i nie trzy – było tego, krótko mówiąc, trochę. Dla niektórych z Was to z pewnością czystej wody truizm, który powoli robi się (albo już zrobił) męczący, nie zamierzam jednak zaprzestać niesienia kaganka oświecenia pozostałym, żyjącym w nieświadomości zapierającej dech w piersiach doskonałości, która kryje się w niemal każdym zakątku, czy to bliskim czy to bardzo odległym, Kosmosu. Cóż, czasem trzeba trochę pomęczyć aby pokazać, że Wszechświat to nie tylko mroczne pustki, pozornie bzdurne i bezsensowne teorie i sterty zawiłych obliczeń, ale także ujmująco proste, obezwładniające i eleganckie piękno. Nie chcąc być gołosłownym w niniejszym znakomitym cyklu prezentuję dziś takie oto zdjęcie na poparcie tej tezy. Pewnie znajdą się malkontenci, którzy pokręcą wybrednie nosem nad doborem kolorystycznym dzisiejszej fotografii. Jednak czasem, zupełnie jak w “zwykłej” fotografii, czerń i biel są najdoskonalszym środkiem ekspresji, niezastąpionym przez najbogatszą nawet paletę barw. Tak jest moim skromnym zdaniem również w przypadku powyższego zdjęcia, które pozwoliłem sobie wybrać z niezliczonej ilości znakomitych zdjęć, prezentujących “najpiękniejszą planetę Układu Słonecznego” - Saturna. Dlaczego wybór padł właśnie na to a nie na inne zdjęcie, choć każde wydaje się równie dobre? Cóż, jako amator kina science-fiction (co trzeba niestety przyznać bardzo wygłodniały dobrych pozycji, których jest jak na lekarstwo – wyjątkiem ostatnich lat jest dla mnie niewątpliwie całkiem niezły “Dystrykt 9″, wchodzący na dniach do polskich kin) spotkałem się w filmach wielokrotnie z podobnymi obrazami, na których krawędź planety rozświetla się blaskiem wschodzącej za nią gwiazdy. Zdjęcie powyższe ma jednak jeden olbrzymi atut – to nie produkt wyobraźni grafików, a najprawdziwsza rzeczywistość, a dzięki sentymentalnej wartości jest dla mnie obrazem niemal perfekcyjnym. Zdjęcie nie jest najnowsze, przyznam bez bicia – zostało wykonane w zakresie światła widzialnego przez sondę Cassini 9. czerwca 2006 roku z odległości ok. 4 milionów kilometrów od Saturna. Jako ciekawostkę można dodać, że skala obrazu jest dość przytłaczająca – każdy z pikseli na tym zdjęciu ma wielkość ok. 25 km… Przyglądając się dokładniej zdjęciu z pewnością zauważycie jeden szczegół, który w centralnym punkcie zwraca na siebie mocno uwagę. Spieszę zapewnić, że nie jest to niechlubny ślad muchy lub innego tatałajstwa, które narobiło brzydko mówiąc na kliszę fotograficzną – to jeden z wielu księżyców Saturna (których znamy obecnie 61), Epimeteusz. Nazywanie Epimeteusza księżycem wynika z faktu, że tak zwie się obiekty okrążające planety, gdyż w rzeczywistości to sporej wielkości kawał koślawej skały o średnicy trochę ponad 100 km. Orbita tego księżyca jest przynajmniej z dwóch powodów interesująca – jednym z nich jest fakt, że Epimeteusz okrąża Saturna wędrując tuż obok jego legendarnych pierścieni (orbita ta znajduje się na zewnątrz tzw. pierścienia F, najjaśniejszego z pierścieni widocznych na zdjęciu), drugim natomiast dziwna zależność z innym księżycem Saturna, Janusem, z którym Epimeteusz dzieli w zasadzie niemal wspólną orbitę – oba księżyce regularnie “zamieniają” się pozycjami i raz jeden raz drugi jest odrobinę bliżej Saturna. Zdjęcie powyższe, choć dla mnie najładniejsze, stanowi tylko jedno z niezliczonej grupy zdjęć wykonanych przez niezawodne instrumenty Cassini – kilka dni temu na stronach NASA ukazała się prezentacja (muzyka służąca jako podkład podkreśla wspaniale majestatyczność oglądanych obrazów), w której zebrano najlepsze zdjęcia satelity wykonane na przełomie lat i którą można i trzeba – koniecznie z włączonym dźwiękiem! – obejrzeć tutaj. Olbrzymia galeria zdjęć dostępna jest na stronach CICLOPS (Cassini Imaging Central Laboratory for Operations), gdzie dostępne są również prawdziwe “świeżuchy”: galeria zdjęć z września (tutaj) oraz sierpnia tego roku (tutaj). Dla chcących dowiedzieć się więcej o samej misji gorąco polecam stronę projektu na serwerze Jet Propulsion Laboratory, czyli “rodziców” sondy Cassini, tam też można obejrzeć kolejne zdjęcia. Na stronie głównej NASA znajduje się kolejna podstrona, podsumowująca projekt. Źródło zdjęcia Credit: NASA/JPL/Space Science Institute Wyświetl pełny artykuł
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.