Skocz do zawartości

Sztuczna Inteligencja i permanentna inwigilacja - Smutna alternatywa przyszłości a może już nie przyszłości ?


Rekomendowane odpowiedzi

>>> stanowię właśnie tę część społeczeństwa.

Hamal, przyznałeś się do seksu i chlania? ;)

 

W tym wątku nastąpiło pomieszanie spraw. Klasyczny komputer, nawet wieloprocesorowy i oprogramowywany przez błyskotliwych informatyków łudzących się, że potrafią dobrze panować nad wielowątkowością jest żałośnie "płaskim" rozwiązaniem i żadne algorytmy nie zasymulują na nim trwale funkcjonującego Einsteina który zacznie rządzić światem wysyłając swoje wirusy do internetu. To jednak musi być "organizm" wielo- i różno- komórkowy.

Czyli sam wzrost szybkości nie załatwia sprawy.

 

Pozdrawiam

p.s.

Przeludnienie planety może okazać się problemem, wtedy trzecie dziecko w rodzinie będzie przywilejem dla bogatych (licytacja prawa - cena ustalana przez światowy rynek)

sroo.jpg

Odnośnik do komentarza
Udostępnij na innych stronach

fajnie brzmią zwłaszcza przewidywania o stosowaniu tego urządzenia w czasie międzynarodowych konferencji - trudno przewidzieć co będzie tanie a co drogie, co masowe a co ulegnie zapomnieniu :)

 

To prawda, ale tylko w rozumieniu mikroskali. Nie da się określić, który konkretnie wynalazek odniesie sukces, albo która spółka na giełdzie urośnie tysiące procent. Ale przy odpowiednim poziomie generalizowania można przewidywać makroskalę. Zauważ, że ja nie traktuję AI, jako nowy wynalazek, ale jako naturalną ewolucję komputerów i Internetu, a tu nie prognozuję czegoś od 0 do 1, ale od 1, 2, 3, 4... itd, czyli mam na uwadze inkrementalny wzrost o charakterze wykładniczym.

 

Przy okazji - Hamal zainspirował mnie do napisania kilku słów więcej w temacie: dokąd zmierza ludzkość :)

https://www.facebook.com/notes/adam-jesionkiewicz/dokąd-zmierza-ludzkość-rozważania-z-okazji-święta-niepodległości/10153186957714599

Odnośnik do komentarza
Udostępnij na innych stronach

Ciekawe jest to, że takiego wzrostu wykładniczego nie jest w stanie zaburzyć praktycznie nic - nawet wielki kataklizm, jak krach internetu w 2000 i 2001 roku - po którym twierdzono, że to już ostateczny koniec internetu.

 

 

evil-sun_thumb1.jpg

 

Skoro jesteśmy na forum astronomicznym, to może przyjmijmy naprawdę wielki kataklizm. Załóżmy "Quebec 89" w skali globalnej?

Odnośnik do komentarza
Udostępnij na innych stronach

W tym wątku nastąpiło pomieszanie spraw. Klasyczny komputer, nawet wieloprocesorowy i oprogramowywany przez błyskotliwych informatyków łudzących się, że potrafią dobrze panować nad wielowątkowością jest żałośnie "płaskim" rozwiązaniem i żadne algorytmy nie zasymulują na nim trwale funkcjonującego Einsteina który zacznie rządzić światem wysyłając swoje wirusy do internetu. To jednak musi być "organizm" wielo- i różno- komórkowy.

Czyli sam wzrost szybkości nie załatwia sprawy.

 

Niesety nadal nie rozumiesz, jak działa dzisiejsze AI, czy algorytmy genetyczne (rekurencyjne, ewolucyjne). Nikt nie oprogramowuje algorytmu, który opisuje, co dokładnie ma robić komputer. To irracjonalne :) To komputer tworzy algorytmy i je ewoluuje przez tysiące symulowanych pokoleń. Doucz się proszę, a potem przyjdź do pogadamy. To nie jest miejsce na tłumaczenie, jak działają podstawowe mechanizmy machine learningu, a to jest konieczne, żeby spekulować, czy mogą one w kolejnych iteracjach samodzielnie stworzyć AI.

 

Polecam skończenie chociaż tego kursu ze Stanfordu - to najlepszy początek: https://www.coursera.org/learn/machine-learning/

 

Machine learning is the science of getting computers to act without being explicitly programmed. In the past decade, machine learning has given us self-driving cars, practical speech recognition, effective web search, and a vastly improved understanding of the human genome. Machine learning is so pervasive today that you probably use it dozens of times a day without knowing it. Many researchers also think it is the best way to make progress towards human-level AI.

 

AI nie ma nic wspólnego z biologicznym tworzywem budującym mózg. Ono z natury rzeczy jest upośledzone, bo ewolucja miała ograniczone możliwości. Przykład: pełna symulacja tego, jak działa ludzki system analizy dźwięku w mózgu, wymaga znacznie mniej mocy komputerowej, niż odpowiednik biologiczny w mózgu człowieka. Inne eksperymenty potwierdzają, że jesteśmy w stanie zmniejszyć wymagania i nawet to słynne już 10^14 prawdopodobnie nie będzie potrzebne. Da się to zrobić prościej.

 

Żeby nakierować Ciebie na ten tok myślenia proszę odpowiedz na pytanie: ile danych siedzi w DNA z którego powstaje kosmicznie skomplikowany mózg?

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

 

evil-sun_thumb1.jpg

 

Skoro jesteśmy na forum astronomicznym, to może przyjmijmy naprawdę wielki kataklizm. Załóżmy "Quebec 89" w skali globalnej?

Tak, przyznaję. Dlatego właśnie trzeba się spieszyć, a jakiekolwiek próby blokowania tego rozwoju zwiększają ryzyko, że chociażby to Słońce nas zdmuchnie :D Czy to nie Carl Sagan powiedział, że cywilizacja staje się nieśmiertelna tylko wtedy, kiedy jest w stanie opuścić swoją macierzystą planetę?

Odnośnik do komentarza
Udostępnij na innych stronach

Dodam, że dzisiaj mamy 2015 i sekwencjonowanie genomu poniżej 1000$ oczywiście już się ziściło jakiś czas temu :) Nawet w Warszawie jest firma, która robi "przegląd" genetyczny za wspomniane 1000$. A to dopiero marny początek nowej ery.

 

Gdybyśmy taką dyskusję prowadzili w 2007 roku nie byłbyś w stanie uwierzyć, że 6-7 lat później sekwencjonowanie genomy nie będzie kosztować 10 milionów dolarów (ci, którzy nie rozumieli wykładniczego charakteru zmian nie byli w stanie wierzyć, nawet takie głosy były wśród naukowców). A wg realnych danych dało się przewidywać graniczne ceny z dokładnością do roku, czy dwóch. Zresztą - na bazie takiego wykresu oszacowano konieczną inwestycję, a tam gdzie są pieniądze, ryzyko musi być możliwie najmniejsze.

 

Dokładnie na takiej samej zasadzie dzisiaj przewiduje się postęp w cyfryzacji i co za tym idzie, inteligentnych maszyn komunikujących się z nami naszym naturalnym językiem ze zbliżoną sprawnością kognitywną.

 

Inny przykład - w latach 80 i początek 90 było kilka osób na świecie, które przeliczało dane nt Internetu i twierdziło, że poddaje się specyfice wzrostu wykładniczego. To oznaczało, że już w 2 połowie lat 90 multiplikacja podłączonych nodów doprowadzi do eksplozji. Inni twierdzili, że przy takim tempie wzrostu (zakładali liniowy charakter) Internet nigdy nie stanie się istotny, bo podłączenie masy krytycznej serwerów zajmie dziesiątki tysięcy lat.

 

Ciekawe jest to, że takiego wzrostu wykładniczego nie jest w stanie zaburzyć praktycznie nic - nawet wielki kataklizm, jak krach internetu w 2000 i 2001 roku - po którym twierdzono, że to już ostateczny koniec internetu. Na wykresie nie widać, żeby cokolwiek mu to zaszkodziło, a raczej można zauważyć, że pojawiła się dziwna górka w tych krytycznych latach, a nie dołek, jakby można się spodziewać (to była nienaturalna spekulacja giełdowa).

 

Ciekawe, prawda?

 

Mimo tych wszystkich wykresów nie nawiązujesz do głównego zarzutu. Co nam da osiągnięcie iluśtam operacji na sekundę przez komputer? Zbliżona moc obliczeniowa? Jestem programistą, nie przekonasz mnie takim argumentem. Prędkość czy pamięć to tylko zmienne powodujące, że program działa szybko albo wolno. Nic nie zastąpi dobrze napisanego programu i nic nie stoi na przeszkodzie, żeby sztuczna inteligencja działała powoli. Np. udzielała odpowiedzi raz na godzinę. Sugerujesz, że AI "samo" wypłynie z komputera? Emergencja inteligencji z dostatecznie złożonego środowiska? Może emergencja niepojmowalnej doskonałości obliczeń, ale samoświadomość - raczej nie. Jest tu potrzebna zmiana dużo bardziej fundamentalna, niż moc obliczeniowa. Zdolność samorekonfiguracji to też nie wszystko.

 

Już od dawna pracują systemy samorekonfigurujące się. Piszę oprogramowanie pracujące z "czarnymi skrzynkami" które praktycznie mało kto wie, jak działają, wypluwają kolejne liczby i uzyskują optymalizację zysków, jakiej żaden człowiek nie wymyśliłby ani nie opisał formalnie. Bazując na trendach sprzedaży modyfikują ceny czy też reguły doboru klienta. Takie systemy działają, ale nie są w żaden sposób inteligentne. Nie przejmą kontroli nad światem, bo zawsze można je wyłączyć, kontrola użytkownika nad systemem jest totalna. Bariera krew-mózg w przypadku oprogramowania jest naprawdę gruba i wysoka.

 

 

  • Lubię 3
Odnośnik do komentarza
Udostępnij na innych stronach

Niesety nadal nie rozumiesz, jak działa dzisiejsze AI, czy algorytmy genetyczne (rekurencyjne, ewolucyjne). Nikt nie oprogramowuje algorytmu, który opisuje, co dokładnie ma robić komputer. To irracjonalne :) To komputer tworzy algorytmy i je ewoluuje przez tysiące symulowanych pokoleń. Doucz się proszę, a potem przyjdź do pogadamy. To nie jest miejsce na tłumaczenie, jak działają podstawowe mechanizmy machine learningu, a to jest konieczne, żeby spekulować, czy mogą one w kolejnych iteracjach samodzielnie stworzyć AI.

 

Polecam skończenie chociaż tego kursu ze Stanfordu - to najlepszy początek: https://www.coursera.org/learn/machine-learning/

 

AI nie ma nic wspólnego z biologicznym tworzywem budującym mózg. Ono z natury rzeczy jest upośledzone, bo ewolucja miała ograniczone możliwości. Przykład: pełna symulacja tego, jak działa ludzki system analizy dźwięku w mózgu, wymaga znacznie mniej mocy komputerowej, niż odpowiednik biologiczny w mózgu człowieka. Inne eksperymenty potwierdzają, że jesteśmy w stanie zmniejszyć wymagania i nawet to słynne już 10^14 prawdopodobnie nie będzie potrzebne. Da się to zrobić prościej.

 

Żeby nakierować Ciebie na ten tok myślenia proszę odpowiedz na pytanie: ile danych siedzi w DNA z którego powstaje kosmicznie skomplikowany mózg?

 

Ależ ja zdawałem sobie sprawę, że (skromny a nie zadufany w sobie) informatyk nie pisze jak ma "myśleć" komputer, tylko pisze algorytmy symulujące działanie wirtualnych komórek (różnego typu - nie tylko neurony grają role - jeśli naśladujemy mózg). Problem w tym że najwyższej klasy eksperyment będzie jednak materialny, przestrzenny, ze specjalnie zbudowanych sztucznych komórek (ale drogi do bólu). Symulowanie zdarzeń w trójwymiarowym mózgu żałośnie liniowymi (nawet wieloma) procesami to nie to samo, to droga przez grząski beton. Ilość informacji DNA decydującej o końcowym kształcie mózgu w istocie jest mała i dlatego mamy wielu podobnych ludzi na świecie. Oczywiście przemilczałeś DNA mitochondriów, które płynie tylko od mamy i pewne inne własności komórki rozrodczej które mogą być nieco inne u różnych ludzi nawet z tym samym DNA, i różnicować mózgi nawet gdyby były to dzieci dwóch bliźniaczek jednojajowych wydanych za mąż za dwóch bliźniaków jednojajowych.

 

Pozdrawiam

Edytowane przez ekolog
Odnośnik do komentarza
Udostępnij na innych stronach

Behlur_Olderys, ja nie mam kompetencji żeby ciebie do czegokolwiek przekonywać. Traktujmy to jak „rozmowy dwóch Polaków przy piwie”. Niestety nie mamy tu na forum naukowców z przodujących jednostek naukowych na świecie, a tylko z nimi nie moglibyśmy dyskutować.

 

Niemniej, pozostaje mi możliwość cytowania ekspertów, a w temacie wydajności mózgu przykładowo Harvard mówi, że taką wydajność szacuje się dzisiaj spekulacyjnie biorąc pod uwagę kilka scenariuszy. To co jest w tym bardzo ciekawe, to mimo totalnie różnych podejść wyniki są bardzo zbliżone i dlatego duża część środowiska naukowego bierze to dzisiaj jako jakiś tam punkt odniesienia. Na tej podstawie popłynęły miliardy dolarów na różne projekty, więc trudno uznać, że nagle tak duża część poważnego świata nauki oszalała, choć przyznaję, że na taki argument cieżko będzie mi coś powiedzieć sensownego ;)

 

Ok, a jakie są te metody oszacowania wydajności mózgu?

 

Metoda 1: Policzmy wszystkie połączenia neuronowe

 

Ludzie, którzy się na tym znają twierdzą, że mamy 10^9 neuronów. Załóżmy, że każdy neuron ma przychodzące połączenia z 10^3 innych neuronów. Wiedząc, że mniej więcej częstotliwość strzelania neuronów to 100Hz i postsynaptyczny neuron ma ekwiwalent 10 zmiennoprzecinkowych operacji za każdym razem, jak odbierze spike’a, możemy wziąć te wszystkie cyfry do kupy i wyjdzie, że potrzebujesz 1^13 zmiennoprzecinkowych operacji 100 razy na sekundę lub jeden petaFLOP/s (10^15 FLOP/s).

 

Metoda 2: Przemnóżmy dane z siatkówki

 

Tych obliczeń dokonał Hans Moravec, już tu cytowany:

http://www.frc.ri.cmu.edu/~hpm/hpmbio.html

Idea polega na tym, żeby wziąć bardzo dobrze poznany fragment mózgu (retina) i założyć, że reszta mózgu ma podobną gęstość obliczeniową. Punktem wyjście jest „rozdzielczość” siatkówki, która przetwarza 10^6 „pikseli” obrazu około 10 razy na sekundę. Jeśli dojdziesz do wyniku, że potrzebujesz około 10^8 zmiennoprzecinkowych operacji na sekundę żeby to przetworzyć to znaczy, że szukasz c.a. gigaFLOPA żeby zrównać się wydajnością z tym fragmentem mózgu. Mózg jest 10^5 większy, niż wspomniany fragment, więc suma sumarum potrzebujesz 10^14 FLOP/s.

 

Przyznacie, że to dosyć ciekawe i zabawne, że dwa tak różne podejścia dają bardzo zbliżoną skalę mocy? Ciekawe to jest też dlatego, że dzisiejsze superkomputery sięgnęły już tej skali (Oak Ridge National Laboratory ma zabawkę o mocy 18 petaFLOP/s, Chiny jeszcze więcej).

 

Inne motody dają także podobne wyniki. A już totalnie zabawne jest to, że jeżeli nawet walnęliśmy się tu o milion razy, to i tak, biorąc pod uwagę wykładniczy trend przyrostu wydajności komputerów, przesuniemy czas dogonienia mózgu o kilka, maks kilkanaście lat.

 

 

  • Lubię 2
Odnośnik do komentarza
Udostępnij na innych stronach

I jeszcze jedna wiadomość dla programistów. Google kilka dni temu dokonał niemożliwego - wydawałoby się - otworzył swoje aktywa AI dla szerokiego grona programistów (C++/Python). W ramach otwarcia udostępnili też superkomputer w backendzie. Inaczej mówiąc - AI google jest już jako Open Source :)

 

To ogromy krok i warto obserwować, do czego to doprowadzi w ciągu najbliższych kilku lat.

 

http://www.wired.com/2015/11/google-open-sources-its-artificial-intelligence-engine/

 

Tu także wersja po PL:

http://www.dobreprogramy.pl/Maszynowe-uczenie-sie-teraz-dla-kazdego.-Google-otworzylo-silnik-AI-TensorFlow,News,68071.html

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Hmm. Ciekawe. No dobra. komputer neuron po neuronie (wirtualnym) ustala stan mózgu w kolejnej mikrosekundzie. kawałkiem mózgu jest wirtualna siatkówka i ucho wewnętrzne.
Problemy: normalny mózg uczy się gdy rośnie. Nie można zrobić od razu dużego (wirtualnego) mózgu bo on będzie kompletnym chaosem.
Mamy tu przemyconą digitalizację. Ten mózg jakby mruga. Istnieje. Potem komputer liczy zmiany i znowu istnieje, a rzeczywisty mózg nie "usypia" cały na mikrosekundę. ciężko będzie.

Może już lepiej zrobić te komórki naprawdę. Przypominam, że nie tylko neurony!!

 

Co do idei to ja zgadzam się że teoretycznie może się udać trwały sztuczny mózg na poziomie świadomego naukowca ale jest to skrajnie trudne i dramatycznie trudne jest potem do dotestowanie na jego wiarygodność (odpowiedzialność). Sądzę ze ludzkość straci setki miliardów i uzna że gra nie warta świeczki.

 

Pozdrawiam

p.s.
i troche chyba odpuszcze sobie ten wątek z braku czasu

Edytowane przez ekolog
Odnośnik do komentarza
Udostępnij na innych stronach

 

Ależ ja zdawałem sobie sprawę, że (skromny a nie zadufany w sobie) informatyk nie pisze jak ma "myśleć" komputer, tylko pisze algorytmy symulujące działanie wirtualnych komórek (różnego typu - nie tylko neurony grają role - jeśli naśladujemy mózg). Problem w tym że najwyższej klasy eksperyment będzie jednak materialny, przestrzenny, ze specjalnie zbudowanych sztucznych komórek (ale drogi do bólu). Symulowanie zdarzeń w trójwymiarowym mózgu żałośnie liniowymi (nawet wieloma) procesami to nie to samo, to droga przez grząski beton. Ilość informacji DNA decydującej o końcowym kształcie mózgu w istocie jest mała i dlatego mamy wielu podobnych ludzi na świecie. Oczywiście przemilczałeś DNA mitochondriów, które płynie tylko od mamy i pewne inne własności komórki rozrodczej które mogą być nieco inne u różnych ludzi nawet z tym samym DNA, i różnicować mózgi nawet gdyby były to dzieci dwóch bliźniaczek jednojajowych wydanych za mąż za dwóch bliźniaków jednojajowych.

 

Pozdrawiam

 

Mylisz się, że dzisiejsze komputery są do bólu liniowe. Komputery już od dawna rozwijają się, zupełnie przypadkowo, w stronę "paralelizmu" (z pomocą GPU są w stanie symulować całkiem sprawnie sieci neuronowe, które z natury nie są liniowe), a przez to, że wykonują nieprawdopodobnie większą ilość operacji na sekundę w porównaniu do 100, czy nawet optymistycznie 200, które strzelają neurony, to nie potrzebujemy aż tak dużo tych jednostek. Przypomnę, że są już komputery, które mają 20 000 CPU + 20 000 GPU dając nawet 20 petaFLOPs w peaku - działające w częstotliwości GHz a nie set Hz. Zaczynają nadawać się nieźle do symulacji mózgu - znowu odsyłam do symulacji części odpowiadającej z słyszenie i analizę dźwięku. Działa perfekt, a jeżeli tę część możemy symulować na poziomie sieci neuronowych, to dlaczego inne nie?

 

Co do DNA i mózgu - no właśnie. Jak to możliwe, że informacja dzięki której molekularnie powstaje nasz mózg wynosi mniej więcej tyle, co kod MS Office? I to jest materiał na kolejny temat, niezwykle interesujący, ale także dowodzący, że reguły, które rządzą światem, komórkami, ewolucją nie są wcale poza zakresem naszego zrozumienia. Kto wie, czy struktury mózgu nie da się odtworzyć z kodu genetycznego symulując wzrost komórkowy od pierwszych podziałów, aż do pierdyliarda neuronów - całkowicie cyfrowo, w komputerze. Tu kierunkiem myślowym są fraktale i wspomniany cellular automata. Wg mnie to jest właśnie ten kierunek - musimy zrozumieć, jak powstają te połączenia z tak małego planu (DNA), a potem będzie już z górki ;)

 

PS. A na horyzoncie są już procesory 3D i komputery kwantowe. To raczej nie zaszkodzi, żeby przesunąć znowu rozwój na nowym poziom. Jak to mówią amerykanie - przed nami kolejny "paradigm shift", po lampach, tranzystorach, krzemie.

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Wydaje mi się ze częściowo odpowiedziałem na to w poprzednim poście (załączam skan), co wleciał przed chwilą, ale dziękuję za analizę i wiadomości ze świata, których istotnie nie znałem. Powtórzę, Mózg to nie tylko neurony (także inne komórki, tkanki i płyny) ale zgadzam się, że i inne obiekty da się symulować tylko nie jest to już takie banalne.

Pozdrawiam

aaa.jpg

Edytowane przez ekolog
Odnośnik do komentarza
Udostępnij na innych stronach

Problemy: normalny mózg uczy się gdy rośnie. Nie można zrobić od razu dużego (wirtualnego) mózgu bo on będzie kompletnym chaosem.

 

Dokładnie. Dlatego próba odtwarzania biologicznego mózgu (z komórek) jest bez sensu. W przypadku cyfrowej symulacji możemy łatwo strukturą manipulować, czy uczyć go znacznie szybciej, i każdą umiejętność będzie "odkrywał" tylko raz, bo jak wiadomo, komputery mają tę przewagę na biologią, że potrafię nie tylko zapisywać to na "dysku", ale też sprawnie się tym dzielić z innymi komputerami.

 

Gdybyśmy inżynieryjnie (genetycznie) wychodowali w labie sztuczny-prawdziwy mózg z komórek, ale bez całego otoczenia (ciała, świata, doświadczeń, czasu), o którym wiele razy tu pisałeś, to nic by z tego nie wyszło, bo pozostałby kłębkiem/gąbką chaotycznej sieci neuronowej - nic więcej.

Odnośnik do komentarza
Udostępnij na innych stronach

Tylko uściślijmy - jeśli rozpatrujemy symulację materialnego sztucznego mózgu, czyli taką ścieżkę - cyborgi wolałyby czasem pochodzić sobie bez zasilania ;)

- sens miałoby tylko wyhodowanie sztucznego mózgu ZE SZTUCZNYCH, LEPSZYCH, SZYBSZYCH ITD komórek. Inne materiały ;)

Mierzmy (słusznie) wysoko!

 

Jest też ta druga ścieżka.

To czuję, że te 1.6 mld euro raczej da zarobić około-informatykom a nie inżynierom materiałowym (choć tym też trochę) a myślałem że odwrotnie. Może się mylę. Nieważne :)

 

Pozdrawiam

 

 

Edytowane przez ekolog
Odnośnik do komentarza
Udostępnij na innych stronach

Przetłumacz to sobie proszę:

http://www.telegraph.co.uk/technology/10567942/Supercomputer-models-one-second-of-human-brain-activity.html

 

"replicate a network consisting of 1.73 billion nerve cells connected by 10.4 trillion synapses."

 

https://pl.wikipedia.org/wiki/Blue_Brain_Project

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Te linki opisują w zasadzie to co Ty tu napisałeś. I teraz napisałeś:

>>> W przypadku cyfrowej symulacji możemy łatwo strukturą manipulować, czy uczyć go znacznie szybciej, i każdą umiejętność będzie "odkrywał" tylko raz, bo jak wiadomo, komputery mają tę przewagę na biologią, że potrafię nie tylko zapisywać to na "dysku", ale też sprawnie się tym dzielić z innymi komputerami.

No ale nie w przypadku tak zaplanowanych symulacji jak to pisze w linkach bo to po prostu symuluje się synapsy, neurony, wzrost mózgu (to informacja wywnioskowana z tego co napisałeś)

Informacja (nauczona) zostanie zapamiętana o tylko tylko o ile utrwali sie jakoś w tych pielęgnowanych/pamiętanych przez komputer symulujący wirtualnych komórkach nerwowych.
Co gorsza trzeba zadbać o symulację komórek siatkówki i pnia wzrokowego bo jak inaczej rosnący wirtualny "embrion" nauczy się kształtów i rzeczy?
Pień słuchu tez trzeba.Wole nie zgadywać co zrobi się z pniem czucia (dotyku).
O sukcesie (który wydaje mi się teraz jeszcze trudniejszy) zadecyduje wiedza o mózgu i ilość uwzględnianych rzeczy.
To będzie ogrom nawrotów bo czuję, że parametrów jest sporo, i rezultaty zazwyczaj bardzo zabawne / smutne.

Przy takich założeniach "naturalistycznych" tych symulacji nie ma innej drogi poznania internetu tylko przed tym wirtualnym dzieckiem (jeśli jakimś cudem będzie sensowne to dziecko - w co absolutnie nie wierzę w najbliższym dziesięcioleciu) postawić (zasymulować) trzeba będzie wirtualny ekran, klawiaturę i komputer dołączony do internetu.

Skąd ono "weźmie" palce do naciskania klawiszy?

Dodam, że to dziecko trzeba nauczyć angielskiego i dać mu możliwość "mówienia".

Ogrom problemów!

 

Generalnie jest oczywiste, że tworzymy coś nieco podobnego do ludzkich mózgów ale na pewno innego - swego rodzaju zabawa raczej.

 

Jak piorun uderzy w pobliżu to jeszcze ciekawiej/straszniej będzie.

Pozdrawiam

Edytowane przez ekolog
Odnośnik do komentarza
Udostępnij na innych stronach

Generalnie jest oczywiste, że tworzymy coś nieco podobnego do ludzkich mózgów ale na pewno innego.

 

Coś w tym jest. Ostatnio jeden z ważniejszych naukowców zaangażowanych w zaawansowane AI zaczął się oburzać na nazwę Artificial Intelligence i chce, żeby tytułować "Genuine Intelligence". Google zresztą też przyjęło taką nazwę :)

 

"Google would prefer you call it machine intelligence. They feel that the word artificial intelligence carries too many connotations, and fundamentally, they’re trying to create genuine intelligence—just in machines."

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

W najnowszym świecie Nauki (z listopada) jest cały artykuł o omawianym tu wielokrotnie europejskim projekcie HBP (Human Brain Project) za ponad miliard euro.
Przechodził on ciężkie chwile w ostatnich latach i popadł w chaos gdyż od dłuższego czasu pojawiła się słuszna jego krytyka. Jego lider, pomysłodawca i główny dysponent środków, znany naukowiec Henry Markram, naobiecywał urzędnikom europejskim nierealistycznie wiele wielkich pożytków, osiągnieć jakie miał przynieść ten program, zdobył ich zaufanie i uzyskał nieprawdopodobnie szybką ścieżką (w której zapewniono anonimowość ekspertom polecającym to) wielkie finansowanie. Co ciekawe wszystkie ciała, które miały kontrolować wydawanie środków były od niego lub jego współpracownikow zależne (człowiek ów okazał się mega-skuteczny w pozyskiwaniu i prawie dowolnym dysponowaniu środkami) :D Teraz sytuacja się trochę zmieniła. Powstała komisja mediacyjna która wdraża bardziej niezależne kontrolowanie i ocenianie działań realizowanych przez Markrama. Jego optymizm co do symulacji mózgu uważa się za przesadzony (obiecanki na wyrost). Program może jednak przynieść coś dobrego bo zakłada też staranne zbieranie ogromnych danych oraz stworzenie wartościowych modeli matematycznych. Zmuszono Markrama do przywrócenia wyrzuconego przez niego podprojektu z dziedziny neurobiologii kognitywnej.
Po prostu społeczność europejskich neurobiologów się zbuntowała i wymusiła trzeźwą kontrole tego projektu.

Na reputacji Markrama ciąży jeszcze drobny zarzut, że jego sława i zaufanie doń wynikało też z wcześniej zrealizowanego projektu odnośnie kawałka mózgu, a tymczasem nie opublikował on dotąd pełnego raportu z tego przedsięwzięcia w żadnym renomowanym czasopismie naukowym.

 

Pozdrawiam

p.s.

Wszystko co powyżej napisałem, jest w tym artykule. Ja tylko napisałem to zwięźle, innymi słowami. Przetłumaczyłem "z polskiego na nasze".

Edytowane przez ekolog
Odnośnik do komentarza
Udostępnij na innych stronach

Ale moment - ty chcesz mi powiedzieć, że są wśród naukowców sceptycy? Ależ ja to wiem doskonale. Mnie interesuje temat dlatego, że wśród naukowców jest tak wielu, którzy dzisiaj twierdzą, że to da się zrobić (zakładam, że sceptycznych jest 90%). Gdyby to było 1, czy 20, to bym sobie głowy ich badaniami nie zaprzątał. Prawda?

 

A to, że te projekty przeżywają wzloty i upadki - jasna sprawa. Przypomnij sobie misję na Księżyc i co się działo. Jakie były przeciwności, katastrofy, czy ilu naukowców było sceptycznych, twierdząc nawet, że ludzie nigdy nie polecą na Księżyc. Normalka.

 

Dzisiaj HBP jest pod ostrzałem, bo owiany jest tajemnicą, nie dzielą się wszystkimi pracami naukowymi, do tego mają spore zasoby gotówki, co z natury rzeczy nie za bardzo podoba się innym "kolegom po naukowym fachu". Projekt ocenimy po sukcesach, a nie po krytyce "kolegów".

 

Podobnie było z amerykański prezydenckim projektem nowej "misji księżycowej" - czyli AI - http://braininitiative.nih.gov/index.htm

Też była mocno krytykowana, a w ostatnim czasie nawet naukowcom miękną rurki. W przeciwieństwie do HBP, US Brain jest bardzo otwartym projektem, więc trudno z nim dyskutować.

  • Lubię 1
Odnośnik do komentarza
Udostępnij na innych stronach

Odnośnik do komentarza
Udostępnij na innych stronach

Dosłownie przed chwilą w wiadomościach pokazali prawdziwy odrzutowy plecak ! Wysokość lotu do 100 m, szybkość lotu do 130 km/h, dystans 50 km ! To co było fikcją kilkadziesiąt lat temu w filmie James Bond z Sean Connery, teraz jest rzeczywistością. Na razie ten placek kosztuje ponad 100 tys. $.

  • Lubię 3
Odnośnik do komentarza
Udostępnij na innych stronach

Toś wyszukał Danielu. Brawo. Zwięźle mamy tam cały ten wątek (od strony optymistów). I kto tam się wypowiada. Nasz Adam! Kto nie wejdzie w powyższy link Paethera (przed postem Wojtka) ten dużo traci!

 

To powiem, że ja bym marzył, żeby te nieśmiertelne istoty AGI wbrew trudnościom się udały. Bo przeżyją wszystko, nawet białego karła.

 

Przypuszczam jednak, że tamten portal miałby problem gdyby pojawili się tam krytycy tego optymizmu (niechby tak skromni jak moim przed-poprzednim postem)

Temu sztucznemu organizmowi symulowanemu lub nawet realnie zbudowanemu nie tylko trzeba przewidzieć (lub zasymulować) oczy, uszy, palce itp ale też go wychowywać jak dziecko.

Lata pracy imho. Kosmiczne wydatki. Nie uda się przed zniechęceniem inwestorów (kiedykolwiek bądź).

Pozdrawiam

p.s.

i postaram się już nie za często krakać ;)

Na mój post co go "re-cytuję" nie roszczę sobie praw autorskich. Można go cytować jako głos jakiegoś przypadkowego dyskutanta w necie. Jeśli się Adamowi przyda to proszę bardzo.

aaaaaaaaaa.jpg

Edytowane przez ekolog
Odnośnik do komentarza
Udostępnij na innych stronach

Dołącz do dyskusji

Możesz dodać zawartość już teraz a zarejestrować się później. Jeśli posiadasz już konto, zaloguj się aby dodać zawartość za jego pomocą.

Gość
Dodaj odpowiedź do tematu...

×   Wklejono zawartość z formatowaniem.   Usuń formatowanie

  Dozwolonych jest tylko 75 emoji.

×   Odnośnik został automatycznie osadzony.   Przywróć wyświetlanie jako odnośnik

×   Przywrócono poprzednią zawartość.   Wyczyść edytor

×   Nie możesz bezpośrednio wkleić grafiki. Dodaj lub załącz grafiki z adresu URL.

×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Umieściliśmy na Twoim urządzeniu pliki cookie, aby pomóc Ci usprawnić przeglądanie strony. Możesz dostosować ustawienia plików cookie, w przeciwnym wypadku zakładamy, że wyrażasz na to zgodę.