Warcraft II pol-1 Forum
http://war2pol1.cba.pl/

Troche Sci/Fi - sztuczna inteligencja ;)
http://war2pol1.cba.pl/viewtopic.php?f=5&t=1051
Strona 1 z 3

Autor:  yco [ Wt 10 maja 2005 20:47 ]
Tytuł:  Troche Sci/Fi - sztuczna inteligencja ;)

Nie chciało mi się pisać w ShoutBoxie, zacznijmy temacik :)

yco: chodzilo mi o to, ze A.I. kiedys przewyższy ludzką, oraz to, że może sie zwrócić przeciw nam

flamed: my programujemy kompy , więc to bybyło z naszej winny. to z kolei zgadza się z moją wizją końca świata
a kto powiedział że ludzie sa mądrzy? póki co mamy broń jądrową, której użycie tez grozi nam wszystkim zagładą - to jest mądre?

Andrzej: BullShit zadne ai nas nie rozwali, bo jesli cxzlowiek zrobi maszyne z przewyzszajacym nas AI ktora moze nas zniszczyc to gratuluje bycia debilem...

------------------------------------

Człowiek jest ciekawy, próbuje stworzyć "myślącą" maszynę (bawi się w Boga). Gdy stworzy już jakotaką inteligencję, a ona będzie mogła się uczyć (co już po części osiągnięto) w sposób progresywny, to przy użyciu mocy obliczeniowych superkomputerów byłoby osiągalne... niewykluczone, że taki twór osiągnie kiedyś samoświadomość. Wszystko będzie super, gdy będziemy w stanie ją kontrolować :) (w Fallout był sobie chyba taki jeden komputerek w jakiejs opuszczonej bazie :) )

Oglądałem niedawno jakiś tam program, gdzie o tym sporo mówiono - na razie ludzie stworzyli maszynę o inteligencji zbliżonej do kota. A to juz całkiem sporo :)

Odnieśmy się do filmów s-f
w "ja, robot" nawioązano do praw robotyki opracowanych w latach 50tych Isaaca Asimova. Wszystko super. Ale mi do głowy wpadło co innego.
Jak wiadomo wiele "firm" na świecie produkuje broń. Takie roboty byłyby świetnymi żołnierzami - i pewnie prawa, które im by zaimplementowano byłyby troche inne :P a pomyślcie o sytuacji, gdyby takiej firmie ukradziono by plany tych robotków i wpadłyby one powiedzmy w ręce terrorystów ^^

Scenariuszy jest wiele, ale jedno jest pewne - marne nasze szanse w starciu z takim mechanicznym przeciwnikiem. Nawet jeżeli nie błyszczałyby inteligencją, to jednak ciało ludzkie jest słabe i mało odporne na uszkodzenia.

Kiedyś nawet oglądałem jakiś tam film o rozwinięciu teorii ewolucji. Ludzie wyewoluowali z małp. Teraz osiągnęli chyba szczyt możliwości rozwoju fizycznego. Co w takim razie będzie kolejnym skokiem ewolucyjnym? Może zaczniemy rozwijać się poprzez mechaniczne wszczepy. Może porzucimu ciała i przeniesiemy swoją świadomość do postaci elektronicznej - byłaby to pewnego rodzaju nieśmiertelność (ale pomyślcie o wirusach hehe) A może to maszyny stworzone przez nas samych zajmą nasze miejsca... był to film dokumentalny nakręcony chyba przez BBC (nie jakieś tam filmidło) całkiem ciekawe, ale troche przerażające.

Autor:  Lord_Zabujca [ Wt 10 maja 2005 23:49 ]
Tytuł:  Re: Troche Sci/Fi - sztuczna inteligencja ;)

DISCLAIMER: Ze względu na dość późną godzinę pisania przepraszam za poniższy chaos i bełkot :lol:

yco napisał(a):
póki co mamy broń jądrową, której użycie tez grozi nam wszystkim zagładą - to jest mądre?


TAK! Broń jądrowa jest tym, czym miały być w założeniu konstruktorów łodzie podwodne - bronią tak straszliwą, że obawa przed jej użyciem przez którąkolwiek ze stron sprawia że zaniknęły prawie wszystkie poważne konflikty pomiędzy światowymi potęgami. Osobiście uważam że zimna wojna nie przekształciła się w otwarty i zmasowany konflikt (który zwany był by pewnie potem trzecią wojną światową) tylko i wyłącznie z powodu posiadania głowic atomowych przez oba bloki - kapitalistyczny i komunistyczny.

Cytuj:
Może zaczniemy rozwijać się poprzez mechaniczne wszczepy. Może porzucimu ciała i przeniesiemy swoją świadomość do postaci elektronicznej - byłaby to pewnego rodzaju nieśmiertelność (ale pomyślcie o wirusach hehe) A może to maszyny stworzone przez nas samych zajmą nasze miejsca...


Osobiście uważam że zanim przy użyciu implantów zaczniemy przekształcać się w cyborgi (a to na pewno będzie miało miejsce) nauczymy się hodować sobie nowe narządy - "Pikawa wysiada? Płuca stanowią gąbkę ze smołą? Wątroba praktycznie nie istnieje? Nerki ledwie zipią? To proszę zostawić pańskie dane, numer próbki komórek macierzystych i skierować się do kasy. Za tydzień przeprowadzimy operację.". Tą metodą będzie można nawet odnowić sobie mózg (już od dość dawna odpowiednie badania są prowadzone pod kątem chorych na alzheimera). Innymi słowy - era cyborgów jeszcze jest dość daleko. Wpierw nadejdzie era "punktów serwisowych dla ludzi".

Z kolei przy takiej biologicznej formie nieśmiertelności i wiecznej młodości, po co mechaniczna? Zwłaszcza że nawet jak się skopiujesz w komputer - co to za nieśmiertelność? Niewiele lepsza ona jest od "unieśmiertelniania" się poprzez pisanie wierszy lub uprawianie każdego innego rodzaju sztuki. I tutaj TRACH, obiecana przez "twardą naukę" nieśmiertelność znowu rozbija się o ścianę filozofii - bo w końcu tamto to nie faktyczny TY, lecz tylko odciśnięty przez ciebie ślad na ziemi.

Co jednak do zagrożeń ze strony sztucznej inteligencji - dobrze rozwiniętego AI się nie obawiam, gdyż takie jest dość łatwo kontrolować. Przy zastosowaniu odpowiednich zabezpieczeń (np. unowocześnione i bardziej dostosowane do warunków prawa robotyki [podobne do tych Asimov`a], konieczność wizyty w serwisie raz na kilka lat na przegląd stanu technicznego maszyny i zabezpieczeń [w przeciwnym razie automatyczne zniszczenie jednostki], itp.) nic nie ma prawa skończyć się naprawdę źle. Naprawdę niebezpieczne mogą jednak być maszyny mniej inteligentne, ale znacznie mniejsze i liczniejsze.

Stwórzmy nanorobota, który potrafiłby operować rzeczami i je rekonstruować w nanoskali. Wyprodukowanie czegoś takiego byłoby wyjątkowo drogie, a żeby cokolwiek dało się z tym zrobić musiałoby być tego cholernie, ale to cholernie dużo. Co w takim razie wystarczy zrobić aby zciąć koszty? A pewnie, wyposarzyć robocika w mechanizm kontrolowanej samoreplikacji z dostępnych wokół niego materiałów! Od tego momentu wszyscy są szczęśliwi i żyje im się lepiej w erze dobrodziejstw nanotechnologii. Co jednak gdy w jednym z niewyobrażalnej ilości robocików wystąpi wreszcie (lub zostanie celowo wywołany w ramach chociażby zamachu terrorystycznego) błąd który sprawi że zaniknie wszelka kontrola nad jego replikacją? W jaki sposób to wykryć? Jak to powstrzymać przed przerobieniem całych miast na tabuny nowych nanorobotów? Używając jakiejś wbudowanej komendy? Przecież przy tej ilości swobodnie kopiujących się maszyn można już mówić o zjawisku podobnym do ewolucji! Ze zbuntowaną AI dało by się jeszcze jakoś powalczyć. A jak TO zatrzymać?

Autor:  Tytus [ Śr 11 maja 2005 0:07 ]
Tytuł: 

Moim zdaniem stworzenie jednostki samouczacej bedzie wielkim osiagnieciem czlowieka, a zarazem jego koncem. Jednostka taka bedaca swiadoma predzej czy pozniej zacznie sie buntowac i wymknie sie spod kontroli. Bedzie to wygladalo tak jak np w Terminatorze (Skynet) czy w Animatrixie. W Animatrixie chyba najlepiej jest to zobrazowane. Jednostka stworzona przez czlowieka, w pelni swiadoma, zyjaca w harmonii z czlowiekiem dokonuje mordu. Nie dlatego ze tak chciala, ale dlatego, ze czlowiek ja do tego sprowokowal. Ludzie w panice chcac zaradzic temu (przez dezaktywacje) popelniaja kolejny blad, poniewaz w pelni swiadome roboty, ktore nie chca "umierac" zaczynaja sie bronic.
To co pokazuja w filmach S-F jest w pewnym sensie zacheta dla ludzkosci do osiagniecia tego. W rezultacie tego sami pomyslcie do czego to moze doprowadzic :?

Autor:  Smokosz [ Śr 11 maja 2005 10:42 ]
Tytuł: 

A czemu nie skopiowaleś smokoszowej wypowiedzi o tym że w XX wieku wymyslano tez różne dziwne rzeczy i spekulowano jak będzie wyglądal świat w obecnej chwili. i jakoś malo się sprawdzilo - to samo dzialo sie wcześniej i jakos sprawdzily sie tylko lodzie podwodne :lol:

Autor:  Tytus [ Śr 11 maja 2005 10:46 ]
Tytuł: 

Tak samo nikt kiedys nie wierzyl, ze bedzie mozliwosc poleciec na ksiezyc :P Powiedz mi tylko co to ma wspolnego z tym tematem? Rozmowa sie tutaj toczy na temat sztucznej inteligencji a nie pierdol :P

Autor:  Smokosz [ Śr 11 maja 2005 10:57 ]
Tytuł: 

Bo wy przewidujecie że to niedlugo nastapi - a historia daje lekcje , że możecie sie mylić o wieczność :p

Autor:  liq [ Śr 11 maja 2005 12:04 ]
Tytuł: 

Świat spada w dół. Więc przyspiesza. Nowe technologie będą pojawiać się coraz szybciej i w większej ilości. Ameryka będzie chciała mieć lepsze roboty niż Japonia a Japonia lepsze od Rosji. W takim wyścigu nie trudno o popełnienie błędów :/ Poza tym swoją rolę może jeszcze odegrać chciwość. Dany naukowiec może zaprogramować mechanicznych robotów 'pod siebie' i ruszć na podbój świata.

Autor:  Zapp [ Śr 11 maja 2005 12:19 ]
Tytuł: 

Japonia lepsze od Rosji? :shock:

Autor:  liq [ Śr 11 maja 2005 12:45 ]
Tytuł: 

To by przykład. Możesz to sobie przeczytać na odwrót. Bo kolejność była najmniej ważna...

Autor:  Smokosz [ Śr 11 maja 2005 14:07 ]
Tytuł: 

Tak flamed, szalony naukowiec ruszy na podbój świata z armią mechanicznych robotów. :lol:

Autor:  yco [ Śr 11 maja 2005 14:20 ]
Tytuł: 

tak samo Smokosz jak nie wieżono w przyszłość kina, telewizji, telefonu, komputera, internetu...
jeszcze nie tak dawno temu przecietnemu użytkownikowi komputeraz miało wystarczyć 640kB pamięci - teraz standard w komuterach to 512MB (czyli 512 x 1024kB) więc widzisz jaki skok nastąpił przez ten czas.
Na wsiach jeszcze 15 lat temu telefon był luksusem - teraz jest tam stały dostęp do internetu.
Moja znajoma pani księgowa opowiadała jak za czasów jej młodości liczono na liczydłach!!! a teraz bez komputeraz by nie dała soboe chyba rady...
A to wszystko dopiero nabiera rozpędu :P

Autor:  Andrzej [ Śr 11 maja 2005 15:19 ]
Tytuł: 

Cytuj:
Scenariuszy jest wiele, ale jedno jest pewne - marne nasze szanse w starciu z takim mechanicznym przeciwnikiem. Nawet jeżeli nie błyszczałyby inteligencją, to jednak ciało ludzkie jest słabe i mało odporne na uszkodzenia.
Ja mysle ze jesli czlowiek bedzie zdolny do czegos takiego jak zbudowanie maszyny z inteligencja pozwalajaca nas zniszczyc to z pewnoscia bedzie potrafil sie przed nia bronic... Na 100% byloby wtedy cos takeigo jak impuls w Matrixie. Bo stworzyc robota a nie umiec go zniszczyc... To wbrew logice ktora zaklada ze wszystko latwiej jest zniszczyc niz stworzyc.

Autor:  Tytus [ Śr 11 maja 2005 15:25 ]
Tytuł: 

Tutaj sie Andrzej z Toba nie zgodze. Czy stworzenie bomby atomowej dawalo czlowiekowi gwarancje bezpieczenstwa i obrony przed nia? Nie, bo po uzyciu takiej bomby powstawalo skarzenie radioaktywe, ktore rowniez zagrazalo zdrowiu czlowieka. Moim zdaniem nie inaczej bylo by ze swiadomymi maszynami. Jestem w 100% pewien, ze czlowiek by cos przeoczyl :?

Autor:  Andrzej [ Śr 11 maja 2005 15:36 ]
Tytuł: 

Tytus Przyklad z bomba atomowa jest jak najbardziej bledny bo bomba atomowa nie mysli. Nie kieruje sie sama i nic sama nie robi (oprocz wybuchu i wszystkiego co z nim zwiazane) To czlowiek ja wystrzelil (swiadomie), i to tylko i wylacznie blad czlowieka.

Co do pomylki przy istotach myslacych to wg mnie niemozliwe. Takie rzeczy zdarzaja sie w filmach, by dac dramaturgie. Wyobrazmy sobie mase naukowcow, specjalistow itd. Jakiego typu blad tacy ludzie mogliby popelnic? Co prawda mozna sie obronic przykaldem chociazby Apolla13 ale czy to mysli?
BTW: Apollo13 fajny film :)

Autor:  Tytus [ Śr 11 maja 2005 15:40 ]
Tytuł: 

No dobra, ale czlowiek swiadomie dazy do stworzenia jednostki swiadomej. Tworzac jednostke swiadoma nie tylko bedzie chcial wykorzystac do pomocy ludzkosci, ale takze w celu militarnym. I uwazasz ze predzej czy pozniej sie nie zbuntuje? He, prosty przyklad: gdyby Ciebie ciagle ktos nekal, nie wqrzyl bys sie? Nie zaczal bys sie buntowac?

Autor:  liq [ Śr 11 maja 2005 16:23 ]
Tytuł: 

Adnrzej powiedz mi na jakiej postawie tak ślepo wierzysz w doskonałość człowieka? :shock: Jesteśmy słabi, mało odporni, zabijamy się, okradamy, napadamy etc. Mamy Boga i bogów, każde piękno potrafimy rozwalić... jesteśmy do niczego! Ludzie popełniają błędy i działają zbyt pochoponie od pojawienia się na tym pięknym niszczonym przez nas świecie. Filmy SF pokazują dokąd zmierzamy. Jednak zawsze jest tam 'happy end' z prostego powodu. Na film, w którym ludzie dostają w tyłek mało kto by poszedł. BO ludzie chcą myśleć ,że są najlepsi czy bezbłędni :/

Autor:  Tytus [ Śr 11 maja 2005 17:22 ]
Tytuł: 

Na filmie jest pokazywane to, czego czlowiek nigdy nie osiagnie, czyli jego nieomylnosc i doskonalosc. A czy w rzeczywistosci tak jest ?

Autor:  Pavlos [ Śr 11 maja 2005 18:51 ]
Tytuł: 

co tu się martwić ja tego nie dożyję :) ani moje dzieci i wnuki (no chyba że technika pójdzie tak w góre)
żeby stworzyć takiego robota jest potrzebna nie byle jaka technologia (może ją przyspieszyć pomoc ufO albo zagłada zgotowana przez naszych sąsiadów <<o ile istnieja>> ) po za tym jeżeli człowiek będzie umiał to zrobić napewno przewidzi bunt robotów i przed stworzeniem zrobi jakby samodestukcję robotów...

Autor:  yco [ Śr 11 maja 2005 20:38 ]
Tytuł: 

Andrzej - przed bombą atomową nie mozna się bronić - ale co powiesz na experymenty genetyczne i tworzenie nowych wirusów. Nawet nie wiemy ile takich istnieje, ale nie ma na nie jeszcze antidotum - to są w większości experymenty militarne, to są środki bojowe... ale póki nie opracują antidotum to tego nie użyją, bo sami mogliby oberwać. A teraz pomyśl o czynniku ludzkim - najsłabsze ogniwo we wszlekiego rodzaju zabezpieczeniach. Co by było gdyby przez nieuwage jakiegoś człowieka taki wirus wydostałby się na zewnątrz... ale do tego musialby przyczynić się znacząco człowiek. Wirus który nie myśli nie wydostanie się sam...

A teraz przekompiluj to na sytuację z myślącym tworem. Pomyśl sobie co mogłaby wymyślic taka inteligencja gdyby coś jej zagrażało. Jakikolwiek system zabezpieczeń wymyśliłby człowiek, taki środek mógłby być zidentyfikowany przez tą inteligencję jako potencjalne zagrożenie... a czy nie pomyślałeś, że wtedy maszyna mogłaby chcieć się bronić i czekałaby tylko na jakiś błąd człowieka...

Z kolei zauważ że w coraz większym stopniu otaczamy się elektroniką. Zobacz ile tego jest chciażby w samochodach, nie mówiąc już o samolotach. Robimy to świadomie, bo ułatwia nam to życie... a pomyśl co by było gdyby wszystko to zostało przejęte przez taką właśnie inteligencję.

Pojedynczą maszynę możnaby poprostu odłączyć od zasilania i po sprawie - ale pomyśl sobie, ze to mógłby być twór większy, działający jako rozproszony system dzialająco jednocześnie na milionach superkomputerów na całym świecie, połączonych między sobą superszybką siecią internetową (pewnie i tak nie wiesz co to jest Cluster) i teraz pomyśl sobie jak łatwo o jakikolwiek błąd ze strony człowieka.

Sieć Internet jest tak zbudowana, że jeżeli odłącza się jakieś jedno ogniwo, to znajdowana jest inna droga przepływu informacji. Takiej sieci nie da się ot tak wyłączyć ani zniszczyć.

Weź pod uwagę, że takie coś najpierw pewnie zostanie opracowane na potrzeby armii...
A teraz kropla S-F :) oglądałeś ostatniego Terminatora? Widziałeś czym był SkyNet? W poprzednich czesciach był on właśnie świadomym superkomputerem. W ostatniej już nie... ale nawet jego twórcy o tym nie wiedzieli :P Maszyna osiągnęła świadomość i sama rozprzestrzeniła się jako system na ogólnoświatową sieć... nie mogła jednak rozpocząć działania, bo zabezpieczenia jej na to nie pozwalały. Cały myk polegał na tym, że maszyna zaczęła atakować sama siebie pozorując ataki jakiegoś wirusa szalejącego na zewnątrz... panowie Generałowie myśleli, ze ich inteligentny twór sobie z nim poradzi i dali maszynie większe uprawnienia :) co okazało się ich zgubą. To jest właśnie czynnik ludzki :P To byłby też przejaw inteligencji maszyny.

Autor:  Avatar [ Śr 11 maja 2005 22:09 ]
Tytuł: 

Japończycy twierdzą, że w roku 2050 drużyna piłkarska złożona z humanoidalnych, autonomicznych robotów mobilnych pokona mistrzów świata. Gdyby to się udało to oznaczałoby tylko, że robot jest już sprawniejszy i inteligentniejszy od człowieka. Byłby to wielki sukces robotyki i nie widzęw tym żadnego zagrożenia dla gatunku ludzkiego. Inteligentny w tym przypadku oznacza lepsze przystosowanie w danych warunkach: lepsza percepcja, szybsze przetwarzanie sygnałów i podejmowanie decyzji, ale brak rozumianego w ludzkim kontekście myślenia. Zamieszczam linkhttp://www.robocup.org/ Myśle, że akcja nie ma szans powodzenia, no ale pożyjemy (a myśle, że dozyje :lol:) zobaczymy.
Co do sztucznej inteligencji (a po co ona komu??) to kluczem do sukcesu jest rozpracowanie zasady działania gotowca, czyli mózgu.

Autor:  Smokosz [ Cz 12 maja 2005 6:31 ]
Tytuł: 

Najgorsze że wtedy bede stary i niebede mogl chwycic za broń :P

Autor:  Andrzej [ Cz 12 maja 2005 9:26 ]
Tytuł: 

Ja jednak powtorze. Jesli bylibysmy w stanie stworzyc robota o inteligencji pozwalajacej sie zbuntowac i zniszczyc czlowieka to z pewnoscia bylibysmy w stanie zbudowac system ktory by nas przed tym zabezpieczyl. Jak dla mnie jedyne co moze nas zniszczyc w kwestii technologii to jest to ze czlowiek sam niedlugo bedzie robotem. Ogladalem keidys na Discovery program o tym ze JUZ TERAZ jest praktyczne podlaczenie mózgu do elektroniki i stworzenie robota z ludzkim mozgiem. W takim razie moze nas zniszczyc zbyt bliskie polaczenie z technologia, bo wtedy jakby byla walka to roboty na roboty...

Autor:  yco [ Cz 12 maja 2005 10:43 ]
Tytuł: 

Andrzej teraz znowu zacznie swoja strategie "ja i tak wiem lepiej" oraz "na pewno byłoby tak czy siak" - dokładnie jak w wątku HISTORIA. Tylko że tutaj mu łatwiej, bo to luźne wriacje na temat abstrakcyjny i nie można sie powoływać na żadne źródła i podać żadnych dowodów...
Nie jesteś Andre doskonały, bo żaden człowiek nie jest. Nawet Bóg popełnił błedy (bo popatrz na jego dzieło - człowieka) a ty byś chciał, żeby ten nędzny człowiek stworzył coś doskonałego nie popełniając przy tym błędów?

Autor:  Tytus [ Cz 12 maja 2005 10:50 ]
Tytuł: 

Andzrzej bez przesady, czlowiek o siebie nie potrafi zadbac, a co dopiero o bezpieczenstwo ludzkosci :cry: W zupelnosci zgadzam sie z Yco

Autor:  Andrzej [ Cz 12 maja 2005 11:39 ]
Tytuł: 

Eeee pozyjemy zobaczymy :D nie ma sensu klucic sie o cos co i tak nie jest wiadome...
BTW: W watku Historia była ta roznica ze ja mialem 100% racje :D own3d hehe

// Nie miałeś. P \/\/ I\I z 0 2 3 [) - LZ

Autor:  Pavlos [ Cz 12 maja 2005 13:52 ]
Tytuł: 

nie rozumiem jednego: opieracie sie na pierdolkach takich jak Terminator i itp. a sami nie wiemy jak to będzie przecież to tylko fantasty a SF może będzie wyglądać jak galaretka albo coś takiego :P

Autor:  Tytus [ Cz 12 maja 2005 14:09 ]
Tytuł: 

Pavlos, ja studiuje na kierunku z tym zwiazanym (Automatyka i Robotyka) :P

Autor:  liq [ Cz 12 maja 2005 15:03 ]
Tytuł: 

Andrzej napisz mi na jakiej podstawie ciągle wierzysz w doskonałość człowieka?! Jak ty to robisz?! Zycie to nie film czy książka. Ten świat jest brutalny a szczęśliwe zakończenie nie jest regułą...


Avantar - no my właśnie o tym, te roboty mogą być tak doskonałe i podobne do nas ,że moga nabrać ochoty na główny ciel życia większości ludzi -> będą chciały rządzić

Autor:  Andrzej [ Cz 12 maja 2005 15:07 ]
Tytuł: 

Flamed staram się myslec logicznie :D . Absurdem jest zbudowac cos czego nie da sie zniszczyc...

Autor:  State [ Cz 12 maja 2005 16:09 ]
Tytuł: 

A plastik, szkło, papier ? Tego tez nie da sie zniszczyc całkowicie

Strona 1 z 3 Strefa czasowa: UTC [ DST ]
Powered by phpBB © 2000, 2002, 2005, 2007 phpBB Group
http://www.phpbb.com/