Stephen Hawking, znany fizyk i matematyk zmarły w marcu 2018 roku, zawsze ostrzegał świat przed rozwojem zaawansowanej sztucznej inteligencji i genetycznie ulepszonych „nadludzi”. W opublikowanej po jego śmierci książce „Krótkie odpowiedzi na wielkie pytania” pozostawił nie tylko odpowiedzi m.in. na pytanie, czy postęp techniki uchroni nas przed zagładą?, ale także ostrzegł ludzkość przed zgubnymi skutkami sztucznej inteligencji…

Więzień własnego ciała

Stephen Hawking przyszedł na świat 8 stycznia 1942 roku.

Już jako mały chłopiec wykazywał nadzwyczajne umiejętności i zainteresowanie w dziedzinie fizyki i matematyki.

Razem z kolegami skonstruował nawet Logiczną Maszynę Liczącą złożoną z prostych mechanizmów m.in. starych zegarków.

Będąc na studiach – najpierw na Uniwersytecie Oksfordzkim, a potem w Cambridge zauważył pierwsze objawy swojej choroby.

Początkowo była to tylko niezdarność, potem objawy się nasilały – młody, wysportowany chłopak z dnia na dzień tracił równowagę i zborność ruchów.

Diagnoza nie pozostawiała złudzeń – nieuleczalne stwardnienie zanikowe boczne – choroba, która powoduje stopniowy zanik komórek nerwowych rdzenia kręgowego i mózgu, które odpowiadają za ruchy mięśni, a następnie „odcina” pacjenta od świata.

stephen-hawking.jpg
Stephen Hawking foto.123rf.com

Lekarze dawali wówczas 21-letniemu chłopakowi dwa lata życia – Stephen z chorobą przeżył kilkadziesiąt więcej – zmarł w wieku 76 lat.

W międzyczasie poślubił piękną i młodą Jane Wild, był profesorem matematyki i fizyki teoretycznej na Uniwersytecie w Cambridge, przez ponad 40 lat kariery naukowej zajmował się głównie czarnymi dziurami i grawitacją kwantową, jako pierwsza sparaliżowana osoba na świecie znalazł się w stanie nieważkości, a jego publiczne wystąpienia i książki popularnonaukowe, w których omawiał współczesną kosmologię i własne odkrycia, uczyniły z niego akademicką sławę.

Zmarł 14 marca 2018 roku.

Sztuczna inteligencja może zniszczyć ludzkość

Genialny fizyk wiele poświęcił także tematowi sztucznej inteligencji.

W swoich wystąpieniach wielokrotnie podkreślał, że prawdziwym ryzykiem związanym z rozwojem sztucznej inteligencji jest to, w jakie kompetencje będzie wyposażona i jednocześnie wskazywał na potencjalne zagrożenia z nią związane:

Można sobie wyobrazić technologię, która przechytrzyłaby rynki finansowe, przerosłaby możliwościami ludzkich wynalazców, wywiodłaby w pole światowych przywódców i stworzyłaby broń, której nie będziemy nawet w stanie zrozumieć.

Podczas gdy krótkoterminowy rozwój sztucznej inteligencji zależy od tego, kto ją kontroluje, na dłuższą metę chodzi o to, czy sztuczną inteligencję w ogóle da się kontrolować.

Bezpośrednio przed śmiercią Stephen Hawking pracował nad swym ostatnim dziełem – książką „Krótkie odpowiedzi na wielkie pytania”, w której stworzył zestawienie wyjaśnień na trudne pytania, wykraczając poza granice ściśle akademickich badań.

W swej ostatniej książce nie pominął oczywiście tematu sztucznej inteligencji, a co więcej – po raz kolejny ostrzegał przed nią ludzkość.

sztuczna-inteligencja.jpg
foto.123rf.com

Hawking napisał, że sztuczna inteligencja może okazać się „zbyt wielka” dla ludzkości, o ile istnieją ograniczenia, aby kontrolować to, jak szybko ona się rozwija.

Podczas gdy prymitywne formy sztucznej inteligencji opracowane do tej pory okazały się bardzo przydatne, obawiam się konsekwencji stworzenia czegoś, co może dorównać lub przewyższyć ludzi – pisał Hawking.

Ludzie, którzy są ograniczeni powolną ewolucją biologiczną, nie mogą z nią konkurować i zostaną nią zastąpieni…

Profesor wspominał o zagrożeniu ze strony genetycznie ulepszonej „rasy nadludzi”.

Pisał również o potrzebie poważnych badań, które pozwoliłyby ustalić, jaki wpływ na ludzkość miałaby sztuczna inteligencja.

Uważał, że należy przeanalizować wpływ jej systemów na wszystkie aspekty życia – od miejsca pracy zwykłego XY po wojsko, gdzie wyrażał obawy przed tworzeniem zaawansowanych pod względem sztucznej inteligencji systemów broni, które mogą działać na własną rękę, samodzielnie wybierając sobie i eliminując własne cele.

Hawking twierdził, że nieodpowiednio zabezpieczona i kontrolowana sztuczna inteligencja, będzie zdolna do samodzielnego polepszania się i kopiowania, co może zniszczyć ludzkość.

Od zawsze popierał stanowisko, w którym nad kontrolą sztucznej inteligencji nie będzie monopolu, a ona sama powinna być rozwijana tak, aby służyć powszechnie akceptowanym zasadom etycznym, z korzyścią dla całej ludzkości, a nie wyłącznie dla jednego państwa lub organizacji.

WSPARCIE NIEZALEŻNYCH PORTALI

*Niebieską czcionką zaznaczono odnośniki np. do badań, tekstów źródłowych lub artykułów powiązanych tematycznie.

Zapisz się do subskrypcji
otrzymuj powiadomienia o nowych artykułach