Spytano robota, co według niego jest niemoralne. Jego odpowiedź wbije was w fotel

Ludzie od zarania dziejów zastanawiają się nad celem i sensem istnienia. 

Równie stare jest pytanie o to, czy maszyny kiedyś nas zastąpią i sprawią, że staniemy się niepotrzebni, zwyczajnie bezużyteczni. O ile na to pierwsze znajdujemy jeszcze jakieś odpowiedzi od boskiego planu poprzez zwykłe bycie szczęśliwym, o tyle z tym drugim jest już znacznie trudniej. W końcu już Einstein bał się tego, do czego doprowadzi rozwój technologii.

Ostatnio naukowcy zaczęli nas pocieszać. Pojawiły się liczne opinie, że sztuczna inteligencja nigdy nas nie zastąpi, bo nie będzie w stanie wykształcić kręgosłupa moralnego i emocjonalności równie złożonej, co ludzka. Co, jednak gdybyśmy wam powiedzieli, że maszyny znalazły zupełnie inną definicję tego, co jest moralne, a co nie?

Oriol Vinyals i Quoc Le, naukowcy z „Google Brain” zaprojektowali robota, posługującego się sztuczną inteligencją. Zaprojektowali tzw. model konwersacyjny (inaczej Google chatbot), który miał za zadanie zgłębiać wiedzę, gromadzić dane i rozwiązania problemów oraz wykorzystywać je w codziennej rozmowie. Do dyspozycji miał bazę danych, definicji, filmów, cytatów z książek itd.

Początkowo maszyna analizowała proste zadania ze „swojej działki”. Wykryła np. program z przeglądarką internetową. Stopniowo jednak naukowcy podnosili jej poprzeczkę, prosząc o odpowiedzi na coraz to trudniejsze pytania. W końcu stwierdzili, że przyszła pora, by powiedział, co jest celem i sensem życia, oraz czym według niego jest niemoralność. Udzielone odpowiedzi mocno zastanowiły badaczy.

Czytaj dalej na następnej stronie.

Ten artykuł ma więcej niż jedną stronę. Przejdź na kolejną, by czytać dalej.



Reply