Spytano robota, co według niego jest niemoralne. Jego odpowiedź wbije was w fotel
Ludzie od zarania dziejów zastanawiają się nad celem i sensem istnienia.
Równie stare jest pytanie o to, czy maszyny kiedyś nas zastąpią i sprawią, że staniemy się niepotrzebni, zwyczajnie bezużyteczni. O ile na to pierwsze znajdujemy jeszcze jakieś odpowiedzi od boskiego planu poprzez zwykłe bycie szczęśliwym, o tyle z tym drugim jest już znacznie trudniej. W końcu już Einstein bał się tego, do czego doprowadzi rozwój technologii.
Ostatnio naukowcy zaczęli nas pocieszać. Pojawiły się liczne opinie, że sztuczna inteligencja nigdy nas nie zastąpi, bo nie będzie w stanie wykształcić kręgosłupa moralnego i emocjonalności równie złożonej, co ludzka. Co, jednak gdybyśmy wam powiedzieli, że maszyny znalazły zupełnie inną definicję tego, co jest moralne, a co nie?
Oriol Vinyals i Quoc Le, naukowcy z „Google Brain” zaprojektowali robota, posługującego się sztuczną inteligencją. Zaprojektowali tzw. model konwersacyjny (inaczej Google chatbot), który miał za zadanie zgłębiać wiedzę, gromadzić dane i rozwiązania problemów oraz wykorzystywać je w codziennej rozmowie. Do dyspozycji miał bazę danych, definicji, filmów, cytatów z książek itd.
Początkowo maszyna analizowała proste zadania ze „swojej działki”. Wykryła np. program z przeglądarką internetową. Stopniowo jednak naukowcy podnosili jej poprzeczkę, prosząc o odpowiedzi na coraz to trudniejsze pytania. W końcu stwierdzili, że przyszła pora, by powiedział, co jest celem i sensem życia, oraz czym według niego jest niemoralność. Udzielone odpowiedzi mocno zastanowiły badaczy.