@金畫:政治見解不同,國家制度不同,但仍可以坐下來,見面商談,是最好的方式!期待金特首腦會談取得有利于雙方利益的成果。
中國新聞周刊編輯部微博
http:∥weibo.com/inewsweek
《中國新聞周刊》官方微博
http:∥weibo.com/chinanewsweek
《考后撕書,這一場狂歡》
為什么會出現撕書現象?有不少人能享受隨意讀書的樂趣,但大家?guī)缀醵疾粚﹂喿x教科書感到享受。與其說人們不享受讀書,倒不如說是無法享受學習帶來的壓力。努力學習本身就是很痛苦的事,而能享受痛苦,甘之如飴,就更困難了。(Bellica.蔻色)
AI的人格——第一次被這個主題吸引,是看到Siri的“人格設計師”Mariana Lin寫的一段話:“AI的存在,不是為了滿足人類的一切需求或復制人類的存在。我們可以且應該期待AI幫助人類前行,并為人類作出更好的示范。想想那些人類歷來就不太擅長的品質:同情心、耐心、彌合分歧與誤解……我們應當設想未來AI能夠在這些方面彌補人類?!?/p>
這聽起來難度不小。在現階段,人工智能與人類智能的最大差別是:人工不會產生自我認知,更不會有價值和道德判斷。近些年大火的機器學習雖然是基于對人類神經網絡的模仿,但即使對人類自身而言,神經信號的傳導,為何會使人類產生情感和非理性?這依然是未解之謎,更談不上讓機器“學習”。
那么,如果AI自身沒有辦法產生道德,如何讓它來彌補所謂“不道德”的缺陷?以AI語音助手為例,目前采取的慣用做法是由人工在后臺進行標注,將不道德的對話進行“清洗”,讓AI逐漸通過學習,自我進化出看起來比較“高尚”的人格。比如,如果你要殺人,它會告訴你不要這么做,以及殺人會產生的桐應后果。這些答案可能是專門的“人格設計師”寫成,也可能是后臺編輯在網絡上篩選出“最合適”的回答。如果一個潛在的兇手在和AI對話后,打消了自己的念頭,只能說明他的人類同胞勸住了他,可能是利用法律進行規(guī)訓,可能是從感情上和他產生共鳴。
只有“人性”才能理解“人性”,和AI無關。所以從某種角度來說,AI的人格其實是個偽命題。
現在市面上的各種語音助手,無論是小冰的可愛體貼,還是Siri的古靈精怪,或者是“谷歌助手”的友善包容,都只是表層的性格特點。而人格中最核心的是價值觀,包括道德判斷,感性和理性的平衡,對哲學命題的思考,對自身和宇宙關系的認知和構建等。每個人的價值觀一定是獨特的,不完美的,甚至偏執(zhí)的。
60年前,美國作家艾薩克.阿西莫夫寫道:“機器人應該具有人類所有高尚的品質?!蔽磥恚幢鉇I有了自我推理和學習的能力,產生了自己的“思想”,它可能也不會在乎人類的道德,更不需要高尚。
因為它畢竟不是人類。
詳見本刊2018年6月18日出版總第856期