有情感機器人可能會“記仇”
AI(人工智能)有多接近人類?機器人會有喜怒哀樂嗎?人工智能會不會有統治人類的一天?昨日在小蠻腰科技大會上,廣州日報特別設置了“大咖面對面”環節,美國天普大學計算機與信息科學系副教授王培,與廣州日報讀者分享了他對于人工智能的看法,暢談他對人工智能的未來預測。
像人一樣犯錯的智能才更像人
王培從專訪開始便強調,他所談的通用人工智能(AGI)與社會主流討論的人工智能(AI)不是同一概念。人工智能讓計算機取代人類腦力勞動;而通用人工智能是讓計算機更像人。“AGI就是在計算機上模仿人的思維規律,而不是在具體的行為上模仿人,它可能不會下圍棋、不能開汽車。”
王培舉了一個飛機與鳥的例子說明人工智能與通用人工智能的差異。同樣達到飛的目標,飛機的運行機制與鳥類是不一樣的,制造出飛機并不能加深人類對鳥類飛行的認識。通用人工智能(AGI)要做的是,像做出模擬鳥類飛行的機器那樣,做出能模擬人腦的機器。
人類思維規律是怎么樣呢?王培說,人們如果要做一件一開始不知道怎么做的事,可能會先試試方法A,失敗了再試試方法B。“模擬人腦的人工智能下棋不一定能贏人類,它還可能會犯各種錯誤,但如果它犯的錯誤跟人相類似,我反而覺得我成功了,因為它再現了人的思維。”
機器人已學會“高興”“不高興”
如果機器能再現人的思維,那它是否會出現像人類那樣的情感模式?王培笑答,實際上已經出現了。
他的一位博士生的畢業論文就是研究機器人的情感。目前,這個情感機器人還是在程序階段,只有“高興”“不高興”兩種簡單模式。王培強調,機器人的情感表達不是哭或笑,不一定能被人類感知或理解,更不是簡單呼應、模擬人類的情感。
王培解釋道,這個機器人情感的影響因素是目標完成的效果。如果達到預設的目標,它會感到“高興”,表現得更開放,愿意接受更多新知識,接受新任務也會更痛快一些;如果沒有達到預設目標,它會不高興,對周圍事物的敏感度降低,也不愿意接受新事物,想著“我現在的任務還沒弄好,不想弄別的事”。
王培談到,未來,通用人工智能的情感還將進一步復雜化,能感受喜、怒、憂、思、悲、恐、驚等等情感。比如通用人工智能可以分析它碰到的對象,在過去是否曾對它構成威脅,如果識別出“打不過”就會感到“恐懼”,這個通用人工智能控制的機器人會選擇回避或逃跑。
機器人擁有感情或許會帶來不利于人類的社會后果?王培表示有可能,他舉例,擁有情感的機器人,如果被人類踹兩腳,它可能會記仇,以后都不理踹它的人。但王培也認為,讓機器人喜歡你,和讓人類喜歡你的方式是一樣的。“你對它好,它就會為你的利益考慮。”
王培認為,他無法證明壞的結果不可能發生,然而像公眾擔憂的“人工智能統治世界”發生的可能性很低。王培引述復旦大學一位哲學家的分析文章,公眾對人工智能的恐懼更多是思維混亂的結果,難以邏輯自洽。同時,人工智能科學家應該加強與公眾的交流,解釋哪些是真正的危險,哪些是臆想出來的問題。