11月18日在新加坡管理大學舉行的“人工智能與機器人全球大會”將以人工智能道德爲主題,邀請國內外頂尖科學家、商業領袖、企業家、開發商、社會學家、哲學家與監管者共同討論。11月1日前報名的公衆可享有折扣。
想像你站在電車軌道的分叉口,一邊的軌道上綁著五個人,另一邊綁了一個人。這時,電車駛來,眼看就快撞上五人,你是否要拉下手把,把電車轉到只綁著一人的分叉軌道上,拯救五條命?
這個古老的道德哲學問題不僅繼續困擾人類,人工智能也在努力尋找解答。救五條命是否比救一條命好?袖手旁觀是否就沒有責任?
下個月將在“人工智能與機器人全球大會”上演講的新加坡國立大學計算機科學系助理教授蘇順鴻接受《聯合早報》訪問時說,人工智能的“價值觀”是構建人類與機器人互信的一大關鍵,而這將決定人類賦予機器人自主權的程度。
以上述電車軌道的問題爲例,這是工程師編寫無人駕駛車編程時必須面對的難題。同時,乘客也必須思考並決定是否要支持機器的判斷。
蘇順鴻的主要研究領域是機器人與人類的互動。他說:“如果機器人沒有道德框架,我們是否還要信任它,讓機器人幫我們做決定?”
在某種程度上,機器人已經在影響人類的決定,無論是購物、保健、學習、投資、工作等,人工智能的觸角早已滲入生活的各個方面,但機器人的建議是否與使用者的觀點一致?
蘇順鴻指出,在人機互動中,過度信任或不夠信任都會造成問題。
如果過度信任,把所有責任都推給機器人,那就可能出現使用輔助自動駕駛功能的司機打瞌睡,結果發生車禍的情況;不信任機器、執意不要機器人幫忙,又可能出現不顧警告擅闖危險地區的問題。
人工智能之所以能做出判斷,是因爲吸收了大量數據。但蘇順鴻提醒,視數據的質量而定,人類的偏見有時也會滲入系統。例如,不久前就有媒體報道,美國法庭下判時參考的某個未來犯罪風險評估系統對黑人的評估較差。
爲了展現偏差數據會如何對人工智能造成極端影響,美國麻省理工學院早前用驚悚圖像培養出“心理變態”的機器人,在普通機器人眼裏像日常人事物的抽象圖案,它卻诠釋爲血腥事件。
蘇順鴻說:“複雜模型是把雙刃劍,雖然它們更有能力處理複雜情況,但也會效仿不正確的事。這方面仍有很多工作在進行。”
“人工智能與機器人全球大會”將以人工智能道德爲主題,邀請國內外頂尖科學家、商業領袖、企業家、開發商、社會學家、哲學家與監管者共同討論。
由亞太輔助機器人協會(APARA)及新加坡報業控股旗下的Sphere Exhibits主辦的這場大會將于下月18日在新加坡管理大學舉行。
11月1日前報名的公衆將享有折扣,報名費爲80元,原價100元。欲知詳情,請上網www.apara.asia/aibotics。