不平等絕非好事。
無論是待遇不公,還是資源分配不均,這兩種情況輕則令人不悅,重則會遭人鄙視。強調不同種族、社會經濟階層之間的不平等,也會加劇社會矛盾。
教授簡介
Sam Yam | 任啓智
新加坡國立大學商學院
助理院長(師資發展)
管理與組織系院長講席副教授
美國·華盛頓大學組織行爲學博士
教研領域:判斷與決策、領導力、組織行爲學、商業倫理等
掃碼查看
英文簡曆
不平等是個敏感的話題,但它造成的影響卻屢見不鮮。
在第一波新冠疫情爆發的時候,美國黑人死亡率比白人死亡率高出了兩倍以上;在新加坡,低收入外勞的大規模感染也登上了新聞頭條。窮人和少數族裔總是受疫情影響最爲嚴重,其他國家也是如此。
這些差距的背後存在著大量因素,例如醫療衛生條件和工作環境等。
此外,人們的偏見也有一定的影響。美國Hoffman等人的一項調查研究顯示,部分醫生不願向黑人推薦有望救命的醫學篩查程序,並認爲他們所遭受的痛苦並不嚴重。
那麽算法能否用于減少醫療資源差距呢?
首先要明確一點,人工智能(AI)和算法也會産生偏見。不過,與人類相比它們更容易糾正。人的觀念根深蒂固,需要很長時間去改變,但對算法來說很快就能完成。
實際上,算法在醫療保健領域的運用越來越廣泛。新加坡綜合醫院信息系統(IHiS)研發出的商業研究分析洞察網絡(BRAIN)能夠采集各種渠道的信息,幫助確定糖尿病高危患者。
谷歌和美國連鎖醫院HCA醫療集團(HCA Healthcare)最近宣布建立合作關系,利用數據來改善運營和安全性。2016年,美國克利夫蘭診所(Cleveland Clinic)與微軟合作,利用人工智能識別心衰高危患者。
總而言之,人工智能和算法的廣泛使用有望減輕醫生的工作量,防止他們過度勞累,同時也能縮小不同群體間的醫療水平差距。
然而,其中存在這樣一個矛盾:在普通人看來,算法缺乏同理心,因此通常他們並不願意讓AI和算法做重要的醫學決策。
這很可惜,因爲在工作量讓人不堪重負的時候,例如遇到自然災害或者疫情爆發等情況,算法完全能夠大有所爲。
爲了減輕人們對算法應用于醫療領域的抵觸情緒,我與美國高校的同行展開了相關研究。我們研究發現,關鍵在于要讓不平等差距帶來的威脅更加突出。
在針對新加坡和美國參與者的研究中,團隊發現強調醫療資源分配不公,能夠促使參與者轉而選擇算法。
研究顯示,當參與者了解到新冠疫情因種族和經濟差距而對人們産生了不同的影響之後,再問他們願意選擇醫生決策還是算法決策的醫院時,他們對後者表現出更大的偏好。
他們也更願意在算法驅動的醫院接受政府提供的醫療物資,尤其是發現這種不公會影響到自己切身利益的人群,意願更爲強烈。
然而,通過強調不公平所帶來的威脅來促進AI運用固然有其優點,但也有人認爲其弊大于利。例如,這樣做會削弱醫生的權威性,並且可能激化不同群體之間的矛盾。
不過,雖然短期內會産生社會矛盾,但是長期來看它將造福于弱勢群體。
人與人之間的偏見固然存在,比起妄想它消失,采取行動去減少偏見更爲實際。
在尋求提高AI使用率的過程中,無論是在醫療衛生還是其他行業,強調不平等帶來的威脅似乎是一種不正規的手段。但是一般情況下,人們在接觸新技術時做不到完全理性。
有時候,一條未經探索的道路反而能夠通向一片新天地。
文章英文版原載于新加坡國立大學商學院官網BizBeat
原題爲The Hidden Side of the Threat of Inequality
作者:任啓智,新加坡國立大學商學院管理與組織系副教授
*本文觀點不代表新加坡國立大學商學院機構觀點