不久前,職業社交網絡平台領英發布了一款公平工具包——一個開源軟件庫,其他公司可以用它來測量自己公司的人工智能(AI)模型的公平性。這是幫助企業和政府試圖解決公平性問題的又一次嘗試。
谷歌也在其網站上列出了一些偏見審查的提示,並附上了相關主題研究論文的連結。
新加坡已經有了人工智能治理框架模型,該模型爲如何將公平和透明轉化爲實踐提供建議,例如,讓利益相關方了解人工智能政策;歐盟也設有關于信賴人工智能的道德准則。
人工智能日漸普及,不過,依然有人對其感到不安。
在英國,人們根據學生曆史成績,利用算法來預測A水准考試的成績。結果很多學生的成績下降,尤其是出身于貧困學校的學生。
人工智能的使用本是爲了減少教師在預測學生成績時的偏見,但是卻産生了新的偏見。
算法能夠從給定的數據中學習。因而,如果數據存在偏差,結果也會出現誤差。
今年早些時候,底特律警方錯誤逮捕了一名非洲裔美國人,原因是AI面部識別系統錯誤地將他認定爲搶劫嫌疑犯。
面對這些事件,人們不禁要問:算法的結果都是公平可信的嗎?
正因如此,采用人工智能的企業有必要建立信任。
研究表明,當人們認爲自己受到公平對待時,他們更願意合作,並且表現得更優秀。同樣,如果人們相信人工智能能夠確保公平,他們就更願意接受算法的建議。
教授簡介
掃碼查看
英文簡介
David De Cremer
新加坡國立大學商學院管理與組織系
教務長講席教授
人工智能技術與人性化管理研究中心
(AiTH)主任
英國·南安普敦大學博士
教研領域:21世紀領導力、商業資産信用、國際商業環境的行爲方式、組織正義、商業倫理行爲、數字經濟和人工智能時代領導力等
那麽,在推進人工智能應用的過程中,政府和相關企業應該如何向用戶傳達人工智能會保持公正呢?
對于這一點,不能簡單地像對待技術問題那樣,分解爲幾個層面,如可問責性和可解釋性,然後尋找正確的答案。
公平,是一個社會概念,它關系到人們如何與他人互動,讓大家都變得更好。這裏的重點在于更重要的事業。
因此,如果我們想了解算法的公平性,需要超越其技術層面,考慮到社會的影響。而且一個重要的方面在于,觀察人工智能在協助人類合作完成更高層次的任務上表現如何。
人與AI缺一不可
因此,人工智能系統的公平與否不應當僅僅由數據工程師和數據科學家團隊決定。政府、公司和機構同樣需要考慮利益相關者和最終使用方的感受。
他們是否感覺到自己被公平對待?他們對公平的期望是什麽?
由于人工智能不具備道德品質,因此還需要人爲去評估人工智能提出的解決方案在社會背景下是否公平。這一現實意味著我們需要了解社會規範,並具備較高道德價值的人。
當然,人們都有自己的偏見,但研究表明在評價他人的決定時,人們不太可能會帶有偏見。在這方面,無論是在學校,還是工作場所,這一“道德指南針”的作用再重要不過。
人文關懷
由于人工智能的公平性比簡單尋找技術解決方案更爲複雜,因此算法的發展也需要更具人性化的方法。
與其尋找最優、最合理的算法,不妨在追求效用與人文關懷之間尋求一個平衡,這樣才能讓人們接受人工智能,並信任它的公平性。
人類沒有固定的生産效率;我們可能會在短期效率爆發,會在特定環境下做得更好,我們也會因爲家事憂傷,或者因適應生活中的新變化花費更多時間。
受新冠疫情的影響,許多家庭被迫適應與家人長期分離的生活。有的家長忙于兼顧自己居家辦公,同時要照顧孩子在家學習;有的醫療工作者糾結于是否要把孩子寄養到親戚家,否則的話,繼續住在一起就要冒著把新冠病毒傳染給他們的風險。
雖然人工智能可以提供最佳資源分配和工作流程管理,但我們需要緩沖,因爲人類時常會需要幫助,在社會中的我們都需要牢記這一點。
最終,判斷人工智能系統是否公平取決于最終使用者。
系統的技術水平並不重要,人們主要根據自身如何看待算法生成解決方案,以及這些結果與自身價值相符程度來判斷其公平性。
這意味著數據科學家和工程師在建立系統時必須牢記這些價值觀。例如,如果一家公司注重對少數群體的包容性,那麽這些群體的數據應該包括在內,而不是視作數據異常。
出于這個原因,最終人們評判的是公司是否公平,而非算法。事實上,在人們的眼中算法並非道德敏感體(它只是個機器),因此,不能對其生成的解決方案的計算負責。
相反,機構和政府由人類領導,需要對他們的決策負責,其中包括對人工智能系統的應用。
我們需要領導者明確他們的價值觀,並考慮到人們面臨模型輸出結果時的信息需求和期望。
只有這樣,人們才會更加信任人工智能。
文章英文版原載于The Business Times,點擊左下角“閱讀原文”網站
原題爲:For people to trust AI, build fairness into it
作者:David De Cremer,新加坡國立大學商學院管理與組織系教務長講席教授
翻譯:汪青青
*本文觀點不代表新加坡國立大學商學院機構觀點