全文共3001字,預計學習時長9分鍾
剛開始,FaceApp的爆紅似乎並沒有什麽異樣,直到一些心懷疑慮的互聯網調查員發現軟件提供商爲俄方公司,事情有了新的走向。
民衆一瞬間沸騰起來,社交平台、網絡論壇無不充斥著人們的焦慮感:這些俄羅斯人是誰?爲什麽想要我們的臉部照片?他們會怎樣利用收集的數據?一些新聞媒體主播就此提醒廣大民衆;還有一位民主黨人士呼籲(有關部門)對此展開調查。全國上下所有人內心都有這麽個疑問——令人不安的俄方情報機構是否在非法利用他們的面部信息來完善本國的人臉識別程序?
而事實證明,FaceApp供應商與俄政府之間的聯系被誇大了,其實什麽都沒有。據《華盛頓郵報》的一項調查報告顯示,該公司與國際情報組織沒有交集,也不會給非法監視組織提供信息資源,目前也並沒有用存儲的照片來升級改造什麽人臉識別系統。整件事下來就是對數據的小題大做。
但這樣的騷動並不意外。人們對許多看似有趣方便且有利用價值的網絡服務都相繼産生擔憂,而FaceApp的窘境不過是最近剛發生的。人們想知道,這種自動給臉書上照片貼標簽排隊的技術會讓公司了解他們的個人信息並跟蹤利用他們嗎?在顧客走進一家免付款(cashier-less)亞馬遜商店時,零售商會利用收集的監控錄像對付顧客嗎?
人們對此通常是無法感知的——而這就是問題所在。所以背後引發的一個問題就是:當下AI程序到底會用人類面孔做什麽?有多少的恐懼是來源于傳言,而非擺在面前的事實?技術的力量是否讓人類的擔憂不斷增多?
我們來一起想想這個問題。
來源:detail.zol.com.cn
人臉識別可以(或不能)做什麽?
與觀衆追的所有間諜劇劇情不同的是,FRT很少會立即反饋准確的信息,在環境複雜時亦如此。說政府會通過街道上不清晰的監控片段在幾秒內找到目標人物的說法實屬誇張。
但人臉識別監控的確有可能實現,所要面臨的無非是精確度低和各種環境因素問題。相機質量、計算程序、時間、距離、數據庫大小甚至包括人口學中的種族和性別都會影響FRT搜索的最終效果。
筆者記得很清楚,2018年美國公民自由聯盟(ACLU)組織進行了一項測試,其結果顯示亞馬遜平台的人臉識別系統Rekognition錯誤地將28名國會成員與警方存底的嫌犯照片進行了匹配。
另一項由麻省理工媒體實驗室(MIT Media Lab)發起的調查顯示亞馬遜識別系統還在苦苦掙紮于性別的識別,有19%的可能性會將女性誤認爲男性,有超過1/3的可能性會將膚色較深的女性誤判爲男性。而亞馬遜將一切的誤差都歸咎于低校准度。
亞馬遜的說法也不爲過,至少還是占點理的。畢竟研究人員發現臉書的識別系統比FBI還准確,因爲社交平台上有相當多的照片可供參考,同時還會主動要求用戶驗證其相片從而完善算法。人們因此會對Rekognition産生誤解,當然所有的FRT軟件都免不了遭受質疑:這些軟件能做到的程度只取決于其照片參考量。
來源:Pexels
現在領悟到什麽了嗎?
下一次有照片過濾器、網上遊戲或數字趨勢蔓延開來,系好安全帶把自己拴緊,考慮一下要不要跻身潮流。
哪怕覺得自己的自拍會以數字或文字形式隱匿于某西伯利亞的服務器,也要想著會有人利用它。
就像國內ZAO的橫空出世,地下灰色産業逐漸浮出水面一般,在掀起病毒式恐慌之前,人們永遠不會意識到問題有多嚴重。。
沒有危機意識的你,也許只有在看毛片黃圖時,意外發現自己的臉後,才會感到恐慌和危險。
留言點贊關注
我們一起分享AI學習與發展的幹貨
如轉載,請後台留言,遵守轉載規範



