防走失,電梯直達安全島報人劉亞東A
來源:知識分子
作者:魏轶
劍橋大學生存風險研究中心執行主任 Seán S. ÓhÉigeartaigh。圖片:Mike Thornton,
www.stillvision.co.uk
6月初的一個下午,《知識分子》連線劍橋大學生存風險研究中心執行主任 Seán S. ÓhÉigeartaigh,和他聊了聊疫情中技術的運用和可能的隱憂,以及中美摩擦對于人工智能發展的影響。
ÓhÉigeartaigh 認爲,人工智能的發展在倫理上需要有全球共識,但要考慮並理解不同文化背景下技術的使用。人工智能的發展不是零和遊戲,只要能夠相互理解,就能找到折中的解決方案。他呼籲,當政治家相互謾罵,把對方當成敵人,學者更需努力分享知識和看法、把彼此當做朋友。
以下爲對話內容,全文近9000字,讀完需約20分鍾。
● ● ●
新冠疫情暴發以來,AI 影像診斷、智能測溫、防疫機器人等人工智能技術迅速投入應用,在防疫方面發揮了重要作用。但另一方面,這些技術的使用無可避免涉及隱私和安全問題。在人工智能産業飛速發展的今天,倫理專家們如何看待人工智能的道德風險?
劍橋大學生存風險研究中心(Centre for the Study of Existential Risk)執行主任 Seán S. ÓhÉigeartaigh 專注于研究技術軌迹以及人工智能和其他新興技術的影響。6月22日,他和同事在《自然》雜志發表評論文章,呼籲政府部門和專家重視新冠疫情中運用的人工智能技術的倫理問題[1]。大約在三年前,ÓhÉigeartaigh 與中國學界展開交流與合作,致力于推動人工智能倫理方面的國際合作共識。過去一兩年中他們多次參與並舉辦跨國交流的研討會,最近則上線了一個學術文件翻譯網站,將人工智能相關的中文論文翻譯成英文,以幫助世界了解中國的人工智能發展[2]。
最近,在家辦公的 ÓhÉigeartaigh 博士每天用一個學校開發的軟件上傳自己的健康狀態,並在線上參加學術會議。
1 在危機中允許信息共享,和以後常態化有本質區別
知識分子:在抗擊疫情的過程中,許多國家用科技追蹤和發現受感染個體。例如蘋果和谷歌在美國共同開發了一個追蹤系統,中國建立了健康碼體系,英國也開發了一個聯系人追蹤的軟件。這些技術應用涉及哪些可能的隱私問題?
ÓhÉigeartaigh:首先,不同國家的軟件使用方式不同,因此情況也不同。在有效控制疫情和保護隱私之間必定要做取舍。
英國采用的是中心化的信息收集方式(注:本文發表時,英國已宣布將其疫情監控軟件去中心化並取消聯系人追蹤功能)。一些防疫人員對這個系統很感興趣,覺得可以用來監測疫情。不過也有一些人擔心數據收集和中心化的問題,因爲英國政府有過沒管好數據的 “黑曆史”。最近幾年出現過一些像魔窟(WannaCry)[3] 這樣的病毒攻擊,有人擔心收集過多數據可能會不太安全。英國政府和隱私專家不斷溝通,也采取了很多方式同時確保App 的開發和管控,他們發布了一份長長的白皮書 [4] 來披露進展,也公開了源代碼以便于研究人員發現其中的漏洞。我認爲這些都是確保系統安全的非常好的措施。
韓國的 App 采集了位置信息和信用卡刷卡信息,能非常有效地幫助了解人口流動情況,幫助建立預測疾病傳播的模型。但同時很多敏感信息也存在了一個中心化的數據庫裏,要非常小心防範數據泄露。同時這也涉及隱私問題,人們真的希望保存那麽多關于自己的信息嗎?
蘋果和谷歌開發的 App 就受到很多關注隱私的技術專家的支持。有幾個原因,一是它收集的信息非常有限。它並不記錄位置信息,除了人和人之間的可能接觸,它不記錄其他任何形式的個人信息;其次,它采用非中心化的方式,數據沒有集中到一處管理,所以也不用擔心數據泄露或者被黑客盜走。
但另一方面,不收集數據,就意味著醫生們可能獲取不了一些有用信息。
根本上,這是一個不同國家和社會可能持有不同立場的取舍問題。疫情當然是個嚴重的問題,需要采取所有可能的方式來抗疫,挽救生命和減少經濟損失,這些應該是我們在倫理上優先需要考慮的。但我們也需要平衡收集多少信息,收集這些信息有多少用處,怎麽儲存這些信息。不同的社會和個人對此會有不同的偏好和接受程度。
知識分子:從倫理學上考慮,你對此有什麽建議?
ÓhÉigeartaigh:我認爲很難提出一個解決所有情況、在所有情形下都適用的建議。我們還要考慮很多其他因素。比如這個社會有哪些其他資源可以利用。人工的接觸者追蹤(manual contact tracing)可以和數字化的接觸者追蹤配合進行,這樣傳統的方式也能派上用場。
如果一個社會沒有的足夠資源做人工追蹤,就需要更多依賴數字化追蹤。那麽問題是,是否所有人都擁有智能手機?也許窮人沒有,或者老年人不知道怎麽用,他們就被排除在外了,我們也沒法很好了解整體情況。
在不同社會和情境裏,對信息的需求也不一樣。在英國目前疫情不是很嚴重,也許現在的方式已經足夠了。但如果疫情擴散得更快,也許就需要更強力的措施來獲取每一份能夠獲得的有用信息。
人們對數字基礎設施的安全性是否信任也很重要。我們是否相信數據儲存方和能夠獲取這些數據的公司?所有的參與方是否都采取了必要的安全措施?在大規模使用新技術時,這就是一件非常有挑戰性的事情。
知識分子:關于追蹤軟件隱私的討論之一是什麽時候棄用和銷毀這些收集的數據。在中國,一些地方政府已經提出要將健康碼常態化。如杭州政府想在健康碼中加入一些其他功能如醫療保險和社會信用評分。你如何看待這類提議?
ÓhÉigeartaigh:保留這些數據有一定好處,因爲它們能爲人們提供更好的健康保障服務,也許未來遇到疫情也會有用。在倫理和社會層面,這樣做都有益處。
但也確實應該擔心長期保留這些數據的情況。信息儲存越久,出錯的可能性就越大。因爲我們是人類,而人類總會犯錯的。
在危機中做出知情決策,允許信息共享以戰勝危機,這和從今往後都這樣做是有本質區別的。
補償性的道德考量非常重要。在危機中引入新技術時,有犧牲隱私的動機,我們不能在情況變化之後繼續把危機中的決定當做長期安排。一個例子是美國的行政緊急權力在危機時被引入,延續至今並被用在一些並非本意的地方。
如果數據共享的決定是個體做的,那麽每個個體有權決定是否爲了疫情而分享數據。如果有一項保留這些信息的計劃,那麽也許應該再問一下這個人,因爲情況已經變化了。如果是中央政府做出保留信息的決定,它就要解釋爲什麽,解釋倫理問題和確保數據安全。
倫理專家也會關注誰能獲得這些數據,在哪些情況下能獲得這些數據。對于中國的情況我不甚了解,但如果是在英國,健康部門和私企合作的話,一個重要的問題是這些私企是否能獲得數據?這些數據是否會幫助他們獲利,但同時侵害個人權益?
因此,我們必須問一些問題,例如數據如何存儲?人們是否同意在疫情之後還保留自己的數據?誰有權訪問這些數據?在什麽情況下他們可以使用這些數據?如果收集了有關我的信息,並(假設)記錄了我有心髒病的信息,未經我允許,這些信息便與保險公司或其他公司共享,讓我沒法上保險,我個人會覺得不適——除非我從一開始就知道提供數據會導致這種情況。
2
人工智能倫理和治理,重要的是在安全和保障等方面達成國際性共識
知識分子:我們是否需要建立一個人工智能倫理和治理的國際性共識?如果沒有這樣一個共識,人類社會可能面臨哪些風險?
ÓhÉigeartaigh:風險之一是我們可能會失去分享信息和互相學習的機會。比如現在我們有機會學習中國如何用數字技術抗疫, 因爲疫情在中國暴發得更早而政府的反應也更快,即使我們應對的方式不一樣,這也是學習的好機會。
在全球範圍內建立強大的信息共享文化非常重要,這樣我們可以彼此學習;許多數字技術都是全球性的,因此也需要建立一些共識:如果我們在一個國家發展某種技術,它也將影響到另一個國家。
想在所有問題上達成共識不太可能,因爲我們處于不同的文化和不同的國家,在價值觀和優先事項上存在差異。如果每個人關心不同的事物,沒道理要求每個人對所有事情都遵守完全相同的規則。某些國家或地區的人們非常關心隱私,但是卻不太關心可以使用技術實現的一些更有益的事情;有些人則沒那麽擔心隱私,那麽我覺得可以有差別。
重要的是在安全和保障等方面達成共識。這樣一來,如果英國開發出一個可以收集信息、存儲在英國的 APP,我們將其帶到中國或新加坡也不用擔心它的安全性或者信息泄漏。
最重要的是要有這樣的共識:人們會根據不同的文化價值觀采取不同的方法。我在和曾毅、劉哲討論時,發現在許多方面,我們在倫理上相互誤解。西方國家認爲中國的倫理原則(和西方)差異非常大,但實際上並沒有那麽大差異。因此,如果我們能減少彼此誤解的領域,就可以知道哪些情況下我們可以用稍微不同的方法處理,以及哪些事情上我們應該達成共識。
知識分子:有些人認爲文化差異會影響不同國家的人看待隱私的方式。你認爲文化不同是政府或地區間討論人工智能倫理産生沖突的主要原因嗎?爲什麽?
ÓhÉigeartaigh:(文化不同)難免會造成沖突,但這件事比我們想象中更細微和複雜。
有些觀點過于簡單化,比如認爲在中國,人們完全不關心數據隱私;認爲在美國和英國,大家非常關心隱私但不關心社會整體受益的情況。兩者都不太對,都太過簡化了。近年來中國出台了很多關于數據隱私和數據安全的規定,我在和北京智源人工智能研究院以及騰訊旗下的微衆銀行(WeBank)的交流中得知,很多缺乏隱私保護政策的 App 被下架了。中國的專家們也在關注和學習其他地區的法規,例如歐盟的 GDPR。他們沒有全盤照搬,因爲情況不同,只是從中獲得一些啓發。
話雖如此,不同文化背景的人確實有不同的哲學傳統,也對個人權利和社會整體受益的優先級有不同考量。即使在同一個國家裏,人們的態度也不一樣。比如在英國,有些人覺得政府對他們挺好,有些人覺得受到了不平等對待,因此不那麽信任政府。在美國情況也是如此,騷亂正在發生,因爲白人社群受到政府和警察機構的支持,而黑人社群沒有。這些社群在信任政府、健康服務和警察方面就會有很大不同。
即使在國家層面上談,也存在過度簡化的問題。人們和政府互動的曆史和社會規範都會影響他們希望如何使用人工智能,無論是在向政府提供什麽數據,還是如何使用機器人等問題上。
例如在日本,人們對于用機器人輔助老年人接受度很高,因爲日本有把機器人視爲友善之物的文化。如果是在英國,情況就會很不一樣。英國人重視人性化關愛,讓老年人和機器人互動會被視爲一種侮辱和輕視。這不僅僅是個技術問題,也是文化問題。無可避免。所有這些曆史和社會因素都會影響我們思考什麽樣的技術在特定時間是可接受的。
3 在中西交流與合作中,中國像是一面單面鏡
知識分子:你和曾毅、劉哲等人的論文提到不同地區、文化之間的信任缺失是人工智能倫理及治理實現國際合作的最大障礙。 科學家和政策制定者應該做些什麽來跨越這個障礙?
ÓhÉigeartaigh:有許多能做的事情。其中之一是使可能被技術應用影響的人參與到決策中來,這可以增加科學家和決策者與技術使用者們之間的信任。很多時候我們(決策者)犯錯是因爲在決定在一個地區,比如曼徹斯特,使用技術之前沒有充分了解這個城市的方方面面,所以不知道會有哪些後果。
美國正在司法領域應用人工智能,有些地方已經犯錯了,而這些錯誤是可以避免的。比如有的人臉識別系統在白人中識別能力總是高于其他人種,因爲訓練它的數據庫是白人大學生的照片。
讓使用這些技術的人參與到決策過程中,他們能指出測試的不准確之處,也會提升(對技術的)信任程度,因爲他們覺得自己的聲音在這個過程中被聽到了。這在技術發展中是個很重要的因素。
硅谷也正在意識到很多科技發展的決定是由並不完全代表美國的人做出的。他們也在學習引入不同文化背景的人參與開發受信任的技術。
如果是文化間和國家之間的技術合作,那麽最重要的是找到盡可能多的對話途徑。
寫疫情中的人工智能倫理論文時,我在和劉哲、曾毅討論的過程中學到很多,在訪問北京和參與工作坊的過程中也學到了許多。我們在文中建議多訪問交流,英國的學者們應該積極主持中國優秀學者的訪學計劃,反之亦然,以此促進理解技術在另一種社會背景下的使用。如果沒有這種交流,媒體有時會做錯誤的猜測。
如果我們不面對面交流,很可能會錯誤解讀對方的動機。我覺得這是現下一個非常實際的擔憂。美國媒體的主流敘事是美國要主導世界和技術,否則中國會主導世界和技術,其他的東西都圍繞著這個敘事展開,實際上誤解了美國和中國發展這些技術的真正原因。
美國的醫學人工智能科學家很可能不在乎美國是否主導世界和技術,他們只想挽救生命。同樣,如果有人在爲工廠制造人工智能設備,他們可能只是想提高工廠的效率和降低工作風險。這與“哪個國家在領跑”毫無關聯。
還有一個建議是多做一些翻譯工作。中國像一面單面鏡,中國學者對歐洲和美國的人工智能研究工作非常關注,而我們很無知,不知道(中國)有哪些學術思考,一部分也許是因爲我們不夠努力,一部分是因爲很多中國人會說英語,看得懂英文文獻,而美國和歐洲只有少數人能讀懂中文論文。
我和曾毅一起翻譯了一些中英文文獻,以高質量的翻譯保證准確的信息傳遞,促進互相理解。我們這周早些時候剛剛上線一個網站,目前還只有少量文章,但我們希望能繼續做這件事。翻譯的文件裏包括《北京人工智能共識》。這對我很有幫助,通過它(翻譯)我能真正理解(中國)專家表達的意思。我希望能和中國學者以及英文學者在對等的水平上進行討論。這也是一個有關尊重的問題。
知識分子:人工智能倫理方面,有哪些國際上已經達成的基本共識?有哪些仍在激辯中?
ÓhÉigeartaigh:美國電機電子工程師學會(IEEE)、聯合國(UN)、經合組織(OECD)和國際標准化組織(ISO)等國際組織都出台或者在討論人工智能倫理的標准,美國、歐盟和中國也都出台了自己的規範。目前沒有一個單個文本是公認的全球基本共識,但我認爲已經有一個比較松散的共識,關于哪些東西需要納入倫理規則的學術討論。已有的文本中已經存在許多共識,這也是個好的迹象。
我們在英國和歐洲語境裏做的一個研究是關于原則之間的沖突。原則本身是好的,但是有時候它們會互相排斥,比如一個使用人工智能助益社會的原則會和一個保護隱私的原則沖突。有趣的是當你把這些原則放到實踐中,想要形成一本人人認同的全球性指南,那會是個大錯誤,原因我們在上文討論過。這些國家面臨不同境遇和挑戰,人民也有不同的期望和道德標准。
所以我覺得有一個比較軟性的倫理共識是比較好的。接下來幾年中,我們會更多了解不同文化如何平衡這些原則。
4
人工智能促進社會發展令人期待,但要注意公平和代表性
知識分子:隱私問題外,人工智能技術的很多方面都有倫理問題,一些已經出現的短期問題包括歧視和安全,一些長期的新問題包括社會規則和法律體系的改變。目前最緊要最需要解決的是哪些問題?爲什麽?
ÓhÉigeartaigh:一個重要的問題是公平和代表性。人們寄望人工智能促進社會發展,但是如果不精心規劃,它給社會中某些人帶來的收益可能會比其他人多很多。一些群體比另一些群體有更大的決策話語權。重要的是認識人工智能如何影響整個社會,並確保它公平地使每個人受益,而不是不成比例地只給一個群體帶來收益。要確保人們不因此陷入弱勢地位,比如因爲機器沒有正確識別出他們的臉,又或是因爲他們沒有智能手機或者基礎設施。
人工智能如何影響就業會是一個非常有趣的問題。Frey、Osborne [5] 的著名論文探討這個問題,李開複 [6] 也寫了很多文章討論有哪些工作將會自動化。我們還不知道答案,但應該思考人工智能會不會在特定領域導致一些職業變得更加稀缺。比如,如果一個工人或醫生現在的工作量是的過去10倍,他們未來是會做得更多,還是變得無事可幹?
我們常常擔心技術會讓人失業,但是技術也會創造出新的工作。人工智能可能也是這樣,也會創造出新的職位。但要過多久才能創造出新的工作?如果很多工作在短時間內被自動化取代了,社會就面臨動蕩,因爲創造新的工作需要更多時間。如果新工作出現舊工作消失,失業的人是否有足夠的訓練來進入新的工作?他們的技能符合新工作的需要嗎?如果舊工作是重複性的手工勞作,而新工作與技術有關,那麽就需要大量的訓練。
這些都沒有答案。我並不是說人工智能讓人失業就是不好的,但我們需要注意到這些,並且確保我們關注發生了什麽,哪些行業可能會被影響,以及我們如何幫助那些可能需要轉換工作方式的人。
另外,理解人工智能系統如何運行非常重要。如果我們用這些系統來幫我們做決定,來幫我們在不同情境下解讀數據,理解這些系統的局限性在哪裏就非常重要。
例如,在醫院裏使用人工智能,它基于一個人肺部的片子給了建議,那麽醫生就要能夠理解它是怎麽給出這個建議的,這種分析的原理是什麽,有哪些情況人工智能系統可能會做出錯誤的判斷。
這個問題在一些領域已經浮現。例如在航空産業,飛行員並不清楚應該在多大程度上依賴自動飛行駕駛系統。自動系統有時候會做一些難以預料的事情,飛行員這時應該介入。我們在開始用人工智能系統的時候,要確保用人工智能輔助做決定的人理解系統是如何運行的,有哪些結論,有哪些內生的假設。
法律上,關于責任判定的問題非常重要,而我們還在探究和解答中。如果一輛自動駕駛汽車出了車禍,是車內的人類駕駛員的錯,還是車輛制造商的錯?或是這輛車內安裝的神經網絡系統的設計師的錯?該在什麽樣的情況下判定爲誰的錯呢?問題非常多。同樣,如果一個醫療推薦系統犯了錯,誰應該承擔責任也是個非常有挑戰性也是非常重要的問題。
有趣的問題是,哪些情境下使用人工智能是可接受的。在哪些情形下我們真的需要它們?人工智能應該被用于罪案調查或戰爭嗎?對此有很多討論,中國是很多反對的國家之一,而美國目前並不反對。一些軍事倫理理論認爲,一台機器不應該獲取做出能殺死人類的決定的權力,不過這其中有很多複雜問題。如果一個人工智能系統給士兵提了一個建議,而士兵做決定,這可行嗎?如果因爲事情發展的太快,這個士兵需要馬上反應而他並不了解爲什麽人工智能給出了這個建議,有時間讓他思考嗎?會有很多需要解答的問題。
5 等著法律追上技術的腳步,會産生太多問題
知識分子:在一些國家,立法的滯後導致一些人工智能應用未經倫理審核就進入使用。這種情況在近年來愈加頻繁。對此您有什麽看法?這會帶來哪些風險?國際共識能改善這個局面嗎?
ÓhÉigeartaigh:引進新技術時,如果現有法律並不能很好地適應新的情況,會出現一些我們沒有探索過的灰色地帶。通常,在法律更新換代的過程中,技術社區不免會犯一些錯。我比較擔心的事情之一是如果犯了太多錯,人們對于技術的信任會隨之減弱,大家會對人工智能在很多情境下的使用産生疑慮。
所以在發展技術的過程中,不僅科學家需要參與,法律、倫理和社會科學學者也應該參與每個步驟,提供一些預見性,真正思考這些技術將會被應用在哪些情境裏,有哪些犯錯的可能性,有哪些沒有預計到的後果。如果我們在英國的社會情境下發展了這項技術,再應用到其他國家,會有哪些可能在那個國家産生的新問題?
有許多這樣的問題,而我們需要在發展技術時的每一步都主動思考,在推廣技術之前考慮清楚。光是等著法律來追上技術的腳步,而在過程中不斷犯錯,這會産生太多的問題。
6 特朗普把中國當敵人,對人工智能發展無益
知識分子:你如何看待中國的人工智能倫理的發展?你觀察到哪些進步和不足?
ÓhÉigeartaigh:對中國的情況我了解的不多。我對一些中國的倫理學者和研究機構印象深刻。例如中國最大的互聯網公司之一騰訊幾年前曾出版過一本關于人工智能的書,這本書的研究深度讓我印象深刻。他們不僅列出了世界各地的情況,還比較了這些信息。相比歐美學者對中國的了解,一些中國的倫理學者對歐洲和美國的倫理學情況有相對更深入的了解。像《北京人工智能共識》這樣的文件非常成熟,也給了我信心。
中國在數據保護上的有力措施以及其受到的外來影響,我也非常驚訝。我一直有種錯誤的印象,隱私對中國好像不是很重要。但各種 App 因隱私政策被禁,一些公司也被要求改變隱私政策,這些都是積極的變化。
中國學者在聯合國和世衛組織等國際機構和國際電信聯盟(ITU)等國際會議裏也逐漸更有主導地位,這也非常棒。
全球而言,我們需要注意推廣技術的速度以及如何使大衆參與到技術的發展和使用中。中國發展技術的速度非常令人驚歎,但它確實帶來一些擔憂,在技術發展過快的時候,有可能我們會犯一些錯誤或無法給機構和社會提供足夠的信息。
中國是有著10億多人口的國家,有許許多多不同的聲音和看法需要被納入這些過程。也許這已經在發生了。但當技術發展得過快,留給這個過程的時間就很少了。我的中國同事也許可以給出更多這方面中國如何做得更好的建議,和他們合作給了我很大的信心,我也非常願意看到更多的進展。
知識分子:中美關系逐漸緊張,是否會如何影響人工智能的發展,尤其是人工智能倫理共識的發展?
ÓhÉigeartaigh:我對此非常擔憂。我原本不太願意評論政治人物,但我完全不介意批評像特朗普總統這樣的人物的言論。他所說的非常無益。我看了非常生氣且灰心。他用一些非常敵對的語言和敘述針對中國和其他國家,尤其把中國當做敵人。我想很多時候,這是從美國本土轉移注意力的方式。但對人工智能産業來說,政治會是更大的問題,會影響人工智能技術和倫理。
我提到過信息分享以及在其他國家訪學、學術交流的重要性。但假如美國拒簽中國學者的簽證,我們如何進行信息共享呢?我擔心這樣的手段帶來反效果,讓雙方的互相理解更加困難,也阻礙了信息共享。如果國家領導人倡導的敘事是來自另一個文化的人們是敵人,那麽合作會變得非常困難。
最重要的是要認識到我們都是人類,有相似的關照和原則。也許我們情況不同,偏好也不同,使用人工智能的方式也不同。但只要我們互相理解,就能找到折中的解決方案。但如果每天媒體上的敘事都是某些人需要贏得這場比賽,或是這是文化和理念之間的鬥爭,那麽找到共同的立足點來互相理解會更加困難。
學界有更重要的角色。盡管政治家互相謾罵,作爲學者,我們應遵循學術的基本理念,分享知識和看法。
如果政治家們把對方當做敵人,那麽學者分享知識和把彼此當做朋友的努力就顯得更加重要。
參考資料:
[1] https://www.baai.ac.cn/research/translation-series-on-ai-ethics-en
[2] https://www.nature.com/articles/s42256-020-0195-0
[3] 魔窟(WannaCry)是一種利用NSA的“永恒之藍”(EternalBlue)漏洞,透過互聯網對全球運行Microsoft Windows操作系統的計算機進行攻擊的加密型勒索軟件兼蠕蟲病毒。
https://www.antiy.com/response/Antiy_Wannacry_FAQ3.html
[4] 英國政府的白皮書:https://www.gov.uk/government/consultations/online-harms-white-paper
[5]THE FUTURE OF EMPLOYMENT: HOW SUSCEPTIBLE ARE JOBS TO COMPUTERISATION?, Carl Benedikt Frey and Michael A. Osborne, 2013, https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf
[6] How to Prepare for AI Job Displacement, Kai Fu Lee, 2018, https://medium.com/@kaifulee/10-jobs-that-are-safe-in-an-ai-world-ec4c45523f4f