文│複旦大學美國研究中心 汪曉風 林美麗
網絡恐怖主義是互聯網發展和國際恐怖主義演變融合互動的産物。恐怖分子或活躍于網絡社交媒體,宣揚恐怖理念和傳播恐怖信息,或利用媒體分享發布恐襲視頻和恐怖畫面,或隱身于遊戲空間進行秘密聯絡和策劃恐襲行動。網絡恐怖主義利用網絡空間的開放性和隱蔽性拓展活動空間。爲遏止網絡恐怖主義威脅蔓延,各國政府和國際社會加強合作,利用新科技手段發現、跟蹤恐怖組織和恐怖分子,協同阻止和打擊恐怖活動,人工智能技術以其獨特優勢得到越來越廣泛的應用。與此同時,人工智能在網絡恐怖主義防控中暴露出來的合法性、公平性、隱私保護等倫理問題,也值得關注。
一、人工智能在網絡恐怖主義防控中的應用
隨著人工智能技術發展和應用的成熟,尤其是神經網絡、深度學習和強化學習等算法的發展帶來人臉識別、語音識別、特征分析等領域效率大幅提升,世界各國越來越多將人工智能應用于網絡恐怖主義防控。
(一)人工智能應對網絡恐怖主義的適用性
網絡恐怖主義根植于網絡空間,具有運行的網絡依賴性和活動的網絡隱秘性等特性,而人工智能技術的應用能夠大大提升網絡恐怖主義防控的准確性和有效性。
第一,網絡依賴性是人工智能用于識別和跟蹤網絡恐怖活動的基礎。網絡恐怖活動主要通過互聯網進行,無論是在社交媒體公開傳播恐怖信息和宣揚恐怖理念,還是在暗網平台隱秘地組織聯絡和策劃恐怖活動,這種網絡依賴性是網絡恐怖主義的重要特征。對恐怖分子或恐怖組織而言,互聯網信息傳播效率高、受衆廣泛,可爲其盡可能擴大恐怖理念和恐慌心理的覆蓋面提供便利。互聯網聯絡方式多樣、交流迅速,使網絡恐怖組織指揮控制分布在不同地理位置甚至全球各地的分支機構成爲可能。互聯網資金和物流服務的便捷性,也成爲恐怖組織維持日常運轉的重要依托。人工智能技術則能夠利用網絡恐怖行爲的這種網絡依賴性,迅速准確地在海量信息中識別出恐怖組織、恐怖分子和恐怖活動的信息,大幅提升了網絡恐怖主義防控能力和效果。
第二,網絡恐怖活動的隱蔽性和迷惑性是人工智能技術應用的優勢。網絡恐怖主義的信息傳播往往通過其支持者進行,真正的恐怖分子尤其是重要成員並不直接在網絡上展示真實身份。例如,印度推特(Twitter)博主邁赫迪·比斯瓦斯(MehdiBiswas)曾運營一個推特賬號,發布與“伊斯蘭國”恐怖組織有關的推文,吸引了大量恐怖主義分子和支持者,但是,比斯瓦斯本人並非恐怖分子,與“伊斯蘭國”恐怖組織也沒有直接聯系。因此,僅靠政府部門或網絡平台人工審查,難以從數量巨大的網絡用戶和紛繁複雜的網絡信息中識別和跟蹤網絡恐怖主義活動。人工智能技術在處理海量、動態、複雜、隱秘和迷惑性數據信息方面很有優勢,尤其適合于利用面部、體型、聲音等個性特征准確識別和跟蹤特定人員,可通過算法訓練以檢測網絡活動的異常情況,從而提供全面和動態的攻防屏障。
第三,人工智能技術有助于提升防控網絡恐怖主義行爲的效率。人工智能的發展源于一個共識,即人類的智能可以被定義爲一種機器可以模仿並執行的任務,從最簡單的識別到複雜的推理。就網絡恐怖主義防控而言,無論發現隱身于網絡用戶中的恐怖分子,還是判斷網絡言論屬于自由表達還是恐怖傳播,或是評估網絡行爲中的恐怖活動迹象,都涉及大量專業性、技術性的識別、分析和推理工作。人工智能的優勢在于能夠通過大規模模型運算,不斷優化並形成最有可能實現特定目標的方案,這種通過大規模運算提出解決方案的能力是人力無法比擬的,而且人工智能更擅長從已有成功案例中學習並提出更優解決方案,爲構建應對網絡恐怖主義的專家系統和預警平台提供支撐。
(二)人工智能應對網絡恐怖主義的實踐
網絡恐怖主義依托網絡空間快速發展,從“基地”組織通過聊天室與支持者聯系、在優兔(YouTube)上發布斬首視頻,到“伊斯蘭國”恐怖組織通過臉書(Facebook)和推特公開招募新成員,在 2015 年前後達到“鼎盛”階段。在國際社會合力打擊下,恐怖組織的有形存在基本被清除,恐怖活動的傳播鏈條被切斷,恐怖組織的網絡公開活動大大縮減。在這個過程中,人工智能發揮了重要作用。
第一,各國政府積極將人工智能技術運用于網絡恐怖主義防控。面對網絡恐怖主義威脅,各國政府公共安全和反恐部門積極建立人工智能應用系統,識別、跟蹤、清除和阻擊恐怖主義分子和恐怖活動。英國政府將清除網絡恐怖主義宣傳和傳播作爲重要反恐目標,通過與科技公司合作開發人工智能預測系統,應用面部特征識別算法,能夠在互聯網上識別出大約 94% 與“伊斯蘭國”恐怖組織相關的恐怖視頻。美國國家安全局利用機器學習開發“天網”(SKYNET)系統,通過分析通信數據,提取潛在涉恐信息,評估網絡恐怖主義活動風險。美國國土安全部開發了一套生物特征識別視覺監控系統,該系統通過深度學習算法在掃描人群後根據面部自動識別和定位跟蹤。泰國政府采用面部識別與語音識別技術,打擊泰南三府穆斯林分離主義分子在社交媒體上散布虛假信息、在公衆與政府之間制造對立的活動。
第二,人工智能應對網絡恐怖主義的國際合作不斷展開。聯合國積極倡導和推動成員國之間的技術合作和經驗分享,通過其反恐怖主義辦公室(UNOCT)、毒品和犯罪問題辦公室(UNODC)、區域間犯罪和司法研究所(UNICRI)等機構實體和國際電信聯盟(ITU)等專門機構,爲人工智能技術在反恐合作的適用性和具體路徑提供指導。聯合國反恐怖主義辦公室認爲,應用深度學習算法,提升識別圖像、語音和視頻能力,將大大提升應對網絡恐怖主義的有效性。國家間的合作也在不斷展開,例如美國和韓國共同研究和開發人工智能技術,攜手打擊網絡恐怖主義。2016 年 5 月,韓國未來創造科學部副部長崔在裕在與到訪的美國國土安全部副部長雷金納德·布拉澤斯(Reginald Brothers)就聯合研發人工智能技術、探測黑客攻擊風險威脅及應對網絡恐怖活動等議題達成合作意向,表示將在人工智能領域加強合作,全面提升應對網絡恐怖主義威脅的管理與處置能力。
第三,互聯網運營企業提升人工智能應用水平。網絡平台是網絡恐怖主義的活動場所,互聯網運營企業的參與對于識別、跟蹤和阻斷網絡恐怖活動至關重要。2016 年 6 月,臉書推出一個“線上公民勇氣倡議”(Online Civil Courage Initiative)項目,爲政府部門、公民社會和行業領袖提供打擊在線仇恨言論、極端主義和種族主義所需的技術支持。2019 年 3 月,新西蘭克賴斯特徹奇(Christchurch)發生恐怖槍擊案,嫌犯在行凶的同時還打開臉書進行直播,時長達 17 分鍾。直到接到警方通知後,臉書才進行幹預,中斷直播並關閉了嫌犯賬戶。該事件促使臉書等網絡平台采取更有效的措施對抗網絡恐怖主義行爲,而其中一項措施就是增加人工智能技術應用,以便更迅速地辨認網絡恐怖主義相關的圖像、視頻、文字以及假賬戶。谷歌于 2011 年啓動了一個“谷歌大腦”項目,研究領域涉及機器智能、機器感知、自然語言處理等,其目標是在人工智能領域開發可實現人腦功能的方法和應用,該項目研究爲谷歌將語音識別、圖像識別、語義分析等功能與網絡反恐相結合提供了支持。
此外,國際組織和科技企業也加強了應對網絡恐怖主義的合作。2016 年 12 月,臉書、微軟、推特和優兔等互聯網企業承諾合作創建一個“行業共享哈希數據庫”(Shared Industry HashDatabase),用于存儲恐怖分子圖像和恐怖組織招募成員的視頻或圖像,這些內容是這些企業在提供服務時識別出來並刪除的,通過共享這些信息的哈希值,網絡運營企業可以直接阻止已知恐怖主義內容的發布和傳播。2017 年,這四家企業在行業共享哈希數據庫基礎上,發起成立“全球網絡反恐論壇”(Global Internet Forum to Counter Terrorism),旨在促進技術合作,共享反恐信息,防止恐怖分子和暴力極端分子利用網絡平台進行恐怖活動。論壇活動得到了國際社會、學術界和産業界的大力支持,聯合國和歐盟等國際組織、美國和英國等國政府、斯坦福大學和惠普公司等私營部門擔任論壇獨立咨詢委員會成員,促進國際社會共同努力,加強技術協作,促進學術研究,合作抵制網絡恐怖主義勢力的擴張。
二、網絡恐怖主義防控中的人工智能倫理問題
盡管預防和打擊網絡恐怖主義擁有很強的道義正當性,但是,人工智能技術和應用倫理問題仍不會消除,並隨著人工智能在網絡恐怖主義防控中廣泛使用而變得日益突出。
(一)人工智能應用對“無罪推定”法律原則構成挑戰
無論是響應政府要求,還是自主決定,將人工智能技術應用于防控網絡恐怖主義,都需要在目標網絡平台上部署數據搜集和監控系統,對特定網絡用戶的基本信息和活動信息進行跟蹤和分析,以發現潛藏的網絡恐怖行爲,這是防控網絡恐怖主義的基本模式。建立這種監控模式的前提是這一群人都有嫌疑,或假定恐怖分子就潛藏于設定的監控目標中間。
事實顯然並非如此。按照現行各國法律,絕大多數網絡平台用戶及其活動都正當合法,普遍以“無罪推定”爲立法前提。聯合國《公民權利和政治權利國際公約》及《世界人權宣言》都確立了這一原則。故此,人工智能在應對網絡恐怖主義中的廣泛使用,無論是通過賬號擁有者的地理來源和生物特征,還是依據發布內容和活動規律識別或跟蹤嫌疑人,一定程度上都構成了對這一法律原則的挑戰。
(二)人工智能識別和跟蹤恐怖分子時存在歧視與偏見
人工智能分析和判斷能力取決于被訓練數據集的可靠性,即被用于算法優化的數據本身必須是真實和無偏見的。如果在獲取訓練數據過程中就加入了種族、年齡、職業和性別偏見,那麽通過人工智能算法形成的重要決策,也必然會産生不道德或不公平的後果。聯合國反恐辦公室曾在 2021年 6 月發布一份名爲《應用人工智能反擊在線恐怖主義》(Countering Terrorism Online with ArtificialIntelligence)的報告,表達了對此的擔憂,“人工智能算法能夠適應不同的設定模式進行分析和判斷,但不能理解和適應不斷變化的世界。”人工智能系統往往將特定人種和種族的人員標記爲較高的風險等級,例如,美國法院系統會使用一款名爲 COMPAS 的量刑輔助系統,幫助法官對被告和罪犯的保釋金額、判刑等做出決策。但是,研究者發現,該系統傾向于裁定黑人被告比白人被告更有可能是慣犯。反過來,技術人員也會專門針對人種和族裔特征改進算法,例如增強對特定地區或宗教團體中留胡子和戴面紗人臉的識別率。
性別也是網絡恐怖主義防控中人工智能倫理值得關注的問題。聯合國教科文組織與由國際電信聯盟和聯合國婦女署發起的 EQUALS 項目共同發出一項建議,即通過建立機制和記錄證據應對人工智能應用中的性別歧視問題,確定性別偏見的風險,找到解決或預防性別歧視的方法。該建議鼓勵創建信息代碼和協議,用于開發具有性別敏感性的數字助手人工智能系統,以對用戶的性別做出公正的響應。
(三)算法偏差和黑盒子特性降低防控措施的可信度
可信任人工智能系統的一個重要特性是不能出現算法偏差,這是確保決策公平的前提。然而,算法決策在很多時候其實就是一種預測,是以過去的數據預測未來的趨勢。算法模型和數據輸入決定預測結果,這兩個要素也就成爲算法歧視的主要來源。這種偏差可能是群體歧視,即同一算法對不同群體給出不同的結果,也可能是個體偏差,即對不同樣本之間的差異性結果。當通過人工智能識別網絡恐怖分子和預測網絡恐怖活動時,算法偏差將導致決策失誤,或者將注意力放在無辜者身上,放過了真正的恐怖分子,甚至錯過應對網絡恐怖活動的最佳時機。
人工智能系統開發者和使用者對系統原理的理解總會存在差異,尤其是開發者出于保護知識産權或技術機密的原因,並不會將核心算法和關鍵技術全部提供給使用者。此外,當前人工智能決策所倚重的深度學習是典型的“黑箱”算法,連設計者可能都不知道算法如何決策,要在系統中發現是否存在偏差或偏差的來源,在技術上是比較困難的。這種黑盒子特性在人工智能系統中普遍存在,更增加了使用者在得到系統提供方案時進行自主決策的難度。
(四)算法規則一致性不足對國際合作構成挑戰
目前,尚不存在各方認可的國際人工智能倫理規範,更談不上識別和跟蹤網絡恐怖分子、阻止和對抗網絡恐怖主義的技術標准和行爲規範。各國反恐部門開發或采購不同的人工智能算法,在應用時基于各自設定的規則,從而帶來以人工智能系統爲依據判定網絡恐怖主義分子和網絡恐怖活動的差別。這種規則一致性的缺失不僅會造成網絡恐怖主義防控工作中的偏差,更重要的是會對各國政府、國際組織及網絡平台之間的反恐合作造成障礙。
算法規則往往是認知水平和價值偏好的技術表達。2021 年 11 月,聯合國教科文組織通過的《人工智能倫理問題建議書》(Recommendation on theEthics of Artificial Intelligence)指出,“在人工智能技術的倫理和監管方面,目前存在許多國家政策以及由聯合國相關實體、政府間組織和由私營部門、專業組織、非政府組織和科學界制定的框架和倡議”,多樣化的倫理和監管框架將導致國家間依賴人工智能系統的反恐政策和行動無法兼容,聯合國建議書也鼓勵會員國根據應用領域的敏感程度等因素,進行人工智能系統認證機制的相互承認。
(五)網絡恐怖分子試圖利用人工智能進行攻防對抗
隨著人工智能在識別網絡恐怖分子和跟蹤網絡恐怖活動中顯現出優勢,網絡恐怖組織也開始提升對抗能力,特別針對人工智能算法和應用特性,發展出基于人工智能的反識別和反跟蹤技術。如何防止人工智能技術落入網絡恐怖分子手中,也就成爲人工智能倫理關注的問題。
顯然,人工智能技術對網絡恐怖分子也是開放的,隨著基于人工智能的圖像識別、語義分析、特征識別、行爲預測等應用在網絡恐怖主義防控中大顯身手,網絡恐怖組織也試圖利用或針對這些算法、技術和應用進行對抗,例如,通過深度僞造拼接合成虛擬頭像,利用生成式對抗網絡管理逃脫平台智能審核的賬戶,針對模式識別算法改變恐怖組織成員在社交媒體上的關聯關系以阻止社會工程學的跟蹤,利用病毒式傳播在社交媒體上發布恐怖信息和進行意識形態宣傳等。
三、網絡恐怖主義防控的人工智能倫理規則探索及爭議
盡管迄今大多數關于人工智能倫理的探討並不涉及網絡恐怖主義防控問題,但是,其中的原則、規範、標准等仍有很強的關聯性和適用性。因而,無論是國家頒布的人工智能應用規範,還是國際組織倡導的人工智能倫理,或是網絡平台以自身認知執行的倫理規則,都可以合理延伸至網絡恐怖主義防控的研究中。
(一)一些國家平衡應對網絡恐怖主義和遵循人工智能倫理的實踐
迄今爲止,一些國家已經意識到將人工智能應用于網絡恐怖主義防控中應考慮如何遵循人工智能倫理的問題,但是,總體上並沒有對相關議題進行深入討論。由于各國政府普遍重視網絡恐怖主義威脅,這在一定程度上弱化了對引入人工智能可能造成問題的擔憂,人工智能倫理對網絡恐怖主義防控政策和實踐的約束力有限。
美國政府首先在軍事領域提出人工智能倫理的相關原則。2019 年 10 月,美國國防創新委員會發布了《人工智能原則:國防部對人工智能倫理應用的建議》(AI Principles:Recommendations on theEthical Use of Artificial Intelligence by the Departmentof Defense)。該建議是應美國國防部 2018 年要求設計一套人工智能倫理原則而提出的,包含人工智能用于作戰以及非作戰時應遵循的責任、公平、可追溯、可靠和可控等五項原則。這是美國政府對軍事人工智能應用導致倫理問題的首次回應。基于美國國防部在全球反恐中所承擔的角色,上述原則不僅適用于軍事行動,也適用于反恐行動。雖然該建議還未成爲一份正式政策文件,但是,美國國防部卻在其官方網站公布該建議。由于美國國防創新委員會是一個獨立的聯邦顧問委員會,成員包括來自谷歌、微軟等科技企業高管和專家,因此,該委員會提出的人工智能原則將會被美國國防部認可或作爲討論的基礎。
中國政府積極引導負責任的人工智能研發與應用活動。2021 年 9 月,中國發布《新一代人工智能倫理規範》,提出在提供人工智能産品和服務時,應充分尊重和幫助弱勢群體、特殊群體,並根據需要提供相應替代方案,同時,要保障人類擁有充分自主決策權,確保人工智能始終處于人類控制之下。該規範旨在將倫理融入人工智能全生命周期,爲從事人工智能相關活動的自然人、法人和其他相關機構等提供倫理指引,促進人工智能健康發展。該規範由國家新一代人工智能治理專業委員會制定,顯示了從人工智能技術和研發著手,從源頭上形成人工智能“道德算法”的思路。
新加坡政府對科技創新應用向來保持平衡、謹慎和開放的態度,強調在人工智能的設計、開發和服務過程中,應首先考慮安全,強調人工智能應在操作過程中詳細定義倫理原則,或將其作爲規範。2019 年 1 月,新加坡個人數據保護委員會(PersonalData Protection Commission)提出了一個“人工智能治理框架”(A Proposed Model AI GovernanceFramework)。該框架要求人工智能系統應以人爲中心,人工智能做出的決定應是可解釋、透明和公平的,人工智能驅動的決策應與人爲決策遵循相同的道德標准等。在該框架指引下,新加坡計算機協會(Singapore Computer Society)于 2021 年 11 月推出一個爲人工智能技術開發和部署提供倫理參考的指南《人工智能與治理知識手冊》(AI Ethics &Governance Body of Knowledge),旨在以實現“負責任、倫理和以人爲本”的人工智能發展目標。
(二)國際及區域組織積極推動人工智能倫理合作
總體上,國際和區域層面達成或倡議的人工智能倫理原則,傾向于加強個人權益保護、強調非歧視原則等,對網絡恐怖主義防控中人工智能技術和應用增加了較多限制,但是,國際和區域層面的規範多數不具有約束力,適用範圍有限。
聯合國教科文組織通過的《人工智能倫理問題建議書》是第一個規範性的全球人工智能倫理框架。教科文組織總幹事奧德蕾·阿祖萊(AudreyAzoulay)指出,該建議的目的是確保透明度、問責制、隱私和人權,促使人工智能給社會帶來積極影響及防止可能産生的風險。根據該建議,當人工智能應用于反恐行動時,應充分考慮其可能引發的倫理問題,包括應確保個人數據的透明度,個人應擁有刪除個人數據記錄、采取措施改善數據和控制自己數據的權利;人工智能系統不得用于社會信用評分和大規模監控,人工智能不應獲得法律人格;應提供倫理評估途徑和工具,建立人工智能倫理機制,幫助成員國評估各國法律和技術基礎設施情況等。
歐盟對技術應用對個人權利的保護尤爲關注。人工智能技術引發關于倫理、安全和保護個人信息等方面的挑戰,促使歐盟強調制定適當的監管規則。2020 年 2 月,歐盟委員會發布《人工智能白皮書:走向卓越與信任之歐洲路徑》(WhitePaper on Artificial Intelligence:A European Approach toExcellence and Trust)。白皮書提出,界定高風險人工智能技術的兩項標准,一是評估敏感工業部門使用人工智能或其工作方式可能導致的影響,二是考慮人工智能可能産生影響的嚴重程度,例如生命危險、傷害或死亡、財産損失或對個人權利的影響。歐盟的人工智能白皮書對高風險人工智能應用給予了特別關注,這對于應對網絡恐怖主義時産生的人工智能倫理問題具有特殊意義,尤其是其中關于針對人工智能故障而加入人工幹預的必要性、關于生物識別技術作爲身份認證的可靠性等方面的討論。2021 年 4 月 21 日,歐盟通過了一份《歐洲議會和歐盟理事會關于制定人工智能統一規則(人工智能法案)和修改相關歐盟法律的條例》(Regulation ofthe European Parliament and of the Council Laying DownHarmonised Rules on Artificial Intelligence (ArtificialIntelligence Act) and Amending Certain Union LegislativeActs),明確人工智能技術在不斷更新和發展的同時,應當滿足平衡保護社會基本價值與發展新興科學技術的要求。歐盟人工智能倫理規則的發展規劃重點涵蓋開發控制、倫理規範和可靠性等,強調人工智能必須建立在倫理規範和價值觀的基礎上,應建立構成信任生態系統的框架,確保人類與人工智能友好相處。
(三)網絡平台和運營企業面臨困惑與選擇
在網絡恐怖主義防控過程中,網絡平台和運營企業既是確保網絡活動合法合規的責任主體,也是應用人工智能部署和實施的運營主體,還是人工智能倫理的約束對象,這三重身份增加了網絡平台選擇和遵循人工智能倫理的困惑。
網絡平台較早就認識到人工智能倫理問題,並試圖通過組建專家倫理委員會的方式加以應對。2014 年,谷歌收購人工智能公司“深度思維”(DeepMind)後,即建立了一個倫理和安全委員會,以確保相關研發工作符合人工智能倫理的方向。2018 年,優兔發起一個“變革創造者”(YouTubeCreators for Change)項目,與來自印度尼西亞、菲律賓、馬來西亞、泰國和澳大利亞等國的 15 個優兔頻道及 14 個非政府組織合作,致力于阻隔或消除平台上來自或面向這些國家的歧視、仇恨、虛假及極端主義的言論和信息。微軟也成立了人工智能倫理道德委員會,提出遵守公平、可靠和安全、隱私和保障、包容、透明和責任等六個人工智能准則。
但是,組建倫理委員會的方式並不能解決網絡平台面臨的兩難處境。2021 年 2 月,谷歌人工智能倫理團隊聯合負責人瑪格麗特·米切爾(MargaretMitchell)被正式解雇,原因是谷歌稱其存在多次違反公司行爲准則和安全政策的行爲,其中包括泄露機密的業務敏感文件和其他員工的私人數據,而米切爾則認爲,被解雇的真正原因是其正在與人合作撰寫一篇關于大型語言處理模型危害主題的論文。因爲研究的結果可能會損害谷歌的商業利益,並且米切爾以對人臉識別偏見的強烈批評而著稱。這反映了網絡平台的商業利益和人工智能倫理規則的內在沖突。
長期以來,社交媒體平台臉書的面部識別技術引發了廣泛擔憂,臉書也試圖爲面部識別技術的使用提供一套清晰的規則。2021 年 11 月,其母公司元(Meta)宣布停止使用面部識別軟件,並刪除其通過人臉識別軟件從用戶處獲得的所有數據。元的人工智能副總裁傑羅姆·佩森蒂(Jerome Pesenti)表示,“超過三分之一的臉書日常活躍用戶選擇了人臉識別設置,並且能夠被識別,刪除它將導致超過 10 億人的個人面部識別模板被刪除。”這對希望維護個人隱私和數據控制權利的臉書用戶當然是個好消息,對那些隱藏在臉書平台上的恐怖組織和恐怖分子而言,這或許也是個好消息,而對希望借助人工智能系統與平台合作,以增強網絡恐怖主義防控能力的反恐機構和組織而言,這勢必就會令其感到失望了。
四、結語
物理學家斯蒂芬·霍金曾對人工智能充滿期待,同時也滿懷擔憂,“有益的人工智能可以擴大人類能力和可能性,但失控的人工智能很難被阻止。所以,在開發人工智能時必須保證符合道德倫理與安全措施的要求。”就網絡恐怖主義防控而言,似乎無論何種新技術的使用都具有正當性和必要性,但是目標正義並不能替代手段正義,人工智能技術的複雜性和不確定性應引起重視,人工智能倫理也應當成爲網絡恐怖主義防控的前置規範。畢竟,美國國家安全局以反恐爲名行全球監控之實,被曝光後遭到國內外一致譴責的曆史並不久遠。
(本文刊登于《中國信息安全》雜志2022年第2期)