作者:中國傳媒大學政法學院講師,美國聖母大學訪問學者 韓新華
摘 要:暴力內容一直是各國政府網絡治理的重點。網絡暴力內容的規制,首先要區分情況、分類處理,一方面許可和保護必要的對于暴力內容的新聞報道、事實描述、刻畫分析等,另一方面嚴格限制或禁止那些低俗不良、違法有害的暴力內容。其次,在規制機制方面,充分發揮政府、企業、行業、用戶的各自優勢,建立多元共治模式。最後,在規制手段上,要更多依靠分級系統、智能識別以及過濾系統等技術手段進行治理。
隨著互聯網技術和應用的廣泛普及,暴力、色情等不良內容充斥互聯網絡。網絡暴力內容主要是指互聯網上以文字、圖片或視聽方式呈現的對生命和身體健康進行嚴重侵犯或損害的內容。這類內容既包括對于客觀現實世界的暴力行爲、暴力現象的直接呈現,也包括對于虛構暴力場景的表現。除此之外,互聯網上還存在著美化、宣揚、煽動暴力,以及煽動仇恨、恐怖主義等一些與暴力具有密切關聯的表述或信息,這些都可以稱爲廣義上的網絡暴力內容。
網絡暴力內容的影響具有兩面性。一方面,作爲真實世界的反映,對暴力現象、暴力事件的報道、描述、刻畫和分析具有一定的積極意義。這類內容可以揭示現實世界的本相,提示人們可能存在的危險,同時,還可以激勵人們去批判暴力及思考如何更好地戰勝暴力。另一方面,網絡暴力內容也具有很大的危害性。首先,對暴力內容和情節的過度描繪,會給某些成年人帶來心理上的不適,更會對青少年的身心健康産生不良影響。其次,互聯網上那些美化暴力、宣揚暴力的信息和表述會對青少年正確價值觀的形成造成負面影響。再次,非法煽動暴力、仇恨、恐怖主義等網絡暴力內容會給特定人群的權益以及公共秩序甚至是國家安全帶來危害。
因此,科學、合理地規制互聯網上的暴力內容成爲網絡治理的一項重要任務。網絡暴力內容的規制,首先要做的是制定合理的規制標准,區分情況、分類處理。一方面要許可和保護那些必要的對于暴力內容的新聞報道、事實描述、刻畫分析等,另一方面也要對那些低俗不良和違法有害的暴力內容予以嚴格規制。其次,在治理機制上,由于互聯網環境下信息的生産和傳播方式發生了很大的改變,對于暴力內容的規制,僅僅依靠法律強制和國家監管是遠遠不夠的,必須形成一套政府、企業、行業以及社會等各個主體多方參與、多元共治的治理模式。再次,在治理的手段上,必須更多地依靠分級系統、智能識別與過濾等技術手段,方能對互聯網暴力內容進行有效治理。本文將嘗試從這三個方面對網絡暴力內容的規制做一些探討。
一、規制標准:區分情況、分類治理
(一)法律許可傳播的暴力內容
暴力是現實世界中不可回避的問題。媒體,無論傳統媒體還是新媒體,真實、及時、准確地報道正在發生的各種暴力,包括戰爭、騷亂、犯罪,是媒體的社會責任,是媒體職業倫理的正當要求。而呈現、描述、分析和反思社會現實的作品,無論是紀實作品還是各種創作作品如文學、電影、電視節目以及遊戲等,也一定無法回避暴力內容。其實許多偉大的作品恰恰是聚焦在對人類的戰爭、動亂、苦難的批判與反思之上。要求傳媒報道和各類作品完全摒棄暴力內容無疑是試圖構建一個自我欺騙的童話世界,這種做法是不現實的,也是有害的。
因此,在一定程度上講,那些必要的呈現暴力的內容符合社會的公共利益,是需要法律予以許可和加以保護的。但這並不意味著暴力內容的呈現方式可以無所顧忌。無論是文字、圖片等平面形式,還是電影、電視等視聽形式,過度描述,包括對犯罪細節的描述,都可能對社會大衆、對未成年人造成不同程度的傷害。例如,2018年初上演的大片《紅海行動》《唐人街探案2》都有諸多的暴力鏡頭和場面,引起了很多青少年的心理不適。
對于這些過度描述暴力的內容,一方面可以要求媒體或作者自律,把握尺度,另一方面也可在法律上嘗試設置分級制度。對電影、視頻以及其他載體的內容進行分級是世界許多國家的通行做法,已經有比較成熟的經驗可供借鑒。這種分級制度是按照暴力、色情等內容呈現的方式、頻次和程度設置不同的年齡級別,以防止未成年人接觸到與其年齡不相稱的信息,同時也爲具有理性判斷能力的成年人留出充分表達自己和全面接受信息的空間與機會。
(二)法律限制傳播的暴力內容
一般來說,違背公序良俗的暴力內容屬于法律限制傳播的範圍,這類內容通常被稱爲低俗不良暴力內容。這些內容具體又可細分爲兩類,一類是爲吸引眼球無意義的呈現暴力內容的信息;第二類是美化暴力、宣揚暴力的信息。這兩類信息都會在一定程度上對青少年的身心健康和社會風氣造成不良影響。
1.無意義的呈現暴力
無論是國內還是國外,網頁、論壇、遊戲及各種社交應用上都充斥著許多爲吸引眼球、贏得點擊率而有意呈現甚至是渲染無意義暴力的內容。比如一味表現打打殺殺、鬥毆、粗口,及殘忍宰殺動物、生吞活物等暴力情節,故意表現血腥、殘酷、恐怖、吸毒、賭博等刺激性較強的畫面,還有的是描述離奇荒誕、有悖人性的殘酷或暴力行爲等。懲治低俗之風,淨化網絡環境,這是各國對網絡空間治理的共同需求,但各國的具體規制方式則存在著較大差異。
多數國家對此類信息采取的態度是限制,而非禁止,具體操作上仍主要采用分級制度。限制就是限制其傳播的範圍,向成年人開放,但禁止向未成年人進行傳播。理由是青少年心智尚未成熟,屬于不良信息易感者,而成年人則被假定爲具有較強的理性分辨能力和控制能力,因此主要由其自我判斷、自行決定。采取此類作法的國家既包括英國、美國、德國等歐美國家,也包括新加坡、日本和韓國等亞洲國家。
2.美化暴力、宣揚暴力
美化暴力、宣揚暴力,無論是以文字、圖片的形式,還是電影、電視,或者是遊戲、直播等形式,都對青少年正確價值觀的形成具有很大的危害性,甚至可能直接誘導青少年實施犯罪行爲。此類暴力信息仍屬于不良內容,但已接近有害內容。對于這類內容,有些國家仍采取分級制度,禁止向青少年傳播,但向成年人開放,依靠言論市場去解決。采取這種作法的國家主要是美國、英國、德國等西方發達國家。其他國家則禁止向任何人群傳播此類信息,如韓國和新加坡等。
我國法律法規對上述兩類信息都采取禁止態度。2000年國務院頒布的行政法規《互聯網信息服務管理辦法》第十五條規定的“九不准”中,就包括,“互聯網信息服務提供者不得制作、複制、發布、傳播含有賭博、暴力、凶殺、恐怖或者教唆犯罪的信息”。後續頒布的諸多規制互聯網的部門規章及規範性文件也有類似規定。同時,我國保護未成年人的兩部最重要的法律《未成年人保護法》和《預防未成年人犯罪法》都禁止向未成年人傳播渲染暴力、凶殺、恐怖的內容。傳播此類信息要承擔罰款和吊銷執照等處罰。因此,與國外相比,在保護青少年免于接觸此類信息方面,我國的規定和作法與世界各國的通行作法是一致的,但在對成年人也禁止此類信息這一方面,我國的規定顯然要更加嚴格和嚴厲。
但是,我國相關法律條文對這類內容的規定也存在著一定程度的模糊性和不確定性。如《互聯網信息服務管理辦法》“九不准”中禁止刊登暴力、凶殺內容,但是對于何爲暴力、暴力的程度如何、何種凶殺內容等缺乏具體清晰的界定。是不是所有的暴力內容,不論種類如何、程度如何都一律禁止?這種模糊性和不確定性一方面給網絡內容的生産者及服務商帶來很多困擾,一定程度損害了企業的創新性;另一方面,相應的執法部門也不能確切把握執法標准,往往只能憑個人主觀判斷,有時打擊力度不足,更多的時候是打擊面過大。這在一定程度上損害了法律和政府部門的公信力。
(三)法律禁止傳播的暴力內容
這類暴力內容不只是違背公序良俗,還會對他人權益、社會秩序,甚至是國家安全構成威脅,發布和傳播此類信息屬于違法,甚至是犯罪行爲。我國《互聯網信息服務管理辦法》“九不准”中第七條規定,禁止散布淫穢、色情、賭博、暴力、凶殺、恐怖或者教唆犯罪的內容,就包含對這類暴力內容的禁止。總的來看,這類暴力內容可再細分爲煽動仇恨、煽動暴力、煽動恐怖主義等類型。
1.煽動仇恨
煽動仇恨的言論在國際上通常被稱爲“仇恨言論”,是指在仇恨意圖的指引下,基于民族、種族、性別和宗教等身份特征所爲的表達性行爲的一種言論類型。各國對于仇恨言論的規制態度有很大的差異。總體來看,可分爲三種情況:(1)允許仇恨言論,以美國爲典型,美國高度保護言論自由,只要該言論沒有達到可導致“清楚而現實的危險”的程度,就不會被禁止;(2)嚴格禁止仇恨言論,以德國爲代表,由于其特殊的曆史背景和特定的文化傳統,德國嚴格禁止各種類型的仇恨言論,尤其是涉及種族歧視和宣揚納粹的仇恨言論;(3)禁止某些類型的仇恨言論,很多國家屬于上述兩種情況之間,即僅設置對某些類型的仇恨言論的禁止,比如英國僅禁止煽動基于種族、宗教和性取向三種形式的仇恨言論。
我國的刑法以及對媒體的各種禁載條款都禁止煽動民族歧視、民族仇恨,破壞民族團結的信息和表達。例如,我國刑法第249條規定,煽動民族仇恨、民族歧視,情節嚴重的,處三年以下有期徒刑、拘役、管制或者剝奪政治權利;情節特別嚴重的,處三年以上十年以下有期徒刑。再例如,《互聯網信息服務管理辦法》第十五條第四項規定,互聯網信息服務提供者不得制作、複制、發布、傳播“煽動民族仇恨、民族歧視,破壞民族團結的”的內容。
2.煽動暴力
一般來說,煽動暴力要比煽動仇恨的社會危害性更大。因爲煽動仇恨是意在使被煽動者對某個或某些群體産生歧視、仇恨等內心態度,但煽動暴力則意在使被煽動者對某個人、某些人、某個群體直接實施暴力行爲。上述法律限制傳播的暴力內容中的“美化和宣揚暴力”在廣義上也可以屬于間接煽動暴力,但是由于此類內容無特定指向對象,因此,暴力立即轉化爲現實的可能性較小,其危害主要在于可能對社會風氣造成汙染,以及對青少年正確價值觀的形成産生不良影響。
這裏的煽動暴力主要是指針對特定對象的煽動,如對某個人或某幾個特定的人,或者針對某一個民族、宗教及其他特定群體的暴力煽動。這種行爲均爲各國法律所禁止並嚴厲打擊。我國《刑法》規定了幾種煽動暴力的犯罪,如第103條的煽動分裂國家和破壞國家統一罪,及第278條的煽動暴力抗拒法律實施罪等。
3.煽動恐怖主義
進入21世紀後,恐怖主義成爲國際社會所面臨的最大的非傳統安全威脅,而互聯網特別是社交媒體則常常被利用作爲傳播和煽動恐怖主義的工具。因此,對恐怖主義信息進行監督成爲許多國際組織和國家互聯網監管的一個重要組成部分。煽動恐怖主義又可以劃分爲間接煽動和直接煽動。間接煽動是指美化恐怖主義,如美化聖戰,對恐怖活動予以紀念、頌揚等形式。直接煽動則是指煽動實施恐怖行動,其危害性更大,也更直接。
從國際社會來看,各國對于直接煽動恐怖主義的態度是一致的,都將之列爲嚴厲打擊的對象。但是對于間接煽動恐怖主義,各國則持不同態度。美國以保護言論自由爲由,對美化聖戰、紀念恐怖活動等行爲不作立法和司法上的禁止,但是聯邦政府也通過與互聯網公司、社交媒體私下交流溝通等方式,督促其對相關內容予以限制。也有些國家如英國則在其反恐法中直接將間接煽動列爲犯罪行爲。
在我國,直接煽動和間接煽動恐怖主義都屬于犯罪行爲。我國2014年《刑法修正案(9)》在第123條增加了該項犯罪:“以制作、散發宣揚恐怖主義、極端主義的圖書、音頻視頻資料或者其他物品,或者通過講授、發布信息等方式宣揚恐怖主義、極端主義的,或者煽動實施恐怖活動的,處五年以下有期徒刑、拘役、管制或者剝奪政治權利,並處罰金;情節嚴重的,處五年以上有期徒刑,並處罰金或者沒收財産。”
二、規制機制:多方參與、協同共治
當今世界各國對互聯網的治理模式大體有三種:政府主導型,行業自律爲主型,政府與行業共治型。政府主導型表現比較突出的是韓國,行業自律爲主型以美國和英國最爲典型,政府與行業共治型以德國、法國和新加坡爲代表。
我國目前的治理模式基本可歸屬于政府主導型。其主要表現是,我國政府在互聯網的各項規制中均發揮主要作用,處于主導地位。但是,構建多方參與、協同共治的治理思路已經非常清晰地體現在我們黨和國家各項文件的指導思想和具體政策之中。2017年1月《國務院關于印發“十三五”市場監管規劃的通知》指出:“順應現代治理趨勢,努力構建‘企業自治、行業自律、社會監督、政府監管’的社會共治新機制。”這一機制也同樣適用于互聯網行業。
網絡空間的監管難度遠大于任何一種傳統媒介。網絡改變了信息的生産方式和傳播模式,用戶自我生成內容成爲網絡空間尤其是社交媒體的主力。面對這一情勢,網絡空間中不良有害信息的治理僅僅靠政府唱獨角戲是遠遠不夠的。在互聯網暴力內容的規制上,需要政府、企業、行業和用戶各負其責,並且通力合作,構建一種綜合性的治理體系。
(一)政府監管
政府是公共利益的首要捍衛者,不良低俗、違法有害的暴力內容侵害了青少年的身心健康,侵蝕了良好的社會風氣,破壞了公共秩序乃至國家安全,政府理應擔當最重要的治理與監督責任。
具體來講,政府監管暴力內容,可以在以下兩個方面發揮作用。一方面,政府要在確立規制標准方面發揮主導作用。政府應針對不同的情形,按照公共利益的要求,仔細權衡公民的表達權利、信息自由與青少年保護、公共秩序和國家安全等各種相互沖突的公共利益,確立一套公正、合理、科學的規制標准。另一方面,政府應該嚴格按照已經確立的標准和機制,采取有力的措施,對不良低俗和有害違法暴力內容進行治理。
同時,在網絡治理中,如陳欣新教授所指出的:“鑒于政府資源和行政能力的有限性以及政府在現代社會的有限角色,政府不可能也不應當對所有涉及信息內容安全的領域都采取行政監管的措施,必須采取‘有所爲、有所不爲’的原則。”面對網絡技術日新月異的變化、海量的互聯網信息,特別是大量的用戶自發生成的內容,政府行動的滯後性、政府資源的有限性表現得格外突出。因此,在網絡暴力內容的治理上,政府需要適當收縮監管範圍,抓大放小,把精力和資源主要用在對違法犯罪的暴力內容的治理上,對于低俗不良的暴力內容則可以適當借鑒內容分級制度,區分成年人和未成年人,重點防控向青少年傳播此類信息。
(二)互聯網産業與行業的自律
互聯網的巨大體量、複雜程度以及技術特點使得政府的直接監管變得非常困難。互聯網産業與行業的自律與自治成爲網絡治理的重要組成部分。網絡治理從一開始就具有非官方、去中心的特點。雖然,隨著互聯網技術和應用的廣泛普及,各國均將網絡納入法律的規制範圍,但不可否認的是,網絡治理中私主體一直占有非常獨特、重要甚至是主導性的地位。對網絡暴力內容的治理也是如此。
互聯網服務商是網絡信息內容發布和傳播的必經渠道。許多互聯網服務商已經自發形成了用戶協議、社區規範等自律守則,並通過接受投訴、主動搜尋等方式維護這些守則的有效性。這其中就包含對暴力內容的規制。一些全球性的網絡企業包括Google、Facebook、YouTube,以及中國的騰訊微信、抖音平台等的社區規則還相當複雜和細致。其實,自律本身也是互聯網企業的一個內生性要求。從長遠來看,建立良好的平台秩序、打造良好的平台社區是有利于企業長遠發展的。
互聯網不良有害暴力內容的治理還需要提升整個互聯網行業的自組織能力,使得行業自律組織在應對網絡暴力內容中發揮主體功能。許多國家對互聯網的治理主要依靠行業自律。美國和英國就是其中的典型。美國對網絡內容、網絡遊戲的分級系統就是産生自互聯網行業組織,而不是政府。英國也是如此,負責對網絡視頻、遊戲進行分級的英國電影分級委員會BBFC也是一個民間組織,而包括互聯網觀察基金會IWF在內的諸多行業自律組織負責對網絡非法內容包括暴力內容進行自我規制。
我國的互聯網行業組織在行業自律方面也取得了重大進步。成立于2001年的中國互聯網協會是我國目前最重要的互聯網行業組織。該協會成立後在行業自律方面做了大量工作,並産生了積極的影響。例如中國互聯網協會倡導制定了《中國互聯網行業自律公約》《互聯網站禁止傳播淫穢色情等不良信息自律規範》等自律公約,爲互聯網行業的自律機制奠定了基礎。中國互聯網協會還設立了“違法和不良信息舉報中心”,可以全天候接受網民舉報。但總體來看,我國行業自律功能的發揮還有較大的提升空間。網絡自律條約雖然簽訂不少,但還並未真正實施到位,最重要的不足是缺乏有效的糾紛解決機制。
實際上,産業、行業的自我管制比政府直接介入更有針對性,也能更好地節約費用,並且這種管制也能因産業組織本身所具備的專業知識而獲益。高秦偉教授指出:“相較于政府規制,私人的優勢在于能夠及時、更有彈性、更合于事物本質地采取行動或反應。”因此,國家應進一步采取措施鼓勵和增進社會自組織力量的培育,當然自律組織自身也要不斷探索如何更有效地將規則落實到底。
(三)用戶參與及社會監督
互聯網已經成爲每個普通人工作、生活中必不可少的組成部分。互聯網的有害內容幾乎侵害著每個人、每個家庭的利益,因此用戶自身也需要增強責任意識,提高自律能力,積極參與暴力內容的治理。對于用戶來說,一方面要嚴格自律,不要參與暴力信息的制作與傳播;另一方面也要積極主動地通過舉報投訴等方式對暴力信息進行監督。互聯網協會的12321網絡不良與垃圾信息舉報受理中心、違法和不良信息舉報中心,公安部的網絡違法犯罪舉報網站,以及各地的網絡舉報中心等都是用戶可以利用的舉報渠道。
此外,用戶也可以自發組成社會監督組織來集體推進對互聯網暴力內容的治理。比如,爲了保護未成年人的健康,家長可以組成家長協會來抵制不良內容,維護良好的網絡環境。
三、規制手段:依托技術、多管齊下
在規制手段上,與傳統媒體主要依靠法律手段和行政手段進行治理不同,互聯網暴力內容的規制需要綜合運用各種手段,尤其要特別注重發揮技術手段的作用。互聯網本身是技術推動的産物,互聯網內容的治理也具有高度的技術依賴性。
西方許多國家對于網絡暴力內容主要采用分級系統和智能識別、過濾等技術手段進行控制。比如美國,與對色情內容的管制理念和方法相同,主要通過分級和技術控制來規制暴力內容,以區別對待成年人用戶和青少年用戶。在分級方面,美國從1996年開始啓用“因特網內容選擇平台”(PICS)。這一平台參考了美國電影分級的標准,根據性、暴力程度、身體裸露程度、粗口等將網絡信息分爲5級,級別越高越限制未成年人接觸。不但如此,1994年在美國成立的娛樂軟件分級委員會還開發了遊戲分級系統。這一系統將遊戲分爲7個級別,暴力、色情的數目和程度是分級的重點依據。與分級系統相配合的,還有要求安裝過濾軟件、年齡識別系統、給不良信息加注警示標識等技術控制手段。
英國也有類似的分級系統和技術系統,在區分成年人和未成年人用戶的理念指導下,按照圖片、音視頻中暴力內容呈現的方式、頻次和程度分成不同等級,並設置相應的過濾系統、年齡識別系統及警告標識等技術手段,以防止未成年人接觸到與其年齡不適宜的暴力內容。
很多亞洲國家也在不斷開發技術系統以控制不良內容的傳播。比如新加坡研究開發的“家庭上網系統”,用以過濾色情、暴力等不良信息,同時還要求學校、圖書館等公共機構安裝必要的過濾軟件。韓國實施了“綠色網絡計劃”,免費提供過濾軟件,還通過立法許可使用“隔離”與“過濾”等方式加強技術在互聯網規制中的作用。日本則推出了官方過濾軟件“FILTERing”,用以過濾不良信息,日本電子娛樂分級組織還將分級制度運用到網絡遊戲領域。
技術控制手段在我國的網絡暴力內容治理中也得到廣泛的應用。隨著大數據及人工智能技術的發展與應用,一些精准甄別和過濾暴力等低俗信息的技術和控制手段被不斷開發出來。例如,微信團隊在大數據技術基礎上開發了不良信息識別和風險用戶提示機制。再比如,“抖音”利用大數據和機器學習開發了低俗模型以及“未成年風控模型”等多種過濾模型,可以通過機器識別和前置攔截的方式來處理許多不良有害暴力內容。
網絡實名制也是我國近年來采取的一項重要的網絡治理措施。我國2017年開始實施的《網絡安全法》明確規定某些領域必須實施網絡實名制。同時,我國《網絡安全法》還規定網絡服務提供者負有保障網絡信息安全的義務。這兩項制度的結合對暴力內容的發布和傳播具有相當程度的震懾力和抑制力。但實名制下如何保護個人信息、數據安全也是一個需要高度注意的問題。韓國于2008年正式全面推行網絡實名制,是世界上首個實行網絡實名制的國家,但2011年發生了大規模的個人數據泄露之後,這一制度很快即被廢除。
構建網絡信用體系也是一種治理路徑。如上海的“網絡社會征信網”就是一個具有借鑒意義的網絡治理案例。該網站由上海市公安局網安部門和上海市網絡信息安全管理協會合作建成,由政府、網民和專家共同對網站誠信程度、網站健康進行評比打分和分級,對于不良網站通過“黑名單”制度實施處罰,同時還設立網上“曝光台”將這樣的網站進行公布。該網站自2010年運行至今已經取得了較好的治理效果。目前,我國還未發展出網絡分級制度。我國所有的網絡內容都是適用全年齡段的,這種一刀切的作法並未充分考慮到部分成年人和不同年齡段的未成年人的身心特點差異以及多元化需求。畢竟暴力內容是現實世界無法回避的部分,喜歡觀看暴力內容甚至也是人性的組成部分,對用戶年齡和身份不加區別,使得我國暴力內容治理的合法性和有效性在一定程度上打了折扣。
總之,網絡信息技術是20世紀最大的技術革命。面對網絡技術日新月異的發展,網絡暴力內容的治理形勢非常嚴峻。但是,如果能夠使規制標准更加精細、科學和合理,在機制上,政府、企業、行業、社會和用戶協同共治,在手段上,綜合運用包括先進技術在內的各種手段,並不斷與時俱進、進行動態調整,雖然不能徹底根除網絡不良有害暴力內容,但至少可以將其危害性控制在一定範圍之內。