德國在2018年通過了網絡執行法案,英國也在擬定網絡安全法案。至于新加坡,楊莉明解釋,我國會通過咨詢與合作的方式,來加強對網絡空間的監管。除了吸取他國經驗,政府也會就最新科技發展與科技公司交流,並了解人民的需求。“這會確保我們制定出科技上可行、能夠有效執行並適合我們需求的條例。”
政府會通過互聯網行爲准則加強用戶安全、改善用戶舉報流程,以及對社媒業者問責。在用戶安全方面,業者必須制定社群守則,並采用可過濾內容的機制。它們也須快速探測並刪除任何有關恐怖主義、兒童性剝削或虐待的內容。
通訊及新聞部長兼內政部第二部長楊莉明今年3月在國會說,政府有意擬定新准則加強網絡空間的安全。她昨天在面簿貼文分享工作進度時說,人們在社媒平台交流有好處,但一些壞處也伴隨而來,因此不少國家已經或正在立法保護用戶。
網絡上的有害內容包括,對公共安全與衛生構成威脅、涉及自殘或性傷害等。例如,今年5月美國水牛城槍擊案網絡直播,TikTok上導致10歲女童窒息死亡的“昏迷挑戰”。對新加坡而言則還包括種族或宗教仇視的內容,通訊及新聞部舉例說,去年有一名新加坡男子冒充華族女性,在推特上發布煽動種族仇恨的言論;在這之前,在“NUS無神論協會”面簿網頁上,有網民發布一張《聖經》和《可蘭經》照片,稱“缺廁紙時可用”。
將征詢家長及青少年等群體意見
社交媒體平台若出現自殘、性傷害或诋毀宗教和種族等有害內容,政府可指示業者禁止本地用戶浏覽這些信息和聯系發布這些內容的賬戶。社交媒體業者今後也須采取一系列安全措施,爲用戶打造更安全的網絡空間,尤其是更好地保護18歲以下青少年。
網絡空間藏有不少安全隱患,政府將通過擬議中的互聯網行爲准則以及社交媒體內容監管准則,加強對用戶的保護。前者規定面簿、Instagram和TikTok等用戶人數較多、風險較高的社媒服務須采取安全措施。後者則賦予資訊通信媒體發展局更多權限,在發現有害內容時能指示業者禁止新加坡用戶浏覽,或與發表這些內容的賬戶交流。
這些平台也須提供渠道,讓用戶輕易舉報不良內容;對于用戶的舉報,也要及時采取行動。業者每年也須向資媒局提交問責報告,當局之後會在網站公布報告。
陽光聯盟今年1月對1000名新加坡人展開調查後發現,每兩人中有一人在網上接觸過有害內容,當中好些是青少年。也有人經曆過與性別有關的網絡傷害,當中有61%是在較受歡迎的社媒平台上發生的。
當局本月已經就這兩套准則展開業界咨詢,下個月會通過公共咨詢征詢家長及青少年等相關群體意見。一旦修訂廣播法令,加入這些准則後,它們就具法律約束力。
有較多18歲以下用戶使用的平台必須采取額外措施,包括爲父母提供過濾內容的工具,減少未成年者接觸到不良內容。