熟悉歐洲法律和科技法的法國律師丹·西菲特指出,機器人寫作程序等科技,使人們更易于相信煽動性信息和醜聞,對正面和負面信息的看法也更容易受擺布,因此政府必須讓人們能接觸到兩面的論述。
政府雖然有立法管制假信息的必要,但應謹記這類管制的有效性終究有限。政府如果要立法,不得不考慮到最終是否具備實質效益。
熟悉歐洲法律和科技法的法國律師丹·西菲特(Dan Shefet)昨天在國會特選委員會公開聽證會上供證時指出,機器人寫作程序等科技,使人們更易于相信煽動性信息和醜聞,對正面和負面信息的看法也更容易受擺布。
西菲特指出,政府必須讓人們也能接觸到另一面的論述,而唯有通過立法監管才能做到這點。
不過,立法可能帶來其他附帶效應。西菲特在答複特選委員會成員、官委議員謝邕邕提問時指出,像面簿這樣龐大的平台面對的問題是,無法對衆多用戶發布的內容實施有效監察。
此外,網絡平台上的管制也會牽引出其他現實世界中關于平等的考量。西菲特以波蘭一次示威遊行上的煽動性標語爲例說,面簿的網絡程序雖然監測到相關內容並自動將它撤下,但引發了傳統媒體是否應刊登同樣照片的問題。
“人工智能移除了這些我們有權看到的內容。它的問題不單在于情境分析,也關乎如何理解事實及采取立場。人工智能很難做出這樣的區別,它能識字,但無法辨別觀點和事實。”
謝邕邕也要求西菲特解釋,政府立法監管如何會像他在陳情書中所提到的,導致“科技公司更大程度控制我們的生活”。
西菲特指出,一些牌照制度會導致一些競爭者無法進入市場,使一些大企業的市場地位進一步鞏固。如此一來,顛覆性科技不可能出現,市場上的其他競爭者也沒有立足之地。
或可從網絡廣告商下手
西菲特也把矛頭指向網絡平台的廣告商,並提出網絡平台的商業模式或許能在他們的金主也須負起一定責任後才能取得平衡。
他說:“如果能讓他們負起責任,我指的是道德和商業責任而不是法律責任,比如讓他們如果繼續在這些平台打廣告就失去生意,那會是最好的方法。”
西菲特也提議,委派一些可爲社交媒體公司提供指導的國際監察員(ombudsman)。這能幫助它們及時斷定哪些信息是僞造或非法信息。
可采不同方式 未必得“正面打擊”假信息
要追究散布假消息者的責任,就必須先明確定義“蓄意網絡假信息”,但西菲特直言這非常困難。
熟悉歐洲法律和科技法的西菲特昨天(3月28日)在聽證會上供證時說,“蓄意”一詞預先設定了發布者的立場,但沒有闡明其他關鍵的法律問題,如“蓄意”是指哪一方,以及什麽樣的意圖才算蓄意。
西菲特也提醒,社交媒體平台是否需爲第三方發布的內容負責,取決于當局采用的法律依據。“(社交媒體平台)是否知道信息不實就算蓄意發布?還是在平台與原犯罪人制造不穩定或操控(輿論)的動機有關聯才算?”
西菲特因此認爲,與其針對“蓄意網絡假信息”,政府或可考慮通過其他管道,管制可輕易定義的信息來打擊假信息。他的建議包括:
- 阻止推送經篩選新聞
網絡平台根據用戶消費偏好推送信息,導致每個人接收到的信息不同。西菲特建議,在選舉等重要活動前幾周,禁止網絡平台推送經篩選的新聞,讓每個人接收一樣的消息。
西菲特說:“這麽一來,我們就無需去定義什麽是假新聞……經篩選新聞與假新聞一樣危險,或甚至更危險。”
- 依“舉報人數”標注受爭議內容
用戶發現某一則信息不實時可向網絡平台管理員舉報。如果舉報者超過一定“關鍵人數”,平台無需撤下內容,只需在該信息頁面上注明,指信息准確度受爭議。政府可根據國內需求制定不同政治敏感時期前後的“關鍵人數”數量。
西菲特指出,真假由誰說了算是個問題,相對的,提出異議的“關鍵人數”是個以數據爲依據的具體標准。