人工智能發展雖會給社會帶來一些危害,但風險是可控的。推出聊天機器人ChatGPT的美國人工智能研發公司OpenAI總裁奧爾特曼建議科技公司不要閉門造車,研發相關技術時要結合現實情況,確保科技與社會共同進化。
自去年發布以來,ChatGPT已在全球掀起熱潮,但也有不少批評者擔憂這項技術可能失控,對人類構成無法估量的威脅。今年5月底,奧爾特曼與300多名人工智能科技業領袖和專家發表聯名公開信警告,人工智能技術可能導致人類滅絕,他們敦促政策制定者將這個威脅視爲與大流行病和核戰爭的威脅一樣。
奧爾特曼指出,叠代部署(iterative deployment)是減少這類危害的唯一途徑,因爲若不這樣做,而是只在實驗室裏秘密研發人工智能技術,然後直接對外發布,那麽社會就少了與人工智能共同進化(co-evolve)的時間。
叠代部署是減少危害唯一途徑
奧爾特曼也說,各國有不同的監管標准,希望未來的人工智能技術更多元,反映不同群體的價值觀、文化、曆史,以及對未來的期許。
他在回答一名與會者提問時說,現有的人工智能模型帶來的危害是可控的(manageable)。盡管OpenAI希望盡可能減少這類危害,但公司意識到,不論進行多少測試或攻擊演練,人們總會以意想不到的方式使用人工智能工具,任何新科技都是如此。
延伸閱讀 OpenAI首席執行官引用《道德經》呼籲人工智能國際合作李開複:法律應嚴懲利用AI犯罪者
此次爐邊對話是由資訊通信媒體發展局與新加坡全國人工智能核心計劃(AI Singapore)聯合主辦,吸引了上千人出席,包括來自字節跳動、華爲、Grab、戴爾等科技巨頭的業內人士,以及政府官員和學生。
各國監管標准可反映不同群體價值觀
對于人工智能的監管,奧爾特曼呼籲各國監管部門在制定政策前,先了解技術的局限,從而確保監管目標是實際可行的。
奧爾特曼(Sam Altman)星期二(6月13日)在新加坡管理大學出席OpenAI全球巡回“爐邊對話”新加坡站活動。