人類的曆史長達幾百萬年,但文明的曆史其實只有一萬來年,存續時間是相當短暫的。
從誕生時的“不約而同”到軸心時代後的“有約而異”,如今我們的精神文明是否超越了過去軸心時代的思想內核呢?
隨著人工智能等技術的飛躍,機器越來越成爲人類生活中必需的一部分,甚至成爲我們身體的一部分,手機、電腦、搜索引擎……在某種程度上成爲了我們的外在大腦,用算法爲我們自動做出選擇,收集和儲存信息,而隨著技術的繼續發展,這種趨勢可能會愈演愈烈,到了那時,我們又該如何定義“人” ?迄今爲止對“人”的意志、“人”的精神的理解,是否會被顛覆?
新京報·文化客廳線上特別策劃第41期,我們聯合中信出版集團,邀請到北京大學哲學系教授何懷宏、博古睿研究院副院長宋冰,與大家一同探討人工智能與人類文明的沖撞——
何懷宏,北京大學哲學系教授,譯有Rawls《正義論》(合作)、Nozick《無政府、國家與烏托邦》等著作。上世紀90年代以來專注于有關倫理學原理和中國曆史的著述,著有《良心論》、《轉型中國的社會倫理》(英文版)等。
宋冰,博古睿研究院副院長、北大博古睿中心聯席主任,負責博古睿研究院中國中心的戰略制定和整體發展,包括學術科研項目規劃、機構制度體系建設以及中國獎學金計劃等。
人工智能,讓我們面對哲學危機
宋冰提到,人們對人工智能和機器人的集中關注,大致開始于2016年AlphaGo對弈李世石並獲全勝的事件。這一事件相當于在全球點燃了三把大火,第一把是對人工智能的研發給予了強烈的刺激;第二把是海量的資本注入人工智能與機器人行業;第三把則是人們紛紛開始想象機器智能的未來,有的是向往,有的是恐懼,有的是擔憂。
與此同時,各國政府、國際組織,包括一些大公司也開始呼籲,要對人工智能研發進行監管和控制。宋冰提到,現公開發表的與人工智能相關的倫理原則已有70余份,甚至可以用泛濫形容。在這些文件裏頭,除了一些有實操性指向的原則,比如透明性、可解釋性、反歧視、隱私等,也提到了築基這些規範性原則的基礎價值觀,像歐盟提到人權、民主、法治、個人權利;也有的國家像新加坡、日本、中國更關注國家利益和國際競爭力。
然而這些價值觀的底層思維,主要是西方近代以來占主流地位的一些理念和思維框架,包括人類中心主義、人的主體性、人與自然的相互分離(甚至對立)、人的主觀能動性等。也許有人會覺得,這些不是應該的嗎?但宋冰則表示,我們應該以前沿科技對人類和人類社會提出挑戰爲契機,重新反思這些塑造人類已久、甚至到了“百姓日用而不知“的底層性思維。
隨著人工智能和機器人的出現,大家開始思考到底什麽是人的本質?什麽是機器的本質?過去認爲人占主導地位,只有人才有這樣的智能,但很有可能將來的機器智能在理性、智能上會超過人,那人又是什麽呢?人和機器的關系應該是怎樣的?西方已有不少哲學家提出了這樣的問題,回到了哲學思考的原點開始思考。例如寫了《人類簡史》的尤瓦爾,他就說,“我們現在不僅僅在經曆技術上的危機,也在經曆哲學的危機”。
而面對這一危機,中國哲學又該做些什麽呢?宋冰覺得,在這個“第四次工業革命”的時代,中國前沿科技的發展,雖不能說完全齊頭並進,但至少趕上了國際的主流發展。過往曆史裏,中國僅僅是國際規範的學習者、追隨者,沒有參加過制定新規則的思考和嘗試,現今這個時代對中華文化來說是一個機會。宋冰認爲,我們應該在這一次人類發展的關鍵點發出我們的聲音,豐富全人類的思想資源,她覺得這也是中國哲學的曆史責任和使命。
宋冰表示,回顧這兩年參與的中國哲學家和人工智能科學家對于終極問題討論,會發現他們存在著一些共通性。首先是非人類中心主義,像儒、道家思想,它們對人的思考其實是在“天地人三才”的結構中進行的,而非把人從自然中間抽離出來,與自然對立。這一點跟近代以來西方傳入的對自然和人的理解是相當不同的。佛家就更沒有人類中心主義的思想。
其次在方法論和思維方式方面,中國哲學家的思維方式一直是比較開放的,他們擁抱變化,對“變“並沒有生存級別的恐懼,具有唯變所適、與時偕行的精神。
最後,宋冰提到,雖然講的是人機關系和機器倫理,中國哲學家們通常認爲最終這個根還是在我們人本身,需要我們求諸于己。在思考所謂的機器倫理之前,人類首先要反省自身的進化和發展的曆史,並吸取教訓。機器無非是我們意識的延伸。根不深,樹則不正。
《智能與智慧》,宋冰 編著,中信出版社2020年2月
當機器也“愛”我們
我們應該感到甜美還是恐懼?
何懷宏認爲,要討論這個問題,首先要理解人究竟是什麽,當我們談論人性的時候是在談論什麽。
他認爲,在探討“是否應該”之前,要先考慮“是否可能”。何懷宏首先否認了這種可能,因爲相差太大。一個基本的障礙在于,人是碳基生物,但是人工智能機器是硅基生物。當然何懷宏也承認這裏面可能會有一些中間形態,比如說有一種可能是人會變得越來越接近機器,爲了延長生命,人可能會不斷植入硅基的器官,但是腦子或心靈還是人的,也保持著某些爲人的記憶。但一個基本的判斷是,如果未來真的實現了這些技術,人和機器之間總會有一條界線,也就是到某種程度之後,就不再定義爲人,而變成機器了。
不過何懷宏認爲,目前更重要的是機器朝人發展的速度比人向機器靠近的速度更快。摩爾定律說明智能機器不僅是加速發展、倍速發展,甚至可能是指數發展。那麽這樣的發展會帶來什麽?它會因此而變得具有人性嗎?對此,何懷宏舉了“愛”這種情感來說明。
一位麻省理工的教授曾將愛分爲四種類型,第一種是基于身體的欲望之愛,就是Eros ;第二種是像愛上帝,愛某種超越的存在的超越之愛,或是對某種精神境界的追求和愛,像佛教裏面的涅槃境界;第三種是優雅的愛,也就是騎士的愛。歐洲中世紀,風度翩翩的騎士爲了貴婦人可以犧牲自己的生命;第四種是近代以來的浪漫的愛,何懷宏認爲這在某種程度上也是一種升華了的欲愛。
那由這幾種愛我們可以思考,人對人會産生一種愛情,人對動物,甚至對單純的物件有時候也會發生很深的感情。有人會有戀物癖,還有人可能會愛上作爲機器人的性伴侶。但這些情感都是單向的,是沒有回應的。
這跟人和動物的感情是不一樣的。如果看過電影《忠犬八公的故事》,或在生活中有過養寵物的經曆,我們會發現人和動物之間是可以存在很深沉的互動的,這種感情是有回應的,動物也會愛我們,甚至有時是比我們還忠誠的愛。這個原因何在?就跟我們同是碳基生物有關。
但是機器不一樣,假如機器真的感到了“愛”,它是會反過來愛我們,還是利用我們、利用這種從控制的角度看來肯定是弱點的愛呢?
其實當機器似乎也愛我們的時候,我們應該感到恐懼,而不是甜美。它們與動物不同,動物沒有控制人類的技術能力,在能力上它無法超越人,但機器卻有可能。
就像電影《機械姬》中,一個工程師去測試一個被制造成女性的機器人,他對它産生了同情,可能也有某種愛的意味。這個機械姬也隱隱約約感到人比它還多出一點什麽,也許它也感到了人對它有一種感情、有一種愛。但是最後它還是利用了這種感情,把這個人永遠困在地牢,自己走到人類的都市裏去了。
我們無法用人類的道德去批評它的這種行爲,說它欺騙感情之類的,因爲這本來就跟機器完全不搭界。機器可能感受到一種感情,但是它自然而然就利用了這種感情。其身體的感受性注定了它與我們是不同的。
所以,有時候動物乃至凶猛的野獸,都比爲我們服務、帶來很多方便的智能機器人,離我們更近,離人類更近。盡管智能機器是我們制造的,但是人類確實難以把握一旦它有了自我意識,或者說有了某種自己的意識或者精神,它會怎樣對待人類?在何懷宏看來,如果有一天機器産生了另外的意識世界,很可能是不同于人類的。
總之,何懷宏對智能機器是否要發展爲超級智能機器,機器是否應該人性化是抱有很大疑慮的。他提到,如果我們對自己身體的不斷置換器官,乃至置換大腦而最後獲得一種新的性質的話,那將是一種“物性”還是“人性”?或者,如果說如果超級智能機器將有“心”的話,那將是一種“機心”還是“人心”?尤其我們聽到過一種說法,機器不可能超過人,因爲機器不會有人那樣的愛。但這不是安慰。可能恰恰因爲機器不會有人那樣的愛,不會有人那樣的同情,所以,反而更容易超過人。在我們與智能機器的控制力的競爭中,愛不是一個優勢,倒可能是一個劣勢。
何懷宏問道:“現在一些單一功能的機器人對我們百依百順,這是不是就夠好了?但百依百順並不是愛。我們是否還希望它能力更爲強大,變成通用化的超級智能機器?那時,你是不是還希望機器愛你,那會是一種什麽樣的愛?是像我們愛寵物一樣的愛?”
對此,他回答說:“所有這些,不是說我肯定知道什麽,而是肯定我不知道什麽。我不知道如果智能機器獲得一種‘意識’的話,那將是一種什麽‘意識’?我不知道如果機器具有了一種統一的‘自我’或‘主體’意識的話,那會是一種什麽樣的‘自我’或‘主體’。我的擔心和畏懼不是對我知道的東西的擔心和畏懼,而是對我所不知道的東西的擔心和畏懼。”
我們的生存矛盾
來自于自控能力與控物能力的不平衡
何懷宏表示,人有四個特征。第一,人是能夠制造和運用工具的動物,也就是控物能力,人有很強大的認知能力、計算能力等。第二,人不僅有對外物的理性,比如技術理性、工具理性,也有對自己的理性,比如人文理性或某種平衡的理性。第 三個特征就是人有綜合的自我意識,有主體意識,可以把上面的能力都統一到自身,形成人格。這三點主要是側重于人禽之別,從人和動物的區別來定義、來說明的。
而第四個特征,過去不太談到,但在智能機器出現的今天,尤其之後還有可能出現超級智能機器,這一點就要格外強調。這一特點不是人和動物的區別,而是人和動物共有的,就是人是碳基生物。
人有感覺、感性,有能夠綜合各種感覺的統一的知覺,有對某些原則,像是正義、公正的道德直覺,有上文提及的深厚的感情,像是愛,還有對超越自身和萬物的某種存在的信仰。這些恰恰都建立在人的這種更基本的性質、生物學的事實基礎上,即人是一個碳基生物。
而這一特性也給人類帶來很多脆弱性,比如說人會受傷,適應不了極端的氣候環境,比如人要不斷攝取營養,不能離開空氣、水、陽光,比如人的生命是有限的,會死亡。這些造成了人的有限性,但也正是從這有限性上生長起人類的文明。人會去追求,不僅是追求精神上的超越、無限,也追求能夠克服人的各種有限性的東西,甚至愛也是因爲對于人的某種脆弱性的熱愛。
用這四個特征來比照人工智能,它在第一點上已經部分超越了人,任何一個人都沒辦法在一秒鍾運算幾億次。而第二點、第三點,目前能看到的還是功能比較單一的機器人,哪怕是再複雜的電腦,也還沒有形成一個自我的意識。如果未來智能機器形成一個獨立的、綜合性的自我和主體意識,這其實是很危險的,因爲我們不知道它會形成一個什麽樣的自我。
這也就涉及對人類未來的憂慮,何懷宏將這憂慮總結爲兩大不平衡。一方面,人類的控物能力在近百年裏得到非常高度的發展,但是我們的自控能力並沒有相應地發展,這就形成一個很大的不平衡。而另一個不平衡是,隨著人的智能、認知能力的發展,人的精神的其他方面並沒有相應程度的飛躍,它們也形成一種巨大的不平衡。
何懷宏稱,這歸根結底或許是一種不平衡,即精神,尤其是道德和信仰能力的不足、不相稱,構成了自控能力和控物能力的不平衡,而且這是一個持久且根本性的矛盾。
我們可以看到,人類的整個價值取向,在軸心時代産生幾大文明後,差異性或者多樣性還比較明顯。但現在隨著全球化,人類的價值觀正取得一個最大程度的趨同。無論是西方還是東方,一些根本性的主導性的價值——更關心物質,更滿足物欲——正在逐步趨同。
而這可能會繼續造成、甚至加劇我們所說的控物能力和自控能力的不平衡,人的知識認知能力和其他精神能力的不平衡,這也是何懷宏最爲深切的憂慮。
他認爲目前不僅要考慮人類文明的繁榮富強之道,還要考慮人類的長久存續之道,而在這一方面,或許需要從軸心時代最早在精神上飛躍的前人那裏吸取智慧,爲了不讓我們成爲最後的人,我們也許要學會像最初的人那樣思考。
整理撰文 | 崔健豪
編輯 | 呂婉婷、李永博
排版 | Cassie
校對 | 危卓