盡管成立只有短短四年時間,OpenAI 已經成爲世界領先的 AI 研究實驗室之一,在 AI 研究領域與谷歌人工智能實驗室、DeepMind、微軟研究院、艾倫人工智能研究所相媲美。
而且,因其由埃隆 · 馬斯克,以及投資家薩姆 · 阿爾特曼、天使投資人彼得 · 泰爾等傳奇人物共同創立,OpenAI 無疑還是硅谷大亨們的寵兒。
所有這些都賦予了 OpenAI 非凡的使命,它的目標是要成爲第一個創造出通用人工智能(Artificial General Intelligence,簡稱 AGI)的研究機構,讓機器具備人類的學習和推理能力。該實驗室的目的,是要確保這項技術被安全地開發出來,並造福全世界。
OpenAI 想成爲 AGI 領域的領頭羊,爲此,它精心打造了自己的形象。在這個由財富公司占主導的科技領域,它以一個非營利組織的形象出現,其首次聲明就表示,它將以這樣的身份“爲所有人帶去價值而非股東”,它的章程宣稱 OpenAI 的“主要信托責任是針對全人類的。”OpenAI 還表示,安全實現 AGI 是第一要義,如有其他研究組織能很快實現,它也會放下競爭並與其合作。曾經,這套說辭對投資者和媒體十分受用。
但是最近一年來,OpenAI 卻飽受批評,先是發布最強 “通用”NLP 模型 GPT-2 而不開源;研發戰略缺乏變化和多樣性,單純依賴大量的計算資源投入叠代産品;再就是接受微軟 10 億美元投資,從而轉爲“有限盈利” 企業……
圖 | 從左至右:Greg Brockman,聯合創始人兼首席技術官;Ilya Sutskever,聯合創始人和首席科學家;Dario Amodei,研究主任(來源:Christie Hemm Klok)
種種迹象表明,OpenAI 與 4 年前馬斯克所聲明的那個 “人工智能非營利組織” 已然不同。
《麻省理工科技評論》記者 Karen Hao 通過在 OpenAI 辦公室的三天觀察,以及對離職和在職的員工、合作者、朋友和其他領域專家的近三十次采訪,揭開了 OpenAI 的真實面貌:OpenAI 似乎放棄了其先前的開放性和透明性承諾,當衆承諾一套,閉門經營的方式卻是另外一套。隨著時間的推移,它已經讓激烈的競爭和越來越大的資金壓力侵蝕了其透明、開放和合作的基本理念。
值得一提的是,目前已不再參與 OpenAI 事務的馬斯克,在本報道推出後,發推文稱,“OpenAI 應該更加開放”,“所有開發高級 AI 的組織都應受到監管。”
許多被采訪者堅持匿名,因爲他們沒有被授權發言或害怕遭到報複。他們的敘述表明,盡管 OpenAI 有著崇高的抱負,但它仍然致力于維護秘密,保護自己的形象,並要求員工效忠。
初衷:OpenAI 將會是敞開
OpenAI 于 2015 年 12 月 11 日亮相世界。它並不是第一個宣稱要創建 AGI 的組織,DeepMind 在 5 年前就已經提出這一目標,並于 2014 年被谷歌收購。但 OpenAI 似乎有所不同。
首先,它的標簽令人震驚:馬斯克、阿爾特曼和貝寶的聯合創始人彼得 · 泰爾等私人投資者最初爲這個項目聯合注資 10 億美元。
大佬雲集的投資者名單引發了媒體瘋狂報道,初始員工的名單同樣亮眼:曾爲支付公司 Stripe 負責技術業務的格雷格 • 布羅克曼將出任首席技術官;曾師從人工智能先驅傑弗裏 · 辛頓的伊爾亞 · 蘇茨克維將擔任研究主管,還有七名剛從頂尖大學畢業或從其他公司挖過來的研究員將組成核心技術團隊。
其次, OpenAI 以非營利組織身份發表了一則聲明:“重要的是要有一個領先的研究機構,它可以優先考慮好的結果,而不是自己的私利。”“我們將大力鼓勵研究人員發表他們的研究成果,無論是論文、博客文章還是代碼,我們的專利(如果有的話)將與全世界共享。”
盡管 OpenAI 沒有明確表達批判的說法,但言外之意很明顯:DeepMind 等其他實驗室由于受商業利益的約束不能服務全人類。在這些機構向人類關上大門的時候,OpenAI 將會是敞開的。
在一個越來越私有化、專注于短期財務收益的研究領域,OpenAI 提供了一種新的方式來推動在 AI 技術最大問題上取得進展。“這是一個希望的燈塔。”機器學習專家 Chip Huyen 說,他密切關注著 OpenAI 實驗室的發展曆程。
早期加入 OpenAI 的人還記得當初的活力,興奮和目標感。當時的團隊通過緊密的關系網組建——而管理上則保持寬松隨意。每個人都相信在這樣一個開放的、扁平的組織結構中,任何人都可以提出自己的想法並展開討論。
馬斯克在建立一個集體神話上扮演了重要角色。皮耶特 · 阿布比爾是加州大學伯克利分校的一名教授,在 OpenAI 建立起的最初兩年,他和他的幾位學生一起在那共事,他回憶說:“我第一次感受到他的這種才能是在一次講話中,他說,‘我知道 AGI 也許很遙遠,但如果不是這樣呢?如果在未來 5 到 10 年內發生的幾率有 1% 或 0.1%,那會怎麽樣?我們不是應該仔細考慮一下嗎?’他的話引起了我的共鳴。”
但是這種輕松隨意的想法也導致了後來某些方向上的模糊。2016 年 5 月,阿爾特曼和布羅克曼接待了時任谷歌研究員的達裏奧 · 阿莫迪,後者告訴他們,沒人明白他們在做什麽,據《紐約客》當時發表的一篇報道稱,尚不清楚 OpenAI 團隊是否意識到這一點。布羅克曼對此表示:“我們現在的目標…… 是做當下最好的事情。”這仍然是模糊的答案。
盡管如此,阿莫迪還是在幾個月後加入了 OpenAI 團隊。
OpenAI 變了
到了 2017 年 3 月,也就是公司成立 15 個月後,領導層意識到是時候更加專注了。
于是布羅克曼和其他幾個核心成員開始起草一份內部文件,爲 AGI 鋪平道路。但這個過程很快暴露出一個致命缺陷:當研究小組研究這一領域的趨勢時,他們意識到在財務上保持非營利組織屬性是站不住腳的。該領域內其他組織用于取得突破性成果的計算資源大概每 3.4 個月翻一番。布羅克曼表示,“爲了保持相關性”,他們顯然需要足夠的資本來匹配或超過這種指數級增長。
這就需要一種新的組織模式,既能迅速聚攏資金,又能以某種方式忠于自己宣揚的使命。
2018 年 2 月,馬斯克宣布,由于在公司發展方向上存在分歧,他將離開 OpenAI。一個月後,阿爾特曼辭去創業加速器(Y Combinator)的總裁一職,成爲 OpenAI 的 CEO。
2018 年 4 月,在公衆和大多數員工不知情的情況下,OpenAI 發布了新的章程,文件重新闡明了該實驗室的核心價值,但巧妙地改變了語言方式,以反映新的現實問題。除了承諾 “避免使用危害人類或過度集中力量的人工智能或自動識別技術” 外,它還強調了對資源的需求。章程中提到:“我們預計需要調撥大量資源來完成我們的使命,但我們將始終努力采取行動,盡量減少員工和利益相關者之間可能損害廣泛利益的矛盾沖突。”
布羅克曼表示:“我們花了很長時間與員工進行內部溝通,從而讓整個公司都接受一套新觀念。即使我們改變了結構,使命和要做的事情也必須和原來一樣。”
這種轉型發生于 2019 年 3 月,OpenAI 通過設置 “利潤上限” 部門(回報達到投資的 100 倍之後才會分配利潤)來擺脫其非營利組織的屬性。此後不久,它宣布微軟爲其投資了十億美元(盡管它沒有透露這是微軟雲計算平台 Azure 的現金和信用分成)。
不難預料,此舉引發了一波指責,外界認爲 OpenAI 背離了初衷。聲明發出後不久,一名用戶在 Hacker News 上發帖質問,怎麽實現 100 倍的利潤上限,他們寫道:“谷歌的早期投資者獲得了大約 20 倍的資本回報,貴公司的賭注是將擁有一個比谷歌回報更高數量級的公司結構…… 而且不造成‘權力不正當集中’?這如何實現?如果不依靠資源集中,那權力又爲何物?”
圖 | 從左到右依次爲:丹妮拉 · 阿莫迪,傑克 · 克拉克,達裏奧 · 阿莫迪,傑夫 · 吳(技術人員),格雷格 · 布羅克曼,亞曆克 · 拉德福德(技術語言團隊負責人),克裏斯汀 · 佩恩(技術人員),伊爾亞 · 蘇茨克維和克裏斯 · 伯納(基礎架構負責人)(圖片來自:CHRISTIE HEMM KLOK)
此舉也讓許多員工感到不安,他們表達了類似的擔憂。爲了平息內部混亂,領導層起草了一份常見問題解答,作爲一系列受到高度保護的過渡文件的一部分。有一個問題是:“OpenAI 可信嗎?”答案開頭是“可信”,後面跟了一段解釋。
《OpenAI 章程》是該公司的核心所在,它是所有實驗室研究的指向標。
該章程對 OpenAI 進行了全方位講解,布羅克曼會在午飯時當聖經一般背誦一遍。有一次背誦時,他突然說,“我不是只在開會之前把它拿出來草草看幾眼。我花了很多時間一遍又一遍重複這些內容,直到我對它了如指掌。”
如何在開發更高級的 AI 功能的同時,確保人類生活的意義呢?“我們認爲,AI 的作用應該是幫助所有人實現經濟自由,並幫助他們尋找前所未有的新機遇。”
如何才能實現 AGI 的公平分配?“我們的發展目標就是實現 AI 的實用性。但所有內容均取決于章程的規定。”
如何在確保安全的前提下實現 AGI 的優先發展?“我認爲一定存在兩全其美的辦法,不過我們需要先了解章程中的內容。”
布羅克曼認爲,嚴格遵守章程是 OpenAI 有條不紊發展的根源所在。除個別人以外,所有全職員工都要在同一間辦公室工作,這樣的內部協調十分重要。
對于政策團隊負責人傑克 · 克拉克來講,這意味著他每天需要往返于舊金山和華盛頓之間。不過他樂此不疲,並對此表示十分認同。這其實取決于個人態度,他認爲,和同事一起吃午飯可以幫助所有人保持統一步調。
在這種方式下,效果十分明顯:該公司的統一文化確實令人印象深刻。
員工工作時間很長,用餐和社交的時間也不忘討論工作;很多人都會參加同一個聚會,他們十分認同 “有效利他主義” 的理性哲學。他們引用機器學習的術語自嘲生活:“你的生活有何種功能?”“你想要優化什麽?”“生活只不過是函數罷了。”事實上,AI 研究人員都喜歡這麽調侃,熟悉 OpenAI 的人深知這一點,OpenAI 的員工將 AI 研究視爲一種身份認同,而非一份工作。
布羅克曼在去年 11 月迎娶了交往一年的女友安娜,婚禮的背景鮮花擺放成了 OpenAI 的 logo 圖樣。Sutskever 擔任婚禮主持;機器人擔任花童。
去年年中,章程的內容又進行了調整,它不僅僅是人們茶余飯後的談資了。OpenAI 改爲上限盈利機制以後,領導階層很快對公司的薪資結構進行了調整,對每位員工實行任務責任制。
“統一技術型進階”中除了 “工程專業知識” 和“研究方向”的內容以外,最後一欄中還要求填寫員工對每一級的文化期望。第 3 級:“員工需了解並內化《OpenAI 章程》。”第 5 級:“確保所有團隊成員在項目研究過程中遵從章程規定。”第 7 級:“員工有責任擁護和改進章程內容,並積極帶動其他員工。”
噱頭式成果發布
人們第一次了解 OpenAI 應該是在 2019 年 2 月 14 日,OpenAI 宣布了一項新的研究成果:GPT-2 模型,只需按下一個按鈕,計算機就可以創造出行雲流水的文章。如果輸入《指環王》中的內容或麥莉 · 賽勒斯遭入室搶劫的新聞,計算機也可以立即創造出一段又一段同樣風格的短文。
不過這也出現了一個問題:研究人員表示,GPT-2 模型存在很大風險,目前還無法發布。如果這種強大的 AI 模型用作他途,就會成爲創造無數虛假信息的有力武器。
科學家紛紛提出反對意見。有人認爲 OpenAI 就是以此爲噱頭作秀。GPT-2 模型還不夠先進,因此也不會構成任何威脅。如果它真的存在風險,OpenAI 爲何急于發布並妨礙群衆監督呢?
“OpenAI 似乎是在制造 AI 恐慌。”羅格斯大學的助理教授布裏特 • 帕裏斯說,他專門研究 AI 制造的虛假信息。
去年 5 月,OpenAI 改變了之前的說法,並宣布了 “階段式發布” 計劃。接下來幾個月,OpenAI 推出的 GPT-2 模型功能越來越強大。
在此期間,OpenAI 還與數個研究組織合作研究 GPT-2 算法濫用存在的潛在威脅,並制定了相應對策。最終,OpenAI 在 11 月發布了 GPT-2 的完整代碼,並表示“目前還沒有證據表明 GPT-2 會被用作他途。”
雖然人們一直指責 OpenAI 將 GPT-2 作爲宣傳噱頭,但 OpenAI 予以否認。相反,它認爲這是一次深思熟慮的實驗,經過一系列的內部探討和辯論才達成共識。
政策團隊在後續 6 個月發布的博客內容中提到了這一點,這些觀點都是大家開會一致決定的,當時我也在場。
“我認爲章程絕對是我們取得成功的關鍵所在,”政策研究科學家 Miles Brundage 在談到谷歌文檔時表示。
不過 OpenAI 在宣傳 GPT-2 時遵循了以前的模式,這也使廣大 AI 社區普遍感到擔憂。多年來,人們一直認爲 OpenAI 在發布研究成果時存在炒作嫌疑。評論家也不止一次地指責 OpenAI 發布的研究成果有些誇大其詞。
基于這些原因,這個領域的許多人都傾向于與 OpenAI 保持一定的距離。
不過 OpenAI 依然堅持投入資源重塑公衆形象。它告別了傳統的論文形式,將研究成果直接發表在了公司博客中。它可以內部完成多媒體制作以及研究成果封面設計等諸多工作。它還可以獨立制作和 DeepMind 的 90 分鍾紀錄片 “AlphaGo” 相媲美的紀錄片。
目前 OpenAI 將主要精力放在了獨立制作上,布羅克曼和妻子安娜目前也進行了部分融資。
各種反對的聲音也需要通過內部討論解決。員工不滿于外界批評的聲音,領導層也擔心這會瓦解 OpenAI 的影響力,導致人才流失。
內部章程中重點提到了這一問題,並提出了解決問題的有效策略,其中 “政策” 部分提到:“爲了擁有政府級別的決策影響力,我們必須發展成人們最信賴的 ML(machine learning,機器學習)和 AGI 研究機構。”“獲得 AI 研究界的廣泛支持不僅是塑造聲譽的有效方式,還可以擴大我們的影響力。”“策略”部分提到,“我們應將 ML 社區視爲共同的利益相關者。言語沖突無法避免時,我們應調整說話的語氣和談論的內容。”
押注計算驅動,悶聲造車
GPT-2 引發如此激烈的反彈還有另一個原因。人們覺得 OpenAI 再一次違背了它早先的開放和透明的承諾。一個月後,營利性機構轉型的消息傳出後,這項被擱置的研究讓人們更加懷疑:這項技術一直處于保密狀態,會不會是在爲將來獲得專利做准備呢?
但很少有人知道,這不是 OpenAI 唯一一次選擇隱藏它的研究。事實上,它還對另一項研究完全保密。
關于實現 AGI 需要什麽,有兩種流行的技術理論。第一,所有必要的技術都已經存在,AGI 只需要解決如何縮放和組裝它們。第二,需要一個全新的範式,目前人工智能的主導技術,也就是深度學習還不夠。
大多數研究人員介于這兩個極端之間,但 OpenAI 一直以來都幾乎完全處于第一個技術理論中。它的大多數突破都是來源于將大量的計算資源投入到其他實驗室。
布羅克曼和 Sutskever 否認這是他們唯一的策略,但實驗室嚴密保護的研究表明並非如此。一個名爲 “前瞻”(Foresight) 的團隊進行了一些實驗,以測試他們能在多大程度上推動人工智能能力的發展,方法是訓練現有的算法,使用越來越多的數據和計算能力。對于領導層來說,這些實驗的結果證實了他們的直覺,即實驗室的全投入、計算驅動的策略是最好的方法。
在大約六個月的時間裏,這些結果都沒有向公衆公布,因爲 OpenAI 將這些內容視爲自己的主要競爭優勢。員工和實習生被明確告知不要透露這些信息,而離開的員工則簽署了保密協議。
直到今年 1 月,這個團隊才不動聲色地在人工智能研究的一個主要開源數據庫上發表了一篇論文。那些經曆過保密工作的人不知道該如何應對這種變化。值得注意的是,另一篇來自不同研究人員的類似結果的論文已于一個月前發表。
隨著時間的推移,領導層已經偏離了最初的信念——開放是建立有益的 AGI 的最佳方式。現在,保持沉默成爲 OpenAI 研究人員的習慣,這包括在沒有交流小組明確許可的情況下,絕不與記者交談。
在我第一次去 OpenAI 辦公室之後,當我開始聯系不同的員工時,我收到一封來自其公關主管的電子郵件,提醒我所有的采訪要求都必須通過她。我拒絕了她的請求,我說這樣做會破壞別人告訴我的事情的有效性。她就指示員工隨時向她彙報我的舉動。克拉克曾是一名記者,後來他在信中表揚員工在記者 “四處打探” 時,能把消息捂得嚴嚴實實的。
OpenAI 的一名發言人在回應這一高度保密的聲明中,提到了該公司憲章的一部分內容。“我們預計,基于安全和安全問題,我們將減少在未來的傳統發布,”該部分說,“同時增加共享安全、政策和標准研究的重要性。”
該發言人還補充道:“此外,我們的每一次發布都要經過一個預估風險過程來權衡,我們希望緩慢發布我們的結果,以了解潛在的風險和影響,然後再公之于衆。”
其中一個最大的秘密就是 OpenAI 正在進行的下一個項目。消息人士對我說,它基于該公司 4 年來的研究成果:一個使用大量計算資源對圖像、文本和其他數據進行訓練的人工智能系統。
一個小團隊已經投入前期工作,並期望其他團隊最終會加入進來。在宣布此事的公司全體會議上,不允許實習生參加。熟悉該計劃的人士給出了一種解釋:領導層認爲,這將是最有希望達成 AGI 的方式。
推動 OpenAI 戰略的是達裏奧 • 阿莫德,他曾是谷歌員工,現在擔任研究總監。
達裏奧 • 阿莫德將實驗室的策略分爲兩部分。他將第一部分比作投資者的“投資組合”,這一部分規定了該公司計劃如何達到先進的人工智能能力。
OpenAI 的不同團隊正在進行不同的押注。例如,語言團隊的押注是一個理論,該理論假設人工智能可以通過單純的語言學習延伸出對世界的重大理解。相比之下,機器人團隊提出了一個相反的理論,即智能需要物理機體來發展。
就像在投資者的投資組合中一樣,並不是每一次押注都有同等的權重。但是出于科學嚴謹的目的,所有項目都應該在被抛棄之前進行測試。達裏奧 • 阿莫德以 GPT-2 非常逼真的自動生成文本爲例,試圖證明爲什麽保持開放的思想很重要。他說:“純粹的語言是這個領域甚至我們中的一些人都有些懷疑的方向。”“但現在人們會說,‘哇,這真的很有前途。’”
隨著時間的推移,不同的賭注越押越高,它們將激發更強烈的工作熱情。然後它們會交叉糅合,目標是讓越來越少的團隊最終蛻變爲 AGI 的單一技術方向。這正是 OpenAI 最新的絕密項目應該已經在進行的過程。
達裏奧 • 阿莫德解釋說,戰略的第二部分集中在如何使這種不斷發展的人工智能系統保證安全。這包括確保它們反映了人類的價值觀,能夠解釋其決策背後的邏輯,能夠在不傷害他人的情況下學習。
每一個致力于安全目標的團隊都試圖開發出可以在項目成熟時跨項目應用的方法。例如,可解釋性團隊開發的技術可以用于揭示 GPT-2 句子結構或機器人動作背後的邏輯。
達裏奧 • 阿莫德承認,這部分策略有點隨意,較少建立在該領域的既定理論上,更多是建立在直覺上。他表示:“到某個時候我們將建造 AGI,到那時,我希望這些系統在世界上的運行是讓人滿意的。”“任何我目前感覺不太好的事情,我都會專門爲之創建並招募一個團隊。”
在宣傳和保密之間,達裏奧 • 阿莫德說這話的時候看起來還是很真誠的。失敗的可能性似乎使他不安。
“我們處在一個尴尬的境地:我們不知道 AGI 長什麽樣,”他說。“我們不知道什麽時候會實現。”然後,他小心翼翼地補充道:“任何一個人的心智都是有限的。我發現最好的辦法是聘請其他安全研究人員,他們通常會有不同的視野。我想要那種變化和多樣性,因爲那是你捕捉一切的唯一方式。”
商業化壓力加劇
問題是,OpenAI 實際上幾乎沒有什麽“變化和多樣性”。
實驗室的一位發言人說,在 120 多名員工中,25% 是女性和非二元性別者。她說,執行團隊中有兩名女性,領導團隊中有 30% 是女性,不過她沒有明確指出團隊中的個人信息。比如布羅克曼和阿爾特曼在內的四名高管都是白人。我在領英等網站上找到了 112 名員工,其中絕大多數是白人或亞裔。
公平地說,這種多樣性的缺乏在 AI 領域中是很常見的。
去年,總部位于紐約的研究所 AI Now 發布的一份報告發現,在主要人工智能會議上,女性作者僅占 18%,女性 AI 教授占 20%,Facebook 和谷歌的女性研究人員數量分別占 15% 和 10%。
OpenAI 的發言人說:“學術界和工業界肯定還有很多工作要做。而我們需要認真對待多樣性和包容性,目前我們正在與 WiML、Girl Geek 和學者項目等方面進行合作,不斷努力改進。”
事實上,OpenAI 已經在試圖拓展人才庫。2018 年,它啓動了面向少數族裔的遠程學者項目。盡管大家在工作中都表現的很積極,但第一批的八名學者中最後只有兩名成爲了正式員工。拒絕留在 OpenAI 的最常見原因是:他們必須住在舊金山。娜嘉 · 羅德斯曾是 OpenAI 的一名學者,現在是紐約一家公司的首席機器學習工程師。
如果缺乏多樣性是人工智能行業普遍存在的一個問題,那麽對于一家以 “讓每個人都能公平享有技術” 爲使命的公司來說,多樣性則更是一個關乎生存的問題。現在的事實是,AI 行業缺乏最有可能被排擠在外的群體的代表。
正如布羅克曼經常提到的 OpenAI 的使命那樣,他們現在並不清楚該如何計劃把通用人工智能的“好處分配給全人類”。領導層在談到這一點時總是含糊其辭,也沒有采取什麽行動來實施具體細節。
今年 1 月,牛津大學人類未來研究所與 OpenAI 的實驗室合作發布了一份報告,提議分配一定比例的利潤來作爲福利。但報告作者指出 “在執行方面存在重大未解決的問題”。“這是我在 OpenAI 時遇到的最大的問題,” 一位不願透露姓名的前雇員表示。
羅格斯大學的布裏特 • 帕裏斯回應稱:“他們正試圖利用成熟的技術手段讓 AI 解決社會問題。但看起來他們沒能真正理解什麽是社會所需要的。他們只是覺得把目標定位在這裏有利可圖。”
布羅克曼表示認同,OpenAI 要實現其使命,技術和社會專業知識都是必不可少的。但他不同意從一開始就兼顧這兩方面。他說:“要如何將倫理道德和其他觀念引入其中?什麽時候把這些加入 AI 中,怎麽加進去?有一種策略是,從一開始就盡可能地把你需要的東西都塞進去,但我認爲這種方法成功幾率很低。”
他說,我們首先要弄清楚的是 AGI 到底應該是什麽樣子。只有了解了這個,才能夠“確保我們會理解它帶來的後果”。
去年夏天,在 OpenAI 轉向利潤上限模式和微軟注資 10 億美元後的幾周,公司領導層向員工保證,這些變化不會在功能上改變 OpenAI 的研究方式。微軟與實驗室的價值觀非常一致,並且都認爲任何商業化的研究都是遙遙無期的;解決基本問題仍然是 OpenAI 工作的核心。
這些保證在一段時間內似乎是有效的,項目繼續和往常一樣進行。許多員工甚至不知道微軟向他們做出了什麽承諾。
但近幾個月來,商業化壓力開始加劇,能賺錢的研究聽起來不再那麽遙不可及了。Altman 私下與員工分享他的 2020 年實驗室願景時,傳達的信息很明確:OpenAI 需要賺錢來做研究,而不是用研究來賺錢。
領導層表示,這是一種艱難但必要的權衡,因爲 OpenAI 缺乏富有的慈善捐贈者,他們不得不做出這種權衡。相比之下,非營利組織 AI2 正雄心勃勃地推進人工智能基礎研究,(至少在可預見的未來裏)它的資金來源是已故億萬富翁保羅 • 艾倫留下的自籌資金。
然而事實上,OpenAI 面臨這種權衡,不僅僅是因爲它沒有太多資金支持,還因爲它的戰略選擇,它試圖第一個碰觸到 AGI 領域。這種壓力迫使它做出的決定越來越偏離初衷。它急于通過大肆宣傳來吸引資金和人才維持自己的研究,以期保持住領域優勢,並追求一個計算量很大的戰略。這不是因爲它是通往 AGI 的唯一途徑,而是因爲它看起來是最快的途徑。
不過 OpenAI 仍然是人才和前沿研究的基地,它不乏真誠地爲人類利益而努力工作的員工。換句話說,它仍然擁有最重要的元素,仍然有機會來改變現狀。
前遠程學者羅德斯表示,“在我看來,OpenAI 確實存在一些問題,”她遲疑地開始說,“其中一些可能來自它所面臨的環境;而有些來自它傾向于吸引的那類人,有些則來自它忽略的那類人。”
“但對我個人來講,他們是在做一些正確的事,”她說,“我能感覺到那裏的人非常認真努力。”