請不要專注於兩端的拔河者,要專注於中間繩結。
在過去一年左右的時間裡,我看待世界的最大變化之一是將意識形態辯論視爲一場敘事拔河遊戲。
對於每一個敘事,都存在著等量而相反的敘事,而這幾乎是注定的。
一方努力拉向極端,另一方則拉回到自己的位置。
例如:人工智慧將毀滅我們所有人←→ 人工智慧將拯救世界。
一開始是一場小小的分歧,最後卻被放大爲完全對立的世界觀。最初是一場微妙的對話,最後卻被視爲口號。最初是你的對手的人變成了你的敵人。
如果你專注於極端,專注於雙方拉繩的團隊,你很容易感到興奮。當然,也很容易挑剔他們說的每一句話,並指出他們忽略或遺漏的所有事情。
但我想說的是,不要這樣做,請專注於中間的結。
在每側試圖將其進一步拉向自己一側時,這個結來回移動,它是最值得關注的東西。
對於他們來說,這是理念之爭,對於我們來說,這是新東西産生的地方。
有一個叫做Overton Window 的概念:在一段時間內,大多數人在政治上可以接受的政策範圍。
自從Joseph Overton 在1990 年代中期提出這個想法以來,這個概念已經超越了政府政策。現在,它被用來描述思想如何進入主流對話,從而影響公眾輿論、社會規範和製度實踐。
Overton Window 是敘事拔河中的結。在兩邊拉繩的團隊其實並不指望每個人都會同意並採納他們的想法;他們只需要拉得足夠努力,使Overton Window 朝他們的方向移動。
另一種思考方式是像價格錨定一樣,當一家公司提供多個價格等級時,知道你會選擇中間的價格等級。
沒有人指望你支付7000 美元的超級專業版。他們只是知道透過向你展示它,會使你更容易接受爲專業版支付69 美元。
敘事也是一樣,但與其說是一家公司精心設定價格以最大程度地增加你購買專業版的可能性,不如說是獨立而對立的團隊,設法找出如何用足夠的力拉動結,使其回到他們認爲是可以接受的位置。當你考慮這一點時,這是一種文化魔法。
我可以用很多例子來說明這個想法:科技。具體來說是,去成長與成長,或EA 與e/acc。
EA與e/ acc
這是在我所在的領域內,最大的辯論之一(隨著本月OpenAI 的戲劇事件而爆發到世界)是有效利他主義(EA)與有效加速主義(e/acc)。
這是那些相信我們應該繼續增長的人,和那些不相信我們應該繼續增長的人之間的長期鬥爭的最新表現,也是一個通過這場敘事拔河進行深入探討的完美案例。
如果你單獨看其中一方,兩種觀點都顯得極端。
EA(我用來簡稱AI 風險團隊)認爲,人工智慧有很大可能會毀滅我們所有人。考慮到未來幾千年將有數億人類,即使有1%的可能性人工智慧會毀滅我們所有人,阻止這種情況發生也能拯救數百億或數千億人的生命。我們需要在達到通用人工智慧之前停止人工智慧的發展,無論代價如何。
作爲該團隊的領隊,Eliezer Yudkowsky 在《時代》雜誌中寫道:
關閉所有大型GPU 叢集。結束所有大型訓練。設置任何人在培訓人工智慧系統時被允許使用的計算能力上限,並在未來幾年內逐漸降低以補償更有效率的培訓演算法。不允許政府和軍隊的任何例外。立即達成跨國協議,防止被禁止的活動轉移到其他地方。追蹤所有銷售的GPU。如果發現資料中心,甯願通過空襲摧毀。
轟炸數據中心以阻止人工智慧發展的想法是真的荒謬。
e/acc(我用來簡稱贊成人工智慧的團隊)認爲人工智慧不會殺死我們所有人,我們應該盡一切可能加速它。他們認爲技術是好的,資本主義是好的,而兩者的結合,即技術資本機器,是「永續物質創造、成長和豐富的引擎」。我們需要不惜一切代價保護技術資本機器。
Marc Andreessen 在他的推特簡介中標榜“e/acc”,他最近撰寫了The Techno-Optimist Manifesto ,在其中提出了支持技術進步的論點。其中部分段落特別激怒了人工智慧的反對者:
我們存在敵人。 他們不是壞人,但他們有著壞思想。 過去六十年裡,我們的社會在一直受到一場大規模的摧毀運動的影響,即反對技術和反對生命,它們以各種名義出現,如“存在風險”、“可持續性”、“ESG”、 「永續發展目標」、「社會責任」、「利害關係人資本主義」、「謹慎原則」、「信任與安全」、「技術倫理」、「風險管理」、「減長」、「成長的極限」。
這種摧毀運動是基於過去的壞思想——從共産主義中衍生出的許多僵屍思想,這在過去和現在都是災難性的。
正如許多記者和部落客很快指出的那樣,大多數人認爲好的事物——例如可持續性、倫理和風險管理——在爭論中看起來似乎是荒謬的。
這兩篇文章的批評者都忽略了一點,任何一方的論點都不應該脫離上下文。微妙並不是任何一個具體論點的重點。你用力拉動邊緣,這樣細微的差別就會出現在中間。
雖然雙方都有最激進的人——一邊要求完全關閉人工智慧,另一邊要求不受任何一個團隊(無論是政府還是公司)控制的技術資本增長———但真正發生的是一場敘事拉鋸戰。
EA 希望看到對人工智慧進行規範,並希望成爲制定規定的人。e/acc 希望看到人工智慧保持開放,不受任何一個團隊的控制,無論是政府還是公司。
一方通過警告人工智慧將殺死我們所有人來吸引關注,以嚇唬公眾和政府迅速制定規定,另一方通過辯稱人工智能將拯救世界來反拉,以防止規定太早製定,以便人們可以親身體驗其好處。
就我個人而言,毫不奇怪,我站在技術樂觀主義者一邊。但這並不代表我認爲技術是靈丹妙藥,或是不存在需要解決的真正問題。
這意味著我相信發展比停滯更好,問題是有解決方案的,歷史表明技術進步和資本主義都提高了人類生活水平,而不好的規定比沒有規定更大的風險。
雖然世界的變化是基於敘事拉鋸戰,但也存在真相。悲觀主義者——從Malthus 到Ehrlich——被證明是錯誤的,但恐懼卻在蔓延,因此主流敘事繼續偏向反技術。真正令人擔心的是,在真相浮出水面之前,限制性監管就已經到位。
因爲這場敘事拔河遊戲的問題在於它不是一個公平的遊戲。
反發展一方只需要用力拉動足夠長時間,就能讓監管得以實施。一旦到位,就很難推翻;通常情況下,規定還會逐步加強。世界各地對核能的利用,就是一個明顯的例子。
如果他們能夠將繩結拉過規定線,他們就贏了,遊戲結束。
贊成增長一方必須繼續用力拉動足夠長時間,以便真相可以在新技術帶來的混亂中浮出水面,以便企業家可以構建證明承諾的産品,以及創造性的人可以提出在不削弱進展的情況下解決問題的方案。
他們需要讓這場拉鋸戰持續足夠長的時間,以便在中間找到解決方案。
以太坊聯合創始人Vitalik Buterin 寫了一篇名爲My techno-optimism 的文章,在其中提出了一個解決方案:d/acc。
他寫道,「d」可以代表很多東西;特別是防禦、去中心化、民主和差異化。」這意味著利用科技以一種防範潛在問題、優先考慮人類繁榮的方式開發人工智慧。
在一方,人工智慧安全運動透過「你應該停止」這一訊息進行宣傳。
在另一方,e/acc 說:「你已經是一位英雄,就像你現在這樣。」讓我們繼續前進。
Vitalik 提出了d/acc 作爲第三種,中間的方式:
一種d/acc 所發出訊息,即說“你應該建設,並且建設有益於你和人類繁榮的東西,但要更有選擇性和更有意識地確保你正在建造的東西能夠幫助你和人類繁榮發展」。
他認爲這是一種綜合,可以吸引人們,無論他們的哲學是什麽(只要哲學信仰不是「將技術管製到粉碎」)。
如果沒有EA 和e/acc 在兩個極端施加壓力,可能就沒有了Vitalik 的d/acc 的中間空間。極端本身缺乏細微差別,爲中間出現細微差別創造了空間。
如果EA 獲勝,則監管會阻止發展或使其集中到少數公司手中,那麼麽這個空間就不存在了。如果目標是監管,那麽就沒有不涉及監管的解決方案。
但如果目標是人類繁榮,就有很多解決方案的空間。
盡管Vitalik 明確不同意e/acc 的某些內容,但Marc Andreessen 和e/acc 的匿名聯合創始人Beff Jezos 都分享了Vitalik 的貼文。這顯示他們關心的是更好的解決方案,而非自己的解決方案。
無論d/acc 是否是答案,它都完美地抓住了極端的要點。只有當e/acc 設定了外部邊界時,涉及透過Neuralinks(腦機介面公司)將人類和人工智慧合併的解決方案才能被視爲明智而溫和的做法。
在這場和其他敘事拉鋸戰中,極端起到了一定作用,但它們不是目的。對於每一個EA,都有一個等量而相反的e/acc。只要遊戲繼續,解決方案就可以從這種張力中出現。
再次聲明,請不要專注於兩端的拔河者,要專注於中間繩結。