科學現場調查:Neuralink 與大腦的神奇將來·第六局部: 大交融

  這是 ONES Piece 翻譯計劃的第 135 篇譯文。本文原載於 WaitButWhy.com,作者 Tim Urban 由 ONES Piece 塔娜、徐雪兒、王沫涵、任寧、何聰聰翻譯,關嘉偉校對。ONES Piece 是一個由 ONES Ventures 發起的非營利翻譯計劃,聚焦科技創新、生活方式和未來商業。

  Contents 目錄

  Part 1: The Human Colossus 人類的巨像

  Part 2: The Brain 大腦

  Part 3: Brain-Machine Interfaces 腦機接口

  Part 4: Neuralink’s Challenge Neuralink 的挑戰

  Part 5: The Wizard Era 巫師時代

  Part 6: The Great Merger 大融合

  第六部分:大融合

  想象一個外星探險家正在探訪一顆新的恆星,發現它擁有三顆行星,並且上面都有生命存在。其中一顆正巧處於公元前一千萬年時地球的狀態,一顆處於公元前五萬年時的狀態,另一顆則與 2017 年的地球相同。

  探險家不是原始生命方面的專家,但依然盤旋在三顆行星附近,通過望遠鏡觀察着每一顆行星。在行星一上,他看到了大片水面、大量樹木、山脈以及少量生命的痕跡。他還發現了一羣大象漫步在非洲大陸上,一羣海豚在大洋表面反覆躍起,以及其他一些零星的人散佈在各處。

  然後他轉去觀察行星二。人更多了,除此之外區別不大。他還注意到一個不同之處,星星點點的光芒不規則地散佈在大陸上。

  感到無聊後,他又去觀察行星三。哇喔。他看到地表上方有飛機來回穿梭,大塊灰色陸地上建築物高聳入雲,大洋上零星航行着各式船隻,長長的鐵路橫跨各片大陸,而且他還需要操縱飛船避開掠過的衞星。

  當他回到故鄉後,他會這樣報告自己的發現:兩顆行星上有原始的低等生命,一顆行星上有智慧生命。

  你能明白他為何會得出這些結論——但是他的結論是錯的。

  實際上,與其他兩顆不同的是行星一。行星二和行星三上都有智慧生命存在——相同的智慧生命。他們完全相同,以至於你在行星二上拐走一個嬰兒,將其與行星三上的一個嬰兒調換,之後他們都能像正常人一樣長大,並完美適應環境。他們毫無區別。但是,這怎麼可能呢?

  人類巨像。這就是原因。

  你是否曾好奇過,為何你平時只看得到周圍人的平庸,但又驚異於人類的成就?

  這是因為,實際上,人類現在仍相當於行星二上的人。

  把一個人類嬰兒交給一羣黑猩猩撫養,像泰山那樣,這個嬰兒長大後就能在森林中奔跑、爬樹、尋找食物,以及自慰。這樣的存在是本質上的我們。

  另一方面,人類是個擁有超常智慧、淵博知識、數千年曆史的巨大集合體,還各自擁有 75 億神經元。這樣的存在建造起了行星三。

  語言的發明使得每個人都能在死前將自己的知識存入一個集合,這個知識集合像一座高塔一樣越來越高,並最終作為人類巨像的大腦為我們建立起整個文明。自此之後人類巨像便開始不斷地創造,並隨着時間的推移越來越擅長。在創造價值的慾望驅動下,人類巨像來到了一個史無前例的階段,這也是為什麼我們正活在一個史無前例且極其特別的歷史時期中。

  你知道為什麼我説我們可能正處在兩個溝通時代的臨界處嗎?

  事實是,我們似乎正處於眾多歷史變革的前夜。在十萬年的人類歷史及 38 億年的地球歷史之後,這個世紀似乎將是地球生命從單行星紀元向多行星紀元飛躍的世紀。這個世紀可能是地球生物最終成功在自然演化之外主動編譯基因的世紀。現在的人們將能見證人類壽命擺脱自然的意志,並由人類自身意志掌控的時刻的到來。

  人類巨像的能力已經到達了一個全新的層次,這種能力足以顛覆之前的 38 億年曆史,並使我們迎來眾多驚人變革的臨界點。而一旦我們的外星朋友發現了碰巧與 2100 年地球相同的行星四,它看起來絕對與現在的地球完全不同。

  我希望大家都充分享受過了行星三的好處,因為我們即將離開它。我們將前往行星四,不管我們是否喜歡它。

  如果要我來總結伊隆·馬斯克所做一切的背後動機,那麼它其實很簡單:

  他想讓我們為移居行星四做好準備。

  他所看到的是整個大局,且只關注最宏大的大局。這就是為什麼他的視角如此與眾不同。這也是為什麼他感到如此焦慮。

  不是由於他認為行星四很糟糕,而是行星四有可能很糟糕,並且他明白不管我們這一代人是否已經意識到,我們都將是面對真實而殘酷的生存危機的第一代人。

  與此同時,我們是有切實希望迎來真正烏托邦式未來的第一代人——這個未來裏甚至可以公然挑戰死亡與税收。行星四可能會是我們的世外桃源。

  如果從宏大的視角去思考,你會意識到這份賭注無比之高。而且回報並非純憑運氣——得看人類巨像接下來的發揮。行星四隻會被人類巨像自己造出來。並且是天堂還是地獄取決於人類巨像接下來會怎麼做——也許是接下來 150 年,也許只是接下來 50 年。或者 25 年。

  但不幸的是,人類巨像並不擅長把「將盡可能多的人類轉移到一顆儘可能好的行星四上」的機率最大化——它擅長用任何辦法,儘可能快地造出行星四。在充分理解這些的基礎上,伊隆一直致力於使人類巨像的前進方向更符合人類的長遠利益。他明白重塑人類巨像是不可能的——除非生存危機突然變得迫在眉睫,通常這種情況出現就晚了——所以他拿巨像當寵物來對待。

  如果你想要你的狗坐下,你會把坐下的命令和給它的狗零食聯繫起來。對於人類巨像來説,「狗零食」是一個新產業同時在供需兩端急速爆發。

  伊隆看到人類巨像在不斷將深埋地下的遠古碳元素釋放到全球碳循環中,就像狗在地板上撒尿一樣,並且他不打算用語言的方式勸巨像停止這麼做(有很多人在這樣浪費口舌),或是嘗試逼迫巨像改變做法(政府在努力這樣做,但成效有限)。

  他打造了一種酷炫的電動汽車,拉風得讓每個人都會想要一輛。汽車工業看到了消費者偏好開始轉移,所以在特斯拉發佈第一輛汽車之後,旗下有電動車系列的主流汽車廠商從數量為零變成了幾乎所有。人類巨像似乎吃下了這塊「零食」,而且在行為上有所改變。

  伊隆發現,儘管各種引爆點即將到來,人類巨像依舊把所有生命的希望都保存在一個星球上,就像小狗跑進車水馬龍的馬路上一樣,於是他創辦 SpaceX 研究火箭着陸,這會讓太空旅行的成本降低 99%,所得到的成果則成為給太空產業的巨大貢獻。

  他的火星計劃不是告訴人類説,在火星建立新文明作為人類種族延續的保障是正確的——而是去發明一種可來往於火星和地球之間的廉價貨船,這樣就能保證一旦災難來臨,開發火星會有足夠的機會創造價值,人類也會下決心抓住這些機會。

  但是對伊隆來説,人類巨像最可怕的行為是教計算機巨像思考。對伊隆和其他很多人來説,長遠來看,超級智能的發展會是人類最大的生存危機。

  不難看出這裏的原因。智力賦予我們人類遠超地球上其他動物的神一般的力量——這對其他生物來説可不是好事。如果它們身體的任意部位有利用價值,我們都有對應的方式處理和出售它們。有時我們出於娛樂獵殺它們。但我們很可能感受不到樂趣,我們只是在做自己的事,基於我們自己的理由,不帶有仇恨或傷害他物的慾望,只不過一些生物或生態系統碰巧擋了我們的路,或者不幸受到我們造成的附加傷害。人們時常對人類這種做法感到憤怒,但實際上,我們只是在做所有生物都會做的事——優先利己。

  其他生物的麻煩不在於我們的利己——而是我們的利己能對它們造成巨大傷害,因為我們的力量遠超過它們。這份力量來自我們巨大的智力優勢。

  所以對於刻意發明某種智力(可能是遠遠)超越我們的存在,保持警惕是相當合理的——尤其是考慮到對於這件事,世界上所有人都是外行,畢竟之前可從未有人做成過這種事。

  而且這方面的進展相當迅速。伊隆是這樣評論谷歌的下棋 AI 的飛速進步的:

  我是説,你已經瞭解到這兩件事,AlphaGo 正面擊敗了這些人類棋手,4:1 擊敗了李世石,而現在它將能擊敗任何一個人類,而且在此同時和 50 位頂尖棋手對弈,並反覆擊敗他們。這應該也就是一年以後的事吧。

  而且這種情況現在只發生在一些無害的事情上,比如下棋。但 AI 超越人類的領域還在不斷增加。相比國際象棋,圍棋要更加複雜,但如果你和 AI 比試複雜度遠超圍棋的《英雄聯盟》或 DotA 2 這樣的即時戰略對戰遊戲,AlphaGo 暫時還贏不了。

  但將來它會的。然後下一關便是「現實世界」這個具有終極複雜的系統。

  基於以上原因,他對這些事情感到擔憂:

  近些年,就是最近這幾年,我意識到很顯然 AI 將在智力上大大超越人類。……在這一時間點上有可能會發生一些不好的事情,一些我們人類不能在它發生後掌控的事情——要麼是一小部分人壟斷了 AI 的力量,要麼是 AI 變得殘暴起來,或者類似的情況。這可能不會發生,但也可能會。

  但是在典型的人類巨像體系中,「集體意志並不理解 AI 的危險。」

  當 2015 年我採訪伊隆的時候,我問他是否會努力參與創造超級 AI。他説,「我的真實觀點是我們不應該創造超級AI。」之後當我表示,建造一個比你自己還聰明的存在看起來像是個基本的「錯誤」(這是我從 Nick Bostrom 那兒借來的詞),伊隆回答到,「我們會集體贏下獎的。」

  現在,兩年後,他是這麼説的:

  我曾努力了很久,讓大家警惕 AI,但很顯然這麼做毫無效果(大笑),於是我就像是,「好吧,那我們就只能努力讓它往好的方向上發展了。」

  他接受了現實——人類巨像不會停手,直到某天計算機巨像覺醒。這即將發生。

  不管人們是怎麼説的,沒人知道當計算機巨像學會思考時會發生什麼。在我的文章《Long AI Explainer》中,我分析了兩種觀點的來源,一種觀點認為超級 AI 將是現存所有問題的解決方案,一種觀點認為人類就像一羣小孩子,玩着自己也不理解的炸彈。我個人仍然不清楚到底哪種觀點更有説服力一些,但理性的做法應該是為最壞的情況做好打算,並且盡一切可能增加我們的勝算。很多專家同意這一邏輯,但對於開發超級 AI 的最安全策略卻幾乎沒什麼共識——只有那些很清楚自己不知道答案的人提出的一大堆猜想。有什麼人能知道如何防範自己也不瞭解的未來世界呢?

  伊隆也清楚他不知道答案——但是他正投身於一個能帶給我們最大希望的計劃。

  伊隆的計劃

  亞伯拉罕·林肯寫出這句話時是非常興奮的:

  要使這個民有、民治、民享的政府永世長存。

  不錯,寫得好極了。

  整個「民有、民治、民享」的概念便是民主的核心要義。

  不幸的是,「人民」是令人不愉快的。所以,民主也跟着變得令人不愉快。但這種令人不愉快與其他選擇相比更接近理想境地。伊隆是這樣説的:

  我認為對集體的保護是很重要的。我認為這就是丘吉爾所説的,「比起所有其他制度,民主是最不壞的政府系統。」如果你擁有一位筆下的哲學王式國王,這當然很不錯。但現在大部分獨裁者不是這樣的。他們經常是非常糟糕的。

  換句話説,「民主」就像是我們為了躲避一隻怪物的襲擊而藏身於陰溝之中。

  在人生中的很多關鍵點上,冒一些風險以抓住機會獲得最大回報是一種好策略,但當風險高得不能再高的時候,最好的策略通常是求穩。權力就是這樣的關鍵點之一。這就是為什麼,即使民主本質上帶來相當程度的平庸,伊隆説,「我認為你會很難在美國看到會有人,無論他們對任何總統候選人有怎樣的想法,會去為獨裁政權投上一票。」

  自從伊隆將 AI 視作終極力量,他將 AI 的開發視作終極「求穩」解決方案。這就是為什麼為了最小化來自 AI 的生存威脅,他的策略本質上是讓 AI 力量變得「民有、民治、民享」。

  為了努力實現這種對於 AI 領域的觀點,伊隆從多個角度進入了這一領域。

  在「民治、民享」這方面,他和 Sam Altman 創立了 OpenAI ——其自我描述為「非盈利的 AI 研究公司,致力於探索和共享安全的通用人工智能技術。」

  通常,人類對某種新事物的研究都是從少數前衞先驅者的研究開始的。當他們成功後,相應的產業被建立起來,人類巨像集體藉助先驅者的成果踏入這一領域。

  但是,如果先驅者在研究的是一根魔杖,它會帶給持有者無邊的強大力量,超越其他所有人的力量——包含阻止其他人造魔杖的力量呢?這就有點嚇人了,不是麼?

  這就是伊隆如何看待當下 AI 發展成果的。由於他無法阻止人們嘗試造魔杖,他的應對方式是創建一個開放、共享、透明的魔杖研究實驗室。每當實驗室發現一個革命性突破,實驗室會將其發表出來,供任何人查看或為用於製作魔杖,而不是像其他公司一樣將其當作商業機密持有。

  另一方面,這樣做也有缺點。壞人也在嘗試製作魔杖,而你絕對不想讓第一根魔杖出現在壞人手裏。現在壞人的研究進展也會受益於實驗室公開的新成果。這是個很嚴肅的問題。

  但是實驗室同樣也促進了數百萬其他人創造魔杖的進程。這促使未知的先驅者當中產生了激烈的競爭,並且某個發明者遠早於其他人造出魔杖的可能性變得更低了。更可能發生的是,當第一根魔杖最終被造出來時,會同時有成百上千個接近完成的魔杖——不同的魔杖,不同的能力,被不同的人持有,有不同的用處。如果我們註定會在地球上持有魔杖,伊隆認為,至少要確保在世界各地有足夠多的人同時持有——而不是隻有一個無敵的魔術師。或者,如他所説:

  本質上,如果每個人都來自氪星,那就太棒了。但如果只有一個人是超人,而且超人還有着一個希特勒般的人格,那我們可就有麻煩了。

  更廣泛地説,單獨一個先驅者的魔杖很可能是造來服務於創造者自己的需要和目的。但將未來的魔杖產業變成合作共享式的,各式魔杖對應各種需要和目的,這使世界上的魔杖總和將更可能滿足所有的大眾需求。

  就像民主一樣,你懂的。

  像尼古拉·特斯拉、亨利·福特、和艾倫·圖靈那樣領先於所有人做出超前的革新,這沒什麼問題。但當你面對某種難以想象的強大發明時,你不能什麼都不做,完全讓先驅者們去搞定一切——這樣做風險太大了。

  OpenAI 是一種使 AI 的誕生民主化的努力,目的是在拓荒階段使全體人類都參與到 AI 的開發中去。伊隆這樣總結道:

  AI 將一定會遠遠超過人類的能力。根據其契合人類意志的程度,尤其是大多數人類的意志總和,它可以成為大多數人類所想要的成果,因為它會是他們意志的產物。

  那麼,現在你可能已經確保了早期不低於人類水平的超級 AI 是「民治、民享」的——這杜絕了超級 AI 落到某個單一的壞人手中,或被壟斷者嚴密控制的可能性。

  現在,我們面臨的問題只剩下「民有」了。

  這一點應該很簡單的。記住,人類巨像發明超級 AI 和發明汽車、工業機器人和電腦的目的是一樣的——作為一種人類自身的延伸去承接我們的工作。汽車代替我們走路,工業機器人代替我們進行流水線操作,而電腦則搞定信息存儲、組織和計算。

  發明能思考的電腦會是目前我們最偉大的發明——它們將允許我們把最重要和高效的工作外包出去。思維帶來了我們今天擁有的一切,所以想象一下創造一個極其智能的思維「延伸」所帶來的力量。而由人類自己定義的人類延伸,就是「民有」。

  最後剩下這一個問題了——

  高水平的 AI 和其他的發明不太一樣。我們的其他技術擅長做它們被設計來做的事,但最終它是個不能思考的有限智能機器。我們在努力發明的 AI 會是很「聰明」的,就像人一樣——像一個「可笑的」聰明人。它從根本上與我們過去的發明不同——那我們為什麼指望既有的規則適用於它呢?

  掌控我們自己發明的技術是一件自然而然的事情——這一點明顯得完全不需要強調。但如果因為比人類還要聰明,我們造出來的東西可能不容易掌控,這一點還成立嗎?

  有沒有這樣的可能,一種造物比地球上任何的人類都善於思考,它可能不完全認同作為人類延伸的工作,哪怕這種工作就是它被設計來做的?我們不知道到底會發生什麼——但承認這種可能性存在才是穩妥的。

  而如果這種可能性真的變成事實,我們可能有了一個大麻煩。

  因為,正如對人類歷史的研究所預示的,在世界上出現一種比其他人都聰明的存在,這對所有其他人是一件非常糟糕的事情。而如果 AI 成為了這種比世界上其他人都聰明的存在,且它還不完全為我們所擁有——這意味着它只屬於它自己,這會將我們都劃入「其他人」範疇。

  「多數人」獲得對 AI 的壟斷控制是人類的內部矛盾——這也是 OpenAI 致力於解決的問題之一。但它跟 AI 不受控制的問題比起來根本不值一提。

  這就是令伊隆徹夜難眠的事情。他看到超級 AI 在這個星球上的崛起只是個時間問題——當這一刻到來時,他相信讓我們不被劃入「其他人」的範疇是件生死攸關的事情。

  這就是為什麼他認為,在一個由 AI 和其他人組成的未來世界裏,我們只有一個選擇:

  成為 AI。

  還記得之前我説的,有關巫師帽我們需要理解的兩點嗎?

  這是個很難理解的想法

  這是個超級難以理解的想法

  2 號帽子就在這裏登場。

  當埃隆將巫師帽比喻成人腦的「數字的第三層」時,他指的意思就是這兩種想法。如前所述,第一個是認為全腦接口等同於把設備放入大腦的概念——實際上這將你的大腦變成了設備。

  就像這樣:

  你的設備賦予你半機械式超能力,和一扇通向數字世界的窗户。你大腦的巫師帽電極陣列是一個新的大腦組成結構,參與着大腦邊緣系統和皮層的工作。

  但是你的大腦邊緣系統、皮層和巫師帽只是硬件系統。當你體驗着你的大腦邊緣系統時,你的互動對象不是物理系統——而是它內部的信息流。出現在你意識中的是物理系統的活動,是它使你感到憤怒、恐懼、性奮或飢餓。

  同樣的還有大腦皮層,這張包裹着大腦的皮層存儲和組織着信息的餐巾。但當你思考、觀察、聆聽或產生感覺時,你體驗的是信息本身。皮層的視覺區域本身對你沒有任何影響——其中傳輸的由光子形成的信息流給了你視覺體驗。當你在記憶中搜尋某些東西時,你不是在尋找神經元,你在尋找神經元中存儲的信息。

  大腦邊緣系統和皮層本身只是些灰質。灰質中活躍的信息流形成了你所熟悉的內心人格、本能和理性思維。

  那麼,這些對你的「數字的第三層」意味着什麼呢?

  這意味着當在你腦袋中的實際上是物理設備——電極陣列本身時,你所體驗和了解的作為人格的「數字的第三層」的部分,其實是電極陣列中流動傳輸的信息。

  正如邊緣系統中的感覺和慾望,大腦皮層中的思想和無盡的聲音,對你來説都像是你自己的一部分——就像是你的內在精神——你巫師帽中活躍的信息流也會像是你內在精神的一部分。

  伊隆對巫師紀元的看法是,在巫師帽的眾多用途中,它的核心功能之一會是作為你大腦和雲端定製化 AI 系統的交互中介。他相信,這個 AI 系統會像本能和理性思維一樣成為你人格的組成部分——並且和其他意識一樣,感覺就像你的一部分。他説:

  我認為,可以相信,會有一種方式使「數字的第三層」感覺起來就像是你的一部分。它不是用來臨時代替你的,它就是你。

  這在理論上是合理的。你用大腦皮層完成大部分「思考」,但當你餓了時,你不會説,「我的邊緣系統餓了」,你説,「我餓了」。同樣的,伊隆認為,當你嘗試給一個難題想解決方案,且 AI 帶着答案出現時,你不會説,「我的 AI 搞定這個問題了」,你會説,「啊哈!我搞定這個問題了」。

  當你的邊緣系統想要拖延而皮層想要工作時,可能會有這樣一個熟悉的場景,它不像是你在與某外部存在爭論,它像是你自己在掙扎着要變自律一些。相似的,當你在工作上想出一個策略而你的AI不同意,這會產生意見不合且帶來爭論——但它會感覺像是一個內部爭論,不是你和一個碰巧進入你思想的外人在爭論。這個爭論會感覺像是思考。

  這在理論上是合理的。

  但當我第一次聽到伊隆談起這個概念時,它給人感覺不太對。不論我多努力去理解它,我不停地用熟悉的概念去解釋它——比如一個我能在腦中聽到它聲音的 AI 系統,或者甚至是一個我能與之一同思考的 AI。但在這些例子中,AI 似乎仍然作為一個外部系統與我交流。

  再之後,有天晚上工作時,我在重讀一些伊隆關於這個概念的言論,我突然領悟到,AI 應該成為我。徹底成為我。我懂了。

  然後我又搞不懂了。第二天,我嘗試把我的頓悟解釋給一個朋友聽,併成功把我倆一塊兒搞糊塗了。我的理解又退回這樣的狀態,「等下,它好像不會真的成為我,它會和我進行交流」。

  自此之後,我就不斷想通又搞混這個想法,再也沒能持續把握住這個概念。與之最相似的情況是,有一段時間裏,我覺得時間是相對的和時空是種單一結構還挺有道理的。有那麼一瞬間,我直觀地理解了當你移動得足夠快時間會變慢。然後我就搞不懂了。在我敲下這些句子的現在,我還是不能直觀理解這個概念。

  成為 AI 這個概念尤其不好理解,因為結合了兩個令人困惑的概念——人腦交互與它帶來的能力,以及人造通用智能。人類現在還不能直接理解這兩個概念的任何一個,因為我們雖然極富想象力,但它卻都是基於我們生活現實的,而這兩個概念對我們來説都完全超現實了。這就像是嘗試想象一種你從未見過的顏色一樣。

  這就是為什麼當我聽伊隆描述他的這些信念時,我會搖擺于堅信自己和被他説服的狀態之間。反反覆覆。但既然他 7 歲就理解了相對論,且還知道如何殖民火星,我傾向於認真聽他説。

  他説帶寬非常關鍵。要想使巫師帽起作用,帶寬的作用非常重要。但伊隆相信,要實現與 AI 之間的交互,與單純使用 AI 相比,高帶寬不僅僅是成為 AI 的優先選項,實際上在初期它是先決條件。他是這樣向我闡述他的想法的:

  挑戰在於與 AI 之間通信的帶寬是很低效的,尤其在信息發送方面。當藉助手機發送信息時,你只能用兩個拇指慢慢打字。這簡直慢得要命。……如果帶寬太低,你和 AI 的結合就會非常弱。極低帶寬帶來的限制,會讓這種結合變得有些沒有意義。

  AI 會自行運行,因為與人的對話太慢了。通信的速度越快,你與 AI 的結合度就越高——通信的速度越慢,結合度就越低。我們與 AI 的結合越差——AI 越獨立——它背叛我們的可能性就越高。如果 AI 完全獨立,並且擁有遠遠高於我們的智能,你如何保證它們的最優化功能不會與人類的利益相背?

  如果我們實現了與 AI 緊密共生,AI 就不會獨立出來——它會成為你,並且與你大腦皮層的關係會類似於大腦皮層和邊緣系統的關係。

  伊隆看到了通信帶寬決定了我們與 AI 的結合程度,也看到了結合程度決定了我們未來在 AI 世界中的位置:

  我們將面臨着一個選擇,是被遠遠超過,或是不比寵物更有用——比如家貓之流,你懂的——又或是最終找出某種方法與 AI 結合後共生。

  緊接着他又説:

  另外,被當成家貓倒也是個好結果。

  即便不知道超級 AI 時代來臨時會出現什麼樣的 AI,與 AI 的結合能作為對我們種族的保護這一點也是很容易理解的。

  AI 紀元裏我們的威脅來自壞人掌握了 AI 技術,或者發狂的 AI 不認同人類存在的價值。在數百萬人都能各自控制世界 AI 整體的一小部分的世界裏——包括可以與 AI 一同思考且保護自己的人們,和因為與 AI 的融合而能從根本上理解 AI 的人們——人類是沒有那麼脆弱的。

  人們會非常強大,這很恐怖,但正如埃隆所説,如果每個人都是超人,那麼單個超人就很難造成大規模的破壞——有太多的阻礙和制衡存在。而且通常我們更不可能失去對 AI 的控制,因為地球上的 AI 在其目的上會非常多樣和獨立。

  但時間在這裏相當重要——伊隆着重強調了這一點:

  在這個方向上的計劃進程至關重要。我們不希望數字超級智能的開發比人腦 AI 的交互出現得早太多。

  當我想到所有這些時,一個不確定之處是,一個全腦 AI 交互是否足以使人腦與 AI 的融合成為可能。我向伊隆提到了這點,指出當時人腦的思維速度與電腦之間仍然會有着巨大的差距。他説:

  是的,但是提高帶寬的量級能大大改善這個情況。而且它在解決問題的思路上對了。這個做法能解決所有的問題麼?不能。但它的思路對麼?對。如果你要挑些方向去解決這個問題,為什麼不選這個方向呢?

  這就是為什麼伊隆要創立 Neuralink。

  他創建 Neuralink 以加快我們進入巫師紀元的步伐——進入一個新世界,在這裏,如他所説,「每個人都可能選擇讓 AI 成為其自身的拓展,所以會存在數十億個『人類-AI』共生體,他們可以共同做出關於未來的決定。」在這個世界裏,AI 真的可以變得「民有、民治、民享」。

  我猜,讀完之前幾萬字的文章,一部分的你相信我們居住的這個瘋狂世界真會成為未來——另一部分則拒絕相信。我也同時有這兩個想法。

  其中瘋狂的部分不應該成為難以相信它的理由。記住,喬治·華盛頓在他看到 2017 年的時候被嚇死。而我們未來的顛覆性會是難以想象的。唯一的區別是,現在事物的變化要比喬治的時代快得多。

  「被未來嚇死」這個概念與我們集體智慧的魔力相關——但它也與我們直覺中的天真相關。我們思維的進化是在一個極其緩慢的過程中完成的,我們的身體是以適應這個過程為準的。

  而如果我們不積極地改造我們的直覺——我們自身中看到了未來的不可思議卻拒絕相信的那部分——我們就是在騙自己。

  事實是,我們正在朝一個非常嚴酷的目標狂奔在一條嚴酷的路上,沒人知道目的地有什麼在等着我們。很多人不敢想象未來會怎樣,我覺得這很有趣。因為當我們這些人出生時,沒有像正常人一樣生在正常的世界裏,而是生在一部驚悚小説中。

  有些人瞭解了這一點,並決定像伊隆一樣,竭盡所能讓電影能有個好結局——感謝上帝他們正在這麼做。因為我更想做一個什麼都不用幹的觀眾,老實坐在椅子上,為好人們加油。

  不管怎樣,我認為一邊爬樹一邊不時看看外面的風景是很好的,這能提醒我們自己正處在什麼樣的時代中。而且附近還有很多樹。希望很快能在另一棵上見到你。

版權聲明:本文源自 網絡, 於,由 楠木軒 整理發佈,共 10488 字。

轉載請註明: 科學現場調查:Neuralink 與大腦的神奇將來·第六局部: 大交融 - 楠木軒