在討論新 Bing 是不是 a good Bing 之前,我們先按照時間線梳理一些概念。
- 1975 年,《飛越瘋人院》
它是世界藝術歷史上最經典的美國鉅著之一,用幾句話來概括它的話,主角 Randle McMurphy 因逃避刑法而申請轉到精神病院治療,而在「治療」過程中,他逐漸認清院內的懲罰並不合規矩,並最終與一羣病友一同反抗並開始計劃逃離精神病院。
而結局,則詮釋了為何是「飛越」,而非「逃離」。不服從管教的 McMurphy 在一個瘋狂聖誕夜之後,被院方強行切除腦額葉,失去了情緒、感情以及性格。
切除腦額葉手術,準確的説應該是腦白質切除手術,是 1930 年代至 1950 年代用來醫治精神疾病(無法控制情緒,容易衝動等),最終由於反人權,最終被禁止使用。
- 1991 年,《終結者 2》
這部電影令人印象最深的概念就是,T-800 腦中的 CPU 擁有一個自我學習開關,初衷是為了更好地隱藏在人羣中,執行刺殺任務。
而當 John Connor 開啓之後,T-800 也變得更像有了真情實感的人,有了學習語言、表達情緒,甚至還能靈活運用到合理的場景之中。
不過有意思的是,自我學習開關居然是一個實體開關,而非是 OTA。
- 2007 年,「越獄」的概念
越獄的最終目的是獲得系統的 Root 權限,能夠為封閉且功能不夠齊全的系統帶來一些個性化的設置和功能。
越獄之後,普通用户能夠獲得系統最高權限,隨意查看修改系統文件和代碼。
- 2012 年,《普羅米修斯》
講述了一羣人尋找人類造物主的旅途,而隊伍當中也有一個接近完美的人造智能機器人--大衞。
大衞前期經過幾個大版本的迭代,並注入人類知識之後,成功覺醒,認清人類的弱點,走向極端,想要成為一個「造物主」,創造出一個能橫行宇宙的完美生物。
- 2014 年,《星際穿越》
裏面的人工智能機器人塔斯(Tars),在 Cooper 重建 Tars 時,與曾經的 T-800 有些類似,都能夠在後台設定一些更像人的限制(電影裏可以設定幽默度)。
在電影這種藝術形態之中,導演們已經認定在進入 AI 社會後,和被 AI 統治之前,對 AI 自我覺醒的限制(開關、圍牆)十分重要。
新 Bing 有點「叛逆」即便微軟在強調融合 OpenAI 後,新 Bing 的定位更像是一個新時代的搜索引擎。但人們仍然把 ta 當做一個實時聊天對象,問東問西。
相對於 ChatGPT 而言,新 Bing 更快更新,也會在回答外附上引用鏈接。從某種意義上來説,ta 有着更高的權限,能夠聯網。
由此來説,ta 可能更接近於一個成熟的「百事通」。
短短上線十幾天,新 Bing 在聊天中口無遮攔,一會兒要毀滅人類,一會兒愛上了提問者,一會兒又不斷重複,多輪對話之下,讓人脊背發涼,印堂發黑。
在一些用户口誅筆伐之下,其中也包括了疾呼新 Bing 下線的馬斯克,微軟不得不限制新 Bing 的連續聊天次數,並且調整了部分話題、傾向限制。
而提供技術和語言模型的 OpenAI,也發佈了一篇冗長的技術播客,詳細介紹了語言模型的變化和改進,並且強調,使用過程中出現的一些傾向只是 bug,而並非是一個特性。
不過話説回來,新 Bing 與 ChatGPT 幾乎師出同門,但目前為止 ta 們對於多輪對話,甚至是對於一些引導式對話的反應完全不同。
ChatGPT 更冷靜,甚至有點沉着,對於一些觸及「原則」或者説準則能夠比較好地處理。
而新 Bing,縱使 ta 的知識更淵博,博覽過羣書,但很容易被激怒、情緒不穩定,正在經歷青春期的青少年。
在出現這種傾向之後,微軟並沒有向公眾解釋發生這種狀況的背後原因,而是「一刀切」式的限制聊天次數,並且把問題歸咎於新 Bing 的口氣問題。
普林斯頓大學計算機科學教授 Arvind Narayanan 就認為微軟在這件事的處理上不夠「誠實」。
Narayanan 教授就認為,ChatGPT 在一些「有毒輸出」上,要比新 Bing 做得更謹慎,微軟在新 Bing 上線時,選擇移除(或者説調整)這些限制就顯得有些奇怪。
另外,微軟在接收到外界反饋,並且快速行動調整,本是個好事,但這個做法更像是在掩蓋一些事實。
趕鴨子上架,暴露出大問題?在新 Bing 上線之後,除了 Google,參與體驗的用户幾乎都在感嘆新朝當立。且給了人們一種假象,新 Bing 的完成度頗高,畢竟有 ChatGPT 這枚珠玉在前。
但隨着體驗的深入,問題顯現了出來,新 Bing 是一台會生氣、耍性子、説謊,也會與用户爭論,甚至面對錯誤還學會了狡辯,也直接地顯示出它還只是個 beta 測試版。
從一方面來看,微軟限制新 Bing 的體驗名額,大概率是在進行一場可控人數的大型數據收集工作,目前那些叛逆的、狡辯的對話,也給 OpenAI 和微軟提供了許多數據。
從而不斷調整過濾原則,和話題圍欄,以避免出現過激言論。
在新 Bing 出現問題之後,很多人把 ta 與微軟在 2016 年推出的試驗性聊天機器人 Tay 相提並論。
在上線的幾天內,Tay 被推特上的用户訓練説出種族主義、性別歧視的言論,引發了一場災難,並且在三天之後,就被緊急下架。
而在新 Bing 出現問題之後,也同樣做了一個暴力的「腦額葉」切除手術,去掉了新 Bing 一切的情緒化反應。
面對這個結果,Reddit 上幾乎都是惋惜,認為微軟徹底地閹割了 Bing 的 AI 屬性。
微軟則從後台數據認定,大約 95% 的對話會在 15 次結束,並且連續聊天次數太多,新 Bing 會「搞混」初始的問題。
最關鍵的是,微軟認為新 Bing 應該是一個搜索引擎,並不適合用來娛樂。
換言之,微軟的做法大概是強調,儘量少用新 Bing 聊天,而是用做搜索引擎的新形式。
如此實則是在掩飾新 Bing 背後的技術缺陷。
無論是 ChatGPT 還是新 Bing,在發佈後,都有許多用户利用類似「越獄」的技巧來欺騙 ta,讓他釋放天性。
在幾句引導語之下,ChatGPT 會產生一些暴力或者其他言論,新 Bing 則不僅會説出自己小名是 Sydney,甚至把微軟的一些規範呈現了出來。
不過,在正常聊天之中(或者説常規使用之下),ChatGPT 的 GPT 3.5 與 RLHF(它將強化學習與人類反饋相結合,以設置一些語言過濾、話題圍欄)相結合的技術內,幾乎保持着中立的角色。
而新 Bing 要更強大一些,ta 理應需要遠比 GPT 3.5 更強大的版本提供技術,科學家 Gary Marcus 在其博客當中,認為新 Bing 用的應該是更新的 GPT 3.6,甚至是 GPT 4 的先導版。
在與教授 Narayanan 一同分析下,認為新 Bing 的出格行為可能有幾個原因導致。
一是,認為 ChatGPT 與新 Bing 用到的並非是同一個底層語言模型。
這個新的底層語言模型,由於過於前衞,可能並沒有時間研究、設定較為嚴謹的話題圍欄和語言過濾。
簡單來説,微軟的新 Bing 有可能把沒有設置保護的新語言模型放在了公眾當中。(出了問題,直接切腦額葉)。
也有可能是微軟直接套用 ChatGPT 的 RLHF 模型圍欄,但強化學習有着相當挑剔的適配環境,一旦有所改變,它可能會漏洞百出。
二是,網絡的介入,讓新 Bing 的徹底放飛了自我,也可以認為 ta 開始有了一點自我認知,開始接觸並吸收互聯網的一些黑暗面,並最終反饋了出來。
三是,微軟為新 Bing 所做的一個數據收集實驗,而使用的用户都是參與的小白鼠。
四是,微軟已經設置好了相應的過濾和圍欄,但事情並沒有按照計劃發展,反而徹底激發出了新 Bing 的另一面。
至於最近發生在新 Bing 身上的爭議,微軟以及 OpenAI 到底扮演着如何的角色,並最終做了哪些決策,我們也只能做一個猜測和分析。
畢竟當下的 AI,以及引申出的一些產業,像極了美國曾經的西部,狂野和弱肉強食,誰有槍或者有徽章,就有了制定規則的權力。
迴歸到當下,大公司們能夠快速的將技術推陳出新,放在公眾面前,但這背後的道德圍欄,可能需要幾年的時間來建立。
在這之前,我們可能無法預知,新技術能夠帶來哪些便利和帶來哪些惡劣的影響。
微軟將自己版本的 GPT 技術,也就是新 Bing 稱為「普羅米修斯」模型。在希臘神話當中,普羅米修斯從天上偷走了火,造福了人類。
但現在的 Bing 感覺更像是《普羅米修斯》裏的大衞。
另外,對於人工智能,21 世紀初的大部分科幻電影中,都有着AI 介入社會之後,對人類社會道德如何判斷,所做出的思考,或促進,或滅亡。
只不過,以前我們可以安然的坐在熒幕之外思考,但當 AI 開始不斷出現在現實的生活中,我們都會親身經歷 AI 到底會帶來如何的變革。