GPT-3是OpenAI最新、最大的語言人工智能模型,由1750億個參數組成。總部位於舊金山的OpenAI研究實驗室今年5月開始逐步推出了該模型,並引起越來越大的反響。這個龐大的語言模型幾乎可以勝任所有可以用文字表達的工作:從回答問題、寫文章、寫詩歌、甚至寫代碼……無一不包。那麼,現實中它究竟有多厲害呢?
最近,國外一名剛入門GPT-3不久的伯克利大學生利亞姆·波爾(Liam Porr),以一個假名,然後用人工智能模型建了一個完全假的博客。不過,這卻成功“騙倒”了一大批內容閲讀者。
這個充滿諷刺性和欺騙性的“AI把戲”很快騙過了Hacker News等科技極客圈子,然後真相曝光——瞬間成為了熱點話題——這麼多人怎麼就被一個完全由AI搭建起來的所謂“博客”給誆了?居然還有不少人“訂閲”了上面的消息?
儘管許多人猜測到目前為止最強大的語言生成AI工具——GPT-3會如何影響內容生產,但這種“以假亂真”的程度和效果是他們始料未及的。這是目前唯一一次GPT-3如此真實地展示自己的實力,足以説明這一工具的應用潛力。
在加州大學伯克利分校(University of California, Berkeley)學習計算機科學的波爾説,這次經歷中最突出的一點是:“實際上,它超級簡單,這是最可怕的部分。”
登上頭條狂漲粉的“AI雞湯文”
雖然GPT-3還沒有徹底開放,但波爾卻依然輕輕鬆鬆獲取了接口。波爾提交了一份申請。他填寫了一張表格,裏面有一份關於他打算使用的簡單問卷。但他也沒有等上多少時間。在聯繫了伯克利的人工智能社區的幾名成員後,他很快找到了一名已經有此權限的博士生。
這個博士生同意合作後,波爾很快就寫了一個小腳本讓他運行。它給了GPT-3一個博客文章的標題和介紹,並給出了幾個完整的版本。Porr的第一個帖子(在Hacker News上發佈的那個)和之後的每一個帖子都是從一個輸出中複製粘貼過來的,幾乎沒有編輯。
他説:“從我想到這個想法並與那個博士生取得聯繫,到我真正創建了這個博客——這大概只花了幾個小時。”
波爾用假名字“adolos”寫的第一篇假博客,居然順順利利就登上了YC新聞平台Hacker News熱門榜第一名!波爾説,他使用了三個獨立的賬號在Hacker News上提交併投票,試圖把他的帖子推得更高。管理員説這個策略不起作用,但他的點擊率標題起作用了。
不需要太多編輯就能生成內容的訣竅是——理解GPT-3的優缺點。波爾説:“它很擅長創造漂亮的語言,但不太擅長邏輯和理性。”因此,他選擇了一個不需要嚴格邏輯的流行博客類別——“雞湯文”,這樣就能實現高效和自助式的產出。
然後,他按照一個簡單的公式來寫他的標題:他在Medium和Hacker News上翻來翻去,看看在這些類別中發生了什麼,然後把一些相對相似的東西放在一起。《感覺生產力不高?也許你應該停止思慮過多》“”(Feeling unproductive? Maybe you should stop overthinking)他為其中一篇文章寫道。《大膽和創造力勝過智慧》(Boldness and creativity trumps intelligence),他又在另一篇文章中寫道。有幾次,這些標題並沒有起到作用。但只要他堅持正確的話題,這個過程就很容易實現,“雞湯文”成功地幫着博客蹭蹭蹭狂漲粉。
兩週後,他幾乎每天都發帖子。隨後不久,Hacker News上就有人指責波爾的博客文章是GPT-3寫的。另一名用户卻回應説,這條評論“不可接受”。甚至有讀者讀後留言稱,“好文!和Ethan Hawke在Ted的演講一樣深刻!”對波爾的假博客持懷疑態度的少數人,居然就這樣被社區的其他成員投了反對票,妥妥證明了並非“大眾的眼睛都是雪亮的”。
一大部分人愣是沒看出來文章不是人類寫的,Medium、YC的新聞平台等多家平台都轉載刊發了他的第一篇博客、他的博客居然還瘋狂漲粉人氣居高不下……這讓小哥波爾開始感到不淡定了,不過他自己也感到非常驚訝。
波爾説,他想證明GPT-3可以冒充人類作家。事實上,儘管該算法的書寫模式有些奇怪,偶爾也會出現錯誤,但在他在Hacker News上發表的最重要的帖子上,只有三四個人懷疑該算法可能是由某個算法產生的。而且,所有這些評論都立即被其他社區成員否決。
最後,波爾以一條自己寫的神秘信息結束了這個項目。標題為《如果我沒有道德,我將如何對待GPT-3》,文章將他的過程描述為一個假設。同一天,他還在自己真正的博客上發表了一篇更直白的自白,澄清曝光了“假博客”的始終。
AI語言工具引發擔憂與思考
根據OpenAI的算力統計單位petaflops/s-days,訓練AlphaGoZero需要1800-2000pfs-day,而OpenAI的GPT-3用了3640pfs-day,看來擁有微軟無限算力的OpenAI,現在真的是為所欲為了。
對於專家來説,這一直是這種語言生成算法引起的擔憂。自從OpenAI首次發佈GPT-2以來,人們就猜測它很容易被濫用。而GPT-3已經成為OpenAI迄今為止推出最新、最大的AI語言模型。在自己的博客文章中,該實驗室重點關注了人工智能工具作為大量製造錯誤信息的武器的潛力。其他人則想知道是否可以用它來大量發佈谷歌遊戲相關關鍵詞的垃圾帖子。
去年2月,OpenAI的GPT-2(該算法的早期版本)登上了新聞頭條,OpenAI宣佈將保留該版本,以防被濫用。這一決定立即引發了強烈反響,研究人員指責該實驗室在“搞噱頭”。到了11月,該實驗室終於改變了立場,發佈了這個模型,當時還言之鑿鑿地稱“到目前為止沒有發現濫用的有力證據”。這不,這回“翻車”翻得有點厲害了。
該實驗室對GPT-3採取了不同的方法;它既沒有拒絕,也沒有允許公眾訪問。取而代之的是,它將算法提供給了那些申請私有測試的研究人員,目的是收集他們的反饋,並在今年年底將這項技術商業化。
波爾説,他的實驗還展示了一個更平凡但仍然令人不安的選擇——人們可以使用該工具生成大量的點擊誘導內容。他説:“很有可能會出現大量平庸無質量的博客內容,因為現在進入的門檻太低了。”“我認為在線內容的價值將大大降低。”
波爾計劃用GPT-3做更多的實驗。但他仍在等待OpenAI的介入。他説:“他們可能對我的所作所為感到不滿。”“我是説,這有點傻。”
背後的“AI大法”OpenAI
在成立的短短四年時間裏,OpenAI已經成為全球領先的人工智能研究實驗室之一。與Alphabet旗下的DeepMind等其他人工智能巨頭一樣,谷歌不斷推出引人注目的研究成果,並因此成名。它也是硅谷的寵兒,創始人包括埃隆·馬斯克(Elon Musk)和傳奇投資者山姆·奧特曼(Sam Altman)。
最重要的是,它因其使命而受到推崇。它的目標是成為第一個創造人工智能的機器——一個具有人類思維的學習和推理能力的機器。其目的不是統治世界;相反,該實驗室想要確保這項技術是安全發展的,並且它的好處能均勻地分配給全世界。
這意味着,如果AGI技術的發展遵循阻力最小的道路,那麼它很容易失控。圍繞在我們身邊的那種笨拙的人工智能,就是一個例子。問題是,AGI一直都很模糊。該領域內的共識是,這種先進的能力將需要幾十年,甚至幾個世紀的時間——如果真的有可能發展它們的話。許多人還擔心,過分追求這一目標可能會適得其反。
大多數人第一次聽説OpenAI是在2019年2月14日。那天,實驗室宣佈了一項令人印象深刻的新研究:只需按下一個按鈕,就可以生成令人信服的論文和文章。
但也有一個問題:研究人員説,這種被稱為GPT-2的模型釋放起來太危險了。如果這樣強大的技術落入壞人之手,就很容易被“武器化”,製造大規模的虛假信息。這立即引起了科學家們的強烈反對。
在持續不斷的炒作指控中,OpenAI堅稱GPT-2不是噱頭。更確切地説,這是一項經過深思熟慮的實驗,經過一系列內部討論和辯論後達成一致。大家一致認為,即使這次的行動稍微有點過火,但它將為處理更危險的研究開創先例。
但OpenAI與GPT-2的媒體宣傳活動也遵循了一種成熟的模式,這種模式讓更廣泛的人工智能社區產生了懷疑。多年來,該實驗室的重大、引人注目的研究公告一再被指責助長了人工智能的炒作週期。批評人士還不止一次地指責該實驗室大肆宣揚其研究結果,甚至達到了錯誤描述的地步。出於這些原因,該領域的許多人都傾向於保持一定的距離。
GPT-2引發如此強烈的反彈還有另一個原因。人們覺得OpenAI又一次違背了它之前關於開放和透明的承諾,並走上了營利的道路。未公開的研究讓人們更加擔憂和懷疑——會不會是這項技術一直處於保密狀態,為將來獲得許可做準備?但是人們並不知道,這不是OpenAI唯一一次選擇隱藏它的研究。
編譯/前瞻經濟學人APP資訊組
參考來源:https://www.technologyreview.com/2020/08/14/1006780/ai-gpt-3-fake-blog-reached-top-of-hacker-news/?itm_source=parsely-api
https://www.technologyreview.com/2020/02/17/844721/ai-openai-moonshot-elon-musk-sam-altman-greg-brockman-messy-secretive-reality/