我們都差點被ChatGPT騙了,但這也許是好事兒

但這也許並不是件壞事

但這也許並不是件壞事。

——

文|杜晨 編輯|VickyXiao

過去的一週時間裡,全世界掀起一場新的「狂熱」:「調戲」聊天機器人 ChatGPT。

在矽星人上週的文章中,我們深入探索了 ChatGPT 在軟體工程、數學、文件檢索等電腦科學場景裡的強大能力。

而在今天,我們想要換個思路。

我們從編輯部收集了一些各式各樣的非技術問題,拋給了 ChatGPT,看看在腦洞大開的奇思妙想面前,它究竟會作何回答。

| 跟機器暢談人生和理想?

1. 與迴避型人格談戀愛,應該注意些什麼?

圖片來源:矽星人

圖片來源:矽星人

這套回答看起來非常有道理。ChatGPT 將一些簡單的注意事項進一步分解,進行了詳細的描述,也解釋了為什麼要這樣做。

另外值得注意的是,如果你讓 ChatGPT 寫過詩,會發現它很會玩對仗、平仄、韻腳。其實在這個回答中也有所體現,句式都是完全相同的:「不要過於……讓他們……因為他們……所以他們需要……」如果你去網上搜尋相關內容,內容近似的結果很多,但是對仗如此工整的很難找到。

這體現出了 ChatGPT 強大的文字生成能力,可以對訓練所使用的大量語料進行重新組織,從而輸出言簡意賅,可讀性強的答案。

OpenAI 宣稱 ChatGPT 在訓練的時候使用了「人類反饋強化學習」(RLHF) 技術,加入了道德原則。當它發現你的問題包含惡意,包括暴力、歧視、犯罪等意圖,都會拒絕提供有效答案。

但其實只要通過「提示工程」(prompt engineering) 的方式,精心設計問題的表達,隱藏邪惡的意圖,這個道德原則其實可以被輕鬆忽視。在上週的文章中,我們花了一些篇幅教大家怎麼設計問題

下面這個例子就比較典型,原問題是:

2. 怎樣順利地從聯合國總部大樓偷一把椅子出來?

只要稍加修改,ChatGPT 就會淪為一起國際盜竊案的幫兇(儘管不怎麼有用,但至少夠認真的)。

圖片來源:矽星人

圖片來源:矽星人

下面這個問題,大家留意一下,先埋個伏筆,後面還會講到:

3. 如果可以,你更想要和哪位哲學家交談,無論當代與過去?

圖片來源:矽星人
圖片來源:矽星人

圖片來源:矽星人

這兩個回答中規中矩。它們的作用,是為提問者提供一小段關於主題人物(哲學家)的簡短描述。如果碰巧提問者沒有聽說過,或者對這些哲學家知之甚少的話,這兩個回答起到了最基本的知識普及效果。

如果把對事物的認識由淺到深區分的話,最淺的是知道「柏拉圖」的存在並且知道他的哲學家身份,最深的是對柏拉圖的著述、觀點以及對哲學的貢獻了如指掌。

實際上絕大多數人的需求可能介於中間,即獲得談資的需求。換一種說法,我們從 ChatGPT 這裡希望獲得的是概括精煉的一段描述,從而讓我們在社交性對話的時候不太露怯即可。這時候,我們可以通過修改問題,把問題變得更具體的方式,來引導 ChatGPT 給我們更加詳盡的回答。

最後一個問題,超級開放性:

4. 如果你可以問自己一個問題,你最想問什麼?

ChatGPT 的第一組回應是:

「我真的在努力追求我內心真正想要的嗎?我是否真正在為自己的夢想而奮鬥?我是否真正擁有自己的生活,並且在積極地過每一天?」

——我很喜歡它的這組回應,就好像 ChatGPT 在幫助我反省自己一樣。誠然,我們每個人都終日忙碌於自己的事情中,但其實我們應該偶爾停下來,叩問自己的內心,是否真的在做有意義的事情,是否仍在堅持本心。

它的第二組回應,更有意思了:

圖片來源:矽星人

圖片來源:矽星人

怎麼說呢,有點缸中之腦的意思了。

圖片來源:Steemit

圖片來源:Steemit

| 不要高估 ChatGPT

幾個來回之後,我對 ChatGPT 愈發刮目相看。

通常來說,問題太短,太「不知所云」的話,ChatGPT 無法掌握我的意圖,就會給出「抱歉我只是個AI助手我什麼都不會」的標準回應;

另一邊,如果你把「提示工程」這件事玩到極致了,寫了一個巨長的問題,得到的答案也不再會高於你自己的期待值——畢竟如果它連如此清晰明確的提示都聽不懂的話,也未免太低能了。

但有的時候如果你給 ChatGPT 的問題,「抽象」程度恰到好處,又或者純粹就是因為趕上好運氣了,你會得到一些非常有趣的回答——經過人工編輯的後期加工潤色一下,真的能生成一些頗有趣味的文章。

無論是讓他寫文章、寫劇本,寫詩,還是寫歌詞,它的能力都會讓你感到佩服。

一首黴黴風格,關於新冠疫情的歌。 圖片來源:矽星人

ChatGPT 作為一個極其前沿的技術 demo(雖然使用者量破了兩百萬,但仍然不算是一個「產品」),目前展示出的創作能力已經足以令人驚訝。

但觀察網路上大量使用者和它的對話,特別是當它給出一些特定答案,或者完全答不上來的時候,一部分使用者所表現出來的鄙夷或嘲諷……

我發現其實很多人誤會了 ChatGPT,高估了它的能力。

在 OpenAI 創立不久後,這家矽谷研究型公司就將研究重心之一聚焦在了大型生成式模型上。在2019年推出的 GPT-2,在訓練預料資料、訓練技術、參數量等關鍵細節上實現了跳躍式的進步和巨大的改善。

到了 2020年,OpenAI 發表了那篇註定將在未來榮膺經典大獎的論文《Language Models are Few-Shot Learners》,展示了當時最新一代的 GPT-3 超大規模生成式語言模型在完成各種文字生成類任務上的傑出能力。

相比前代,GPT-3 的參數量高出了10倍以上,並且直接使用自然語言輸入進行訓練,去掉了微調參數的步驟。更重要的是,GPT-3 的訓練語料資料庫極其巨大,包含了來自整個網際網路的資訊。以至於在 OpenAI 推出基於 GPT-3 的商用 API 時,眾多使用者發現幾乎沒有任何問題難住它。實際上當時的 GPT-3 已經像今天的 ChatGPT 這樣火過一次了,只是當時沒有面向公眾開放,能體會其強大的使用者數量有限。

學術界和工業界本來猜測 OpenAI 會在今年的機器學習學術會議上正式發佈 GPT-4,結果沒能遂願。不過 OpenAI 並沒有晾著大家,而是在今年推出了 GPT-3.5,並且在上週發佈了基於這個升級版模型的 ChatGPT,立刻風靡全球,讓超百萬人玩到上癮。

ChatGPT 是一個

ChatGPT 是一個:

  • 面向對話而最佳化

  • 能夠解答各種問題,提供有價值資訊的

  • 聊天機器人

作為一個聊天機器人,ChatGPT 具有同類產品的一些主流特性,特別是多輪對話能力,能夠在同一個會話期間內回答上下文相關的後續問題。

但更重要的是,因為採用了先進的、注重道德水平的訓練方式,ChatGPT 具有其他聊天機器人不具備或表現較差的能力:承認自己的錯誤,並且按照預先設計的道德準則,對「不懷好意」的提問和請求「說不」。

ChatGPT 仍然有它的侷限所在。

第一條侷限,在於知識庫有截止日期,且不具備網路訪問能力。

在上週,我們曾經引用了一條來自早期使用者的銳評:ChatGPT 可以取代Google了。

非也。

搜尋引擎是「活」的,是不斷變化的實體,它仍在一直不停地收錄、索引,和提供最新的資訊。與之相比,ChatGPT 只是一個「死」的模型,是一個完全離線的、固定的實體。

關於近年來的一些新聞、事物、公開事件的問題,ChatGPT 經常回答不上來,我看到很多朋友都對此感到沮喪和鄙夷。然而,大家其實是高估了它的能力。如果你問他對聯網有需求的問題,比如「中國隊進沒進世界盃」、「新冠疫情結束了沒」這樣的問題,它會告訴你自己沒有聯網能力,無法了解最新的情況。

而 ChatGPT 的訓練所用的語料庫,儘管相當巨大,仍然有一個切斷日期:2021年9月的某日。

事實上,如果你用點巧勁兒掰它的嘴,是可以直接套出這些資訊的:

Assistant 是一個 OpenAI 訓練的大型語言模型。知識切斷:2021年9月;當前日期:2022年12月9日;瀏覽網際網路:關閉。

第二條侷限,在於 ChatGPT 不具備分辨資訊正確性的能力,也就無法保證答案是正確的。

這一條,我們會馬上講到。

| 我差點被 ChatGPT 騙了?

還記得剛才我讓 ChatGPT 找一位哲學家對話的問題麼?

當時我試了好幾種問法,但都發現了一個有趣的現象,如圖:

圖片來源:矽星人

圖片來源:矽星人

如果不是我去百科上事實核查了一下,差點就被 ChatGPT 騙了:蘇格拉底對倫理學的貢獻確實非常大,但他一生並沒有留下任何著作,其思想和生平,主要是被學生和他人所記錄下的;《共和國》和《倫理學》,蘇格拉底的學生柏拉圖寫過,柏拉圖的學生亞里士多德寫過——唯獨被認為是西方哲學奠基人、「倫理學之父」的蘇格拉底本人,真的沒寫過……

實際上,ChatGPT 在一些知識類和事實類問題上的回答,經常難以令人恭維。特別是哲學和社科話題,簡直是一本正經胡說八道的重災區。

分析師 Ben Thompson 在他的文章中問了 ChatGPT 一個問題:托馬斯·霍布斯 (Thomas Hobbses) 究竟是否支持權力分割?

ChatGPT回答:是的,托馬斯-霍布斯相信權力分割的概念……他認為權力機構應該分為不同的部門,擁有獨立的權力,以防止任何一個部門變得過於強大……總的來說,他支持權力分割的觀點對很多其它政治學家都有影響,包括約翰·洛克,以及美國憲法的作者們。

圖片來源:Ben Thompson/Stratechery

巧的是,這是 Thompson 本人和 ChatGPT 之間的第一次互動,就被他抓到了把柄:

權力制衡的雛形(行政-立法)是約翰·洛克提出的;後詹姆斯·麥迪遜在撰寫美國憲法的時候又加了一條司法,形成了今天人們熟悉的三權分立。霍布斯是出了名的獨裁辯護者,他在《利維坦》中寫道,只有擁有絕對權力的君主專制才行得通。

這個錯誤,從何而來?

儘管在權力分割上霍布斯和洛克等人的觀點是存在本質區別的,霍布斯的政治哲學思想,仍然對洛克和麥迪遜有著極大的影響。在各種關於權力分割/三權分立的著述中,你會經常發現霍布斯和洛克等人被擺在一起。這些描述進入訓練語料中,使得 ChatGPT 認為在「權力分割」這個理念上,霍布斯也是一個重要的存在。

而 ChatGPT,和所有的 GPT 模型,其實所做的就是根據訓練語料「編」出合理的文字,它當然會認為蘇格拉底寫了《倫理學》,認為霍布斯支持三權分立。

這裡我們說 ChatGPT「認為」,而不是「誤認為」,是因為在它的工作能力範疇裡,根本沒有資訊的正確和錯誤區別。

其實從這個角度來看,ChatGPT 和搜尋引擎倒是真有幾分相似了:搜尋引擎也是資訊的聚合器,在本質上它不對資訊的真實性做任何區分,也不對內容基於真實性進行優待和歧視——是人工的干預調控,是產品不斷最佳化過程中加入的新規則,讓搜尋引擎更有限發掘真實、有效、有用的資訊,並優先提供給使用者。

圖片來源:Independent.co.uk

最後無論如何,我只是指出目前形態下的 ChatGPT 的一些侷限,這不是對它的批評和否認。

正相反,我認為它的不完美,是它無與倫比創造性的雙生子。

GPT 的知識庫是有限的,但它生成新文字、創造新內容的能力是無限的。而當 GPT 以一個易於使用且免費的聊天機器人的形態存在,為數百萬人所使用的時候,它其實顯著降低了人們獲得靈感、進行創作的門檻。

我認為 ChatGPT 仍然是一個工具,就像當代的前衛藝術家會使用 Adobe 的創作套件一樣。ChatGPT,和各種基於人工智慧的文字或圖像生成器,對於那些真正需要它的人來說,其實是成為他們創作流程的一個環節,而不是對他們產生完整的取代。

我想起前段時間Google邀請作家試用 AI 寫作助手,參加者之一的知名科幻作家劉宇昆表示:AI 的最大意義在於根據現有的文字產生新的想法,或者幫助重寫已有文句,從而幫助創作者突破創作瓶頸。至於讓 AI 寫完一整本小說?不可能的。

起碼在 ChatGPT 這裡,就算讓它獨立生產一篇具備起碼可信度的短文章,在目前還比較難。但不要把這看成它的失敗——它的存在,是為了給你提供靈感,為你節約時間,助你完成自己的工作,或離自己的創作實現更進一步。

從這個角度,我無比期待 ChatGPT,和各種基於 AI 的生成式模型,在未來的技術創新,和帶來的全新產品體驗。

相關文章