ChatGPT 的到來,正促使搜尋引擎的競爭進入下半場。
整理 | 屠敏
一直以來,Google 搜尋引擎的市場佔比一騎絕塵,讓很多競爭者望而卻步。
不過,現如今,隨著一種名為 ChatGPT 聊天機器人的到來,在現身吟詩、寫程式碼、編段子,甚至還上線司法考試現場的一個多月時間裡,讓Google 敲響警鈴,更有多方媒體報道,Google 內部正拉起了一道「紅色程式碼警戒」(Code red),擔心 ChatGPT 將對 Google 搜尋引擎的未來帶來巨大挑戰。

與之形成鮮明對比的是,排在第二位且佔比僅有 3.04% 的 Bing 顯得悠然自得一些。據外媒 The Information 最新發布的一篇報道顯示,微軟可能會在 2023 年 3 月之前在 Bing 中應用 ChatGPT,用人工智慧來回答一些搜尋查詢。

微軟的先見之明
微軟與 ChatGPT 背後的開發商 OpenAI 之間的合作關係早已不是什麼秘密,現如今回過頭來看,不少人敬佩起微軟的先見之明。
創立於 2015 年的 OpenAI,自誕生之日起,便以促進和發展友好的人工智慧為目標。時至今日,其相繼推出了 GPT-3、DALL·E 2、ChatGPT 等重磅模型,推動了人工智慧一次又一次地成功落地。
然而,起初作為一家非營利機構,OpenAI 並沒有找到自身的營利模式。
宛如其對標的 Google 旗下的 Deepmind 部門,也曾一度陷入到虧損、負債的迷茫中。彼時,據《彭博社》報道,2018 年,Google母公司 Alphabet Inc. 收購的人工智慧公司 DeepMind 的收入幾乎翻了一番,但卻因為虧損增至數十億美元,收益情況不容樂觀。一直以來,DeepMind 的盈利能力依然備受質疑。
處於同一起跑線的 OpenAI 亦然也會面臨「囊中羞澀」的尷尬問題。
不過,好在最初名不經傳的 OpenAI 帶著馬斯克的光環,渡過了研發的第一階段。而後支撐到了 2019 年 3 月,OpenAI 也為其可持續開發做了打算,併成立了 OpenAI LP 子公司,主要目的就是為營利。
也是在這一年,OpenAI 的發展引起了微軟的注意,隨後的 7 月,微軟宣佈向 OpenAI 投資 10 億美元,雙方攜手合作替 Azure 雲端平臺服務開發人工智慧技術,與此同時,OpenAI 也將用這筆鉅款進一步推進通用人工智慧(AGI)的研究。
2020 年時,我們只知曉,在 OpenAI 推出 GPT-3 語言模型時,微軟於當年的 9 月 22 日取得獨家授權。
當前,隨著 The information 的報道,更多的細節被曝光出來,其中便包括早在 2019 年,微軟在對 OpenAI 的投資包括了一項將 GPT 的某些方面納入 Bing 中的協議。

Bing 將加入 ChatGPT 功能
具體來看,舊版本的 GPT 可以在使用者輸入時,自動提供搜尋查詢建議。如今,微軟已經宣佈計劃將 Dall-E 2 模型集成到 Bing Image Creator 中,方便使用者可以在其中發出描述性文字提示並生成 AI 圖稿。
據 The information 報道,有直接了解情況的人士稱,微軟即將發佈的公告將揭示更多有意義的功能。
那麼,如果搜尋引擎引入 ChatGPT 聊天機器人,那麼又將會以什麼樣的形式呈現?
據悉,這些 AI 支持的答案可以採用包含資訊來源的完整句子的形式呈現,而不是引用可能解決使用者提出的問題來源或者連結列表的精選片段。
不過,「Bing 仍將依靠自己的技術來產生大部分搜尋結果」,因為 GPT 並不意味著「像搜尋引擎那樣持續抓取網路或提供實時資訊」。同時,Bing 如何確保答案的準確性還有待觀察。
The Information 稱這「可能會在今年 3 月底之前推出」,而 Bing 可能被定位為「免費訪問部分 GPT 的唯一方式」。因為按照 OpenAI 的計劃,他們將會對 ChatGPT 採取收費政策,對此,外媒也將微軟評價為「為初創公司的雲賬單買單」的企業。

ChatGPT,為「殺死」傳統搜尋引擎而生?
不過,微軟此舉能否讓 Bing 逆襲「天下第一」的 Google 搜尋引擎,很多網友表示:期待。
但也有不少人持懷疑態度,甚至還發起了一項投票:
為此,使用者層面也形成了兩個主要觀點:
其一,支持 ChatGPT 會打破傳統搜尋引擎的市場格局。
過去一個月期間,朋友圈一次又一次地刷屏,ChatGPT 的火爆程度有目共睹。
相比傳統的搜尋引擎根據使用者提問,從而提供數千萬個相關連結索引,ChatGPT 直接提供自己的搜尋和資訊綜合的單一答案,讓使用者省去反覆點選連結找尋答案的複雜度。
正是基於這一點,很多人堅信 ChatGPT 會面向傳統搜尋引擎發起挑戰。
其二,ChatGPT 想要取代 Google 非常牽強,至少目前看來,不可能。
為了論述這一觀點,外媒 TechTalks 此前也專門發佈了一篇《為什麼 ChatGPT 不會對 Google 搜尋構成威脅》的文章,從大型語言模型(LLM)的真實性、更新、速度與商業化的角度進行了剖析。
真實性無法保證。
用 ChatGPT 作為輔助性建議的提供者,其實一點問題都沒有。但是在學術、科研等嚴謹的應用場景中,ChatGPT 提供的答案並不一定都是正確的。解決 ChatGPT 輸出的真實性將會是一項重大的挑戰,不過,目前並沒有辦法從 ChatGPT 的輸出中分辨真偽,除非你用其他來源(如 Google)來驗證答案。
然而,如果要使用大型語言模型來替代搜尋引擎,此舉未免有些弄巧成拙。
也許有人會說,Google 這類的搜尋引擎未必也會提供 100% 正確的答案,為什麼不能對 ChatGPT 包容一些?
其實,Google 這類的搜尋引擎至少為使用者提供了可以驗證的來源連結,但 ChatGPT 只提供純文字,不引用實際網站。雖然目前也有不少人將 LLM 輸出的不同部分連結到實際網頁,但這是一項複雜的研究工作,當前還無法通過純粹的基於深度學習的方法來解決。
更新模型的成本太高
ChatGPT 和其他 LLM 面臨的另一個挑戰是更新他們的知識庫。
搜尋引擎的索引其實可以實時更新,也更為方便快捷一些,但對於大型語言模型而言,添加新的內容需要重新訓練模型。
也許不是每次更新都需要完全重新訓練模型,但是相比搜尋引擎,其添加或者修改訓練資料的成本都更昂貴。
據外媒報道,基於 GPT 3.5,ChatGPT 可能至少有 1750 億個參數。由於沒有可以適合該模型的單個硬體,因此必須將其分解並分佈在多個處理器上,例如 A100 GPU。設置和並行化這些處理器以訓練和運行模型既是技術挑戰,也是財務挑戰。
速度挑戰
LLM 也有推理速度問題。搜尋引擎不需要為每個查詢瀏覽整個資料集。他們有索引、排序和搜尋演算法,可以以非常快的速度查明正確的記錄。因此,即使線上資訊量在增長,搜尋引擎的速度也不會下降。
不過,LLM 每次收到提示時都會通過整個神經網路運行資訊。其計算量要比搜尋引擎的查詢索引多很多。鑑於深度神經網路的非線性特性,推理操作的並行化程度是有限的。隨著 LLM 訓練語料庫的增長,模型也必須變得更大,才能很好地泛化其知識庫。
商業模式
目前,ChatGPT 還處於測試階段,並沒有落地的商業模式。不過此前據 TechCrunch 估計,擁有 100 萬使用者的 ChatGPT 每天花費 100,000 美元,每月花費約 300 萬美元。
不難計算出如果全球的使用者每天運行 80 億次搜尋查詢時會發生什麼。此外,再加上定期訓練模型的成本,以及通過強化學習和人工反饋對模型進行微調所需的體力勞動。
綜上而言,如果以單一的 ChatGPT 來對抗 Google 搜尋引擎,也許勝算很小,甚至可以忽略不計,但是當下 Bing 的入局,而且按照微軟的初步計劃,其主要是將 ChatGPT 作為 Bing 的輔助功能,讓二者相結合起來的模式,推動 Bing 的上位。
這讓 Google 還在深陷於「自家也有類似於 ChatGPT 的能力人工智慧語言模型 LaMDA ,但由於該技術帶來的”聲譽風險”,公司不得不採取「比小型創業公司更保守的行動」」中,處於被動的位置。
這也為誰能笑到最後的搜尋引擎戰局,打上了一個問號。
參考:
https://datasciencelearningcenter.substack.com/p/could-bing-disrupt-google-with-chatgpt
https://9to5google.com/2023/01/03/bing-chatgpt-report/
https://bdtechtalks.com/2023/01/02/chatgpt-google-search/