ChatGPT 太猖狂?OpenAI 欲打假並研發「文字水印」,網友吐槽:太「雞肋」!

整理 | 蘇宓

這到底是人乾的,還是 AI 乾的?

隨著 AIGC 的爆火,在 ChatGPT、Stable Diffusion 模型的推動下,當下想要辨別我們所見的程式碼、圖像、文章、小說、腳本、詩句、Debug 程序等內容究竟是「真」還是「假」時,那可太難了。

只要其背後的「主謀」不外揚,外人也幾乎看不出來作品究竟是出自誰手。然而,往往越是這樣,就越容易造成學術造假、藝術界的混亂、版權的爭議等多種亂象。

為了減少這種情況的出現,ChatGPT 的創建者 OpenAI 終究還是準備站出來填坑了。電腦科學教授 Scott Aaronson (目前是 OpenAI 的客座研究員)在德克薩斯大學奧斯汀分校的一次演講中透露,OpenAI 正在開發一種工具,用於對 AI 系統生成的內容加個水印。每當系統(如 ChatGPT)生成文字時,該工具就會嵌入一個「不易察覺的水印」,以此顯示文字的來源。

人工智慧需要束縛

人工智慧需要束縛

事實證明,要控制像 ChatGPT 這樣的系統是很困難的。作為開發商,雖然 OpenAI 在 ChatGPT 政策規定寫道,當從其系統共享內容時,使用者應明確表明它是由人工智慧生成的,但現實使用過程中,OpenAI 可以控制 ChatGPT 不生成暴力、血腥有害的內容,但是卻無法掌控它的使用者會將其應用到何處。

幾天前,知名程式設計問答網站 Stack Overflow決定「封殺」 ChatGPT,稱 ChatGPT 答案的正確率非常低,對整個網站以及尋求正確答案的使用者來說是有害的。例如,要求 ChatGPT 寫一個公眾人物的傳記,它可能會很自信地插入不正確的傳記資料。再比如要求它解釋如何為特定功能編寫軟體程序,它同樣可以生成可信但最終不正確的程式碼。如果使用者被發現使用 ChatGPT 回答問題,他們可能會受到禁止繼續發帖的懲罰。

除此之外,與之前的許多文字生成系統一樣,ChatGPT 也會被用於編寫高質量的網路釣魚郵件和有害的惡意軟體,甚至會被用於考試作弊等等。

因此,但凡 ChatGPT 所到之處,便亟須這樣一款工具進行束縛。

加水印的工作原理

加水印的工作原理

過去,OpenAI 已經有一種方法可以標記 DALL-E 生成的內容 ,並在它生成的每個圖像中嵌入簽名。但是如今想要追蹤文字的來源,實則要困難得多。

那如何在文字上面加上追蹤或打上「水印」?

Scott Aaronson 教授認為,最有前途的方法是密碼學。

Scott Aaronson 表示,他在今年春天的學術休假期間,一直在 OpenAI 研究為 GPT 等文字模型的輸出內容添加水印的工具。

對於「AI 水印」的設想,Scott Aaronson 在自己的部落格中進行了詳解。其表示,「我們希望每當 GPT 生成一些長文字時,能夠在它的選詞上有一個不易察覺的秘密標記,你可以用它來證明,這是來自 GPT 生成的內容。」

那麼這種水印到底是如何實現的?

Scott Aaronson 教授稱,對於 GPT 來說,每一個輸入和輸出都是一串 token(標記),可以是單詞,也可以是標點符號、單詞的一部分,或者更多–總共有大約 10 萬個 token。GPT 的核心是以先前 token 的字串為條件,不斷地生成下一個要生成的 token 的概率分佈。在神經網路生成分佈後,OpenAI 伺服器實際上會根據該分佈或該分佈的某些修改版本進行取樣,這取決於一個名為 “temperature”的參數。不過,只要 temperature 參數不為零,下一個 token 的選擇通常會有一些隨機性,這也是為什麼你對 GPT 用同一段話提問,會得到不同的答案的主要原因。

OpenAI 的水印工具就像現有文字生成系統的一個 “包裝”,利用在伺服器層面運行的加密功能,”偽隨機 “地選擇下一個標記」,Scott Aaronson 說道。

從理論上講,這個系統生成的文字對大家而言都是隨機的,但是任何擁有加密功能「鑰匙」的人能夠發現水印。

也許有人會好奇:如果 OpenAI 控制了伺服器,那麼為什麼要費盡心思去做水印?為什麼不直接將 GPT 的所有輸出儲存在一個巨大的資料庫中,然後如果大家想知道某些東西是否來自 GPT,就可以查閱該資料庫?

Scott Aaronson 贊同地說道,這樣的確可以做到的,甚至可能在涉及執法或其他方面的高風險案件中必須這樣做。但這將引起一些嚴重的隱私問題,譬如你可以揭示 GPT 是否生成或未生成給定的候選文字,而不可能揭示其他人是如何使用 GPT 的?資料庫方法在區分 GPT 唯一生成的文字和僅僅因為它具有很高概率而生成的文字(例如,前一百個素數的列表)方面也存在困難。

當前,來自 OpenAI 工程師 Hendrik Kirchner 已經構建了一個工作原型,並希望將其構建到未來 OpenAI 開發的系統中。

截至目前,據外媒 Techcrunch 報道,OpenAI 和 Aaronson 並未透露過多關於「水印原型」的資訊,只是稱水印是他們正在探索的幾種 “註明出處技術 “之一,以檢測人工智慧產生的產出。

「水印」功能很「雞肋」?

「水印」功能很「雞肋」?

不過對於這種技術,業界也頗有爭議。

有人認為,該工具是基於伺服器端的,這意味著它不一定適用於所有文字生成系統。他們認為,對於競爭對手來說,繞過它是微不足道的。

來自麻省理工學院的電腦科學教授 Srini Devadas 認為:”通過重新措辭、使用同義詞等來繞過它的篩查是相當容易的。”

OpenAI 的競爭對手 AI21 實驗室的聯合創始人兼聯合執行長 Yoav Shoham 認為,水印並不足以幫助識別 AI 生成文字的來源。他呼籲採用一種 “更全面 “的方法,包括差異化水印,即對文字的不同部分進行不同的水印,以及更準確地引用事實文字來源的 AI 系統。

艾倫人工智慧研究所的研究科學家 Jack Hessel 指出,很難在不知不覺中對人工智慧生成的文字進行加註「水印」,因為每個 token 都是一個離散的選擇。太明顯的「水印」可能會導致選擇奇怪的詞,從而降低流暢性。不過,一個理想的「水印」是人類讀者無法辨別的,並能實現高度檢測。根據它的設置方式,由於「簽名」過程的運作方式,OpenAI 自己可能是唯一能夠自信地提供這種檢測的一方。

Scott Aaronson 也表示,該計劃只有在像 OpenAI 這樣的公司在擴展最先進系統方面處於領先地位的世界中才會真正起作用——而且他們都同意成為負責任的參與者。即使 OpenAI 與其他文字生成系統提供商(如 Cohere 和 AI21Labs)共享水印工具,也不會阻止其他人選擇不使用它。

雖然 OpenAI 帶來了 ChatGPT、GPT-3、Dell-2 這些極具創新性的產品,引發使用者的狂歡,但不少網友仍質疑「AI 水印」的必要性:

@knaik94:

這似乎是在浪費能源。倘若一次生成的文字內容很短,根本無法判斷它是否是由 AI 生成的。此外,我想在生成的內容中再多走一步,如改寫某些內容、使用同義詞和短語替換、統一標點符號或者一些輔助語法檢查/修飾符等工具,都可以逃避「AI 水印」的檢測。

況且行業也有一些開放性的替代方案,如 GPT2,已經在 MIT 許可下發布。在 NSFW 文字上訓練的社區語言模型也已經存在。在我看來,OpenAI 這樣的舉動從長遠來看只會把大多數人趕走。如果在未經審查的足夠好模型和經過審查的優秀模型之間進行選擇,我會為 99% 的長期項目選擇足夠好的模型。

@norwalkbear :

現在很多人看到了人工智慧的潛力。如果你限制太多,人們會開發自己的 AI 模型,甚至迫切需要 OpenAI 的開源替代品。

最後,看到 OpenAI 正在研發這樣的工具,也有網友強烈呼籲 OpenAI 遲幾年再推出,譬如等到 2026 年 5 月,因為這個時候,他剛好畢業了。

你覺得給 AI 生成的內容、作品加上水印能阻止濫用情況的發生嗎?歡迎留言,分享你的看法。

參考資料:

https://news.ycombinator.com/item?id=33892587

https://techcrunch.com/2022/12/10/openais-attempts-to-watermark-ai-text-hit-limits/

https://scottaaronson.blog/?p=6823

相關文章