ChatGPT封殺潮,禁入學校,AI頂會特意改規則,LeCun:要不咱把小模型也禁了?

狂歡之後,事情的走向開始進入封殺這一過程。

要問近段時間 AI 界最出圈的模型是哪個,十人中得有九個人會投 ChatGPT 一票,沒辦法,這個模型實在是太火,只因它會的東西太多了。很多人形容它是一個真正的「六邊形戰士」:不僅能拿來聊天、搜尋、做翻譯,還能寫故事、寫程式碼、debug,甚至開發小遊戲、參加美國高考…… 有人戲稱,從此以後人工智慧模型只有兩類 —— ChatGPT 和其他。

一方面 ChatGPT 能力過於驚豔深受大眾喜歡,另一方面,也是麻煩事不斷,遭到不同機構的封禁。前段時間就有 Stack Overflow 封禁 ChatGPT 的訊息滿天飛,原因無他,官方表示暫時封禁 ChatGPT 是因為它生成的答案正確率太低,發佈由 ChatGPT 創建的答案對網站和查詢正確答案的使用者來說是非常有害的。

這一次風波過去沒多久,頂級人工智慧會議也開始禁止使用 ChatGPT 和 AI 工具撰寫的學術論文。具體是怎麼回事,我們往下看。

ICML 禁止使用大型語言模型寫論文

前幾天,國際機器學習會議 ICML 宣佈:禁止徵稿使用大型語言模型(LLM,如 ChatGPT)生成的論文,除非生成的文字是作為論文實驗分析的一部分呈現。

檔案地址:https://icml.cc/Conferences/2023/llm-policy

根據 ICML 的說法,ChatGPT 等這類語言模型雖然代表了一種未來發展趨勢,但隨之而來的是一些意想不到的後果以及難以解決的問題。ICML 表示,ChatGPT 接受公共資料的訓練,這些資料通常是在未經同意的情況下收集的,出了問題誰負責。

還有就是作者身份問題,是誰「寫」的論文:機器還是人類?考慮到 ICML 僅禁止 AI 完全生成的文字,這一點尤為重要。會議組織者表示,他們並不禁止使用 ChatGPT 等工具編輯或潤色作者撰寫的文字,並指出許多作者已經使用語法校正軟體 Grammarly 等半自動編輯工具來潤色文章。

不過此訊息一出,在社交媒體上還是引發了一次大討論,Yann LeCun 轉發並評論道:「大型語言模型不能用,那麼中型和小型語言模型是不是還可以用。」

微軟研究院 ML 基礎團隊的負責人 Sebastian Bubeck 則稱該規則是「目光短淺」 ,並在Twitter上寫道:「ChatGPT 及其變體是未來技術發展的一部分。禁止絕對不是最優的答案。」

ICML 表示,明年將重新評估對 AI 生成文字的禁令。

一直以來,人們對人工智慧生成文字的有害影響都有不同的擔憂。最常見的問題之一是這些系統的輸出結果根本不可靠。

人工智慧模型經過訓練可以預測任何給定句子中的下一個單詞,但它們沒有硬編碼的「事實」資料庫可供借鑑,因此模型的生成結果經常出現似是而非的情況。很多時候,生成的語句符合語法邏輯,卻不符合客觀現實。

還有一個問題也非常棘手 —— 我們難以區分文字是由 AI「潤色編輯」的,還是完全由 AI 生成的。這個問題對於論文來說就非常嚴重,如果作者用 AI 模型基於論文生成簡潔的摘要,這算是編輯文字還是從頭生成文字?

當然,使用 ChatGPT 這樣的 AI 工具並非只有弊端。例如在同行評審中,流暢的英文表達往往會收穫更高的評價,AI 模型就可以幫助非英語母語的論文作者生成更流暢的英文文字。這將為研究人員節省時間,併為學術領域創造更公平的競爭環境。

但需要注意的是,ChatGPT 是大型語言模型(LLM),和 Grammarly 等簡單的語法校正軟體有很大的區別。LLM 本身的主要功能也不是調整已編寫文字的結構和語言,而是生成一些新的文字。

實際上,幾乎不會有論文作者會真的使用 AI 語言模型來生成學術論文。因為學術論文的要求是非常嚴謹的,一般在發表前作者都會反覆核對論文內容。如果使用 AI 生成的論文出現錯誤,所有署名的論文作者的聲譽都會受到嚴重影響,關係到論文作者的整個職業生涯。

從論文評審的角度講,人們需要一個快速有效的檢測工具,以分辨一篇文章是 AI 生成的還是人工撰寫的。近期就有開發者發佈了一個名為 GPTZero 的新應用程序,具備這種檢測功能。

GPTZero 是由普林斯頓大學電腦科學專業學生 Edward Tian 開發的,其中使用兩種不同的指標來評估文字是否由 AI 模型編寫:困惑度(perplexity)和突發性(burstiness)。這可能就是用「模型」打敗「模型」吧。

紐約市學校禁止訪問 ChatGPT

幾乎同一時間,ChatGPT 遭到學校的封禁。由於擔心 AI 工具會破壞教育,紐約市教育部已經在其網路和設備上阻止對 ChatGPT 的訪問。

該部門的發言人 Jenna Lyle 表示:此條禁令主要是擔心 ChatGPT 對學生的學習產生潛在負面影響,以及對 ChatGPT 生成內容的安全性和準確性有所擔憂。雖然該工具可以提供快速簡單的答案,但它無法培養批判性思維和解決問題的能力,而這對於學生的學業和終身成功至關重要。

除此以外,ChatGPT 也存在其他語言模型所存在的問題。因為其訓練資料來自網際網路,所以它經常在答案中重複和放大性別歧視和種族偏見等。這類語言模型還傾向於編造資訊,從歷史日期到科學規律,但別人一般發現不了它在胡編亂造。

正是這些事實性錯誤,讓教育工作者特別擔心這個工具。許多老師表示,像 ChatGPT 這樣的軟體基本上不可能起到測試學生寫論文的能力。如果 ChatGPT 可以在幾秒鐘內幫助學生完成寫作,他們就不願花心思去寫了。

然而,另一些人認為,教育系統將不得不適應這種技術的出現 —— 就像它適應早期的顛覆性技術,如Google搜尋和維基百科一樣。但大家對 ChatGPT 適應,顯然還需要點時間。

無論是人為制定和執行文字編寫規範,還是使用一些方法分辨文字是否為 AI 生成,都說明人們意識到急需規範 ChatGPT 等文字生成模型的使用。ChatGPT 的使用場景和價值仍有待定義。

參考連結:

https://www.theverge.com/2023/1/5/23540263/chatgpt-education-fears-banned-new-york-city-safety-accuracy

https://www.theverge.com/2023/1/5/23540291/chatgpt-ai-writing-tool-banned-writing-academic-icml-paper

https://twitter.com/edward_the6/status/1610067688449007618?s=20&t=KcWXRmQ0sNLMWKgZFIivrw

https://www.thedailybeast.com/princeton-student-edward-tian-built-gptzero-to-detect-ai-written-essays

相關文章