還在為玩不了ChatGPT苦惱?這十幾個開源平替也能體驗智慧對話

本文將為大家盤點一下 ChatGPT 的開源平替項目。

距離 ChatGPT 的最初發布,過去差不多四個月的時間了。在這期間,ChatGPT 的驚豔表現,讓人直呼 AIGC 是不是要提前實現了。

不過眾所周知的一個秘密是,ChatGPT 不大可能開源,加上巨大的算力投入以及海量的訓練資料等,都為研究界複製其實現過程設下重重關卡。

面對 ChatGPT 的來勢洶洶,開源平替是一個不錯的選擇,它們在實現相似功能的同時,還能讓你通過替代品了解 ChatGPT 的運行機理。

隨著技術的進步,現在已經出現了許多其他類似於 ChatGPT 的新 AI 模型。本文我們將為大家盤點一下 ChatGPT 的開源平替項目。內容將分為兩部分,一部分為類 ChatGPT 開源項目彙總,另一部分是對該項目彙總的補充。

項目彙總

項目作者 nichtdax 整理了 9 個開源的 ChatGPT 平替項目。接下來會一一介紹。

項目地址:https://github.com/nichtdax/awesome-totally-open-chatgpt

PaLM-rlhf-pytorch

第一個項目是「PaLM-rlhf-pytorch」,項目作者為 Phil Wang。該項目是在 PaLM 架構之上實現 RLHF(人類反饋的強化學習),它基本上是使用 PaLM 的 ChatGPT。

該項目已在 GitHub 上獲得了 5.8k 的 Stars。

項目地址:https://github.com/lucidrains/PaLM-rlhf-pytorch

下圖為訓練流程。

OpenChatKit

OpenChatKit

第二個項目是「OpenChatKit」,它提供了一個強大的的開源基礎,為各種應用程序創建專用和通用的聊天機器人。該 kit 包含了一個經過指令調優的 200 億參數語言模型、一個 60 億參數調節模型和一個涵蓋自定義儲存庫最新響應的可擴展檢索系統。

OpenChatKit 是在 OIG-43M 訓練資料集上訓練的,該資料集是 Together、LAION 和 Ontocord.ai 三者的聯合。項目作者表示,這不僅僅是一個模型的發佈,還是一個開源項目的開始。他們正在發佈一套工具和流程,並通過社區貢獻持續改進。

該項目已在 GitHub 上獲得了 5.7k 的 Stars。

項目地址:https://github.com/togethercomputer/OpenChatKit

text-generation-webui

第三個項目是「text-generation-webui」,它是一個用於運行 GPT-J 6B、OPT、GALACTICA、LLaMA 和 Pygmalion 等大語言模型的 gradio web UI。該項目旨在成為文字生成領域的 AUTOMATIC1111/stable-diffusion-webui。

功能包括使用下拉菜單在不同模型之間切換、提供類似於 OpenAI playground 的筆記本模式、用於對話和角色扮演的聊天模式、為 GPT-4chan 生成漂亮的 HTML 輸出等等。

該項目已在 GitHub 上獲得了 3.4k 的 Star。

項目地址:https://github.com/oobabooga/text-generation-webui

KoboldAI-Client

第四個項目是「KoboldAI-Client」,它是一個基於瀏覽器的前端,通過多個本地和遠端 AI 模型實現 AI 輔助寫作。

KoboldAI-Client 提供了一系列標準的工具,包括記憶體、作者註釋、世界資訊、保存 & 載入、可調節的 AI 設置、格式化選項以及匯入現有文字冒險遊戲《AI Dungeon》的能力。你可以開啟 Adventure 模式,也可以玩 AI Dungeon Unleashed 之類的遊戲。

該項目已在 GitHub 上獲得了 1.4k 的 Stars。

項目地址:https://github.com/KoboldAI/KoboldAI-Client

Open-Assistant

第五個項目是「Open-Assistant」,它旨在讓每一個人都可以訪問基於聊天的大語言模型。項目作者希望藉此在語言創新方面掀起一場革命,就像 stable diffusion 幫助世界以新的方式創造藝術和圖像一樣。

項目作者計劃收集高質量人工生成指令執行樣本(指示 + 響應),目標大於 50k。對於收集到的每個指示,他們將取樣多個補全結果。接下來進入基於指示和獎勵模型的 RLHF 訓練階段。

該項目已在 GitHub 上獲得了 19k 的 Stars。

項目地址:https://github.com/LAION-AI/Open-Assistant

stanford_alpaca

第六個項目是「stanford_alpaca」,它旨在建立和共享一個指令遵循的 LLaMA 模型。該 repo 包含了用於微調模型的 52k 資料、用於生成資料的程式碼以及用於微調模型的程式碼。

該項目已在 GitHub 上獲得了 9.5k 的 Stars。

項目地址:https://github.com/tatsu-lab/stanford_alpaca

ChatRWKV

第七個項目是「ChatRWKV」,它類似於 ChatGPT,但由 RWKV(100% RNN)模型支持,並且是開源的。項目作者表示,RWKV 是目前唯一能在質量和擴展方面媲美 transformers 的 RNN 模型,同時速度更快、節省 VRAM。

該項目已在 GitHub 上獲得了 3.5k 的 Stars。

項目地址:https://github.com/BlinkDL/ChatRWKV

ChatGLM-6B

第八個項目是由清華技術成果轉化的公司智譜 AI 開源、支持中英雙語的對話語言模型「ChatGLM-6B」,基於 General Language Model (GLM) 架構,具有 62 億參數。結合模型量化技術,使用者可以在消費級的顯示卡上進行本地部署(INT4 量化級別下最低只需 6GB 視訊記憶體)。

ChatGLM-6B 使用了和 ChatGPT 相似的技術,針對中文問答和對話進行最佳化。經過約 1T 識別符號的中英雙語訓練,輔以監督微調、反饋自助、人類反饋強化學習等技術的加持,62 億參數的 ChatGLM-6B 已經能生成相當符合人類偏好的回答。

不過由於 ChatGLM-6B 的規模較小,目前已知其具有相當多的侷限性,如事實性 / 數學邏輯錯誤、可能生成有害 / 有偏見內容、較弱的上下文能力、自我認知混亂、以及對英文指示生成與中文指示完全矛盾的內容。

該項目已在 GitHub 上獲得了 6k 的 Stars。

項目地址:https://github.com/THUDM/ChatGLM-6B

xmtf

第九個項目是「xmtf」,包含了創建論文《Crosslingual Generalization through Multitask Finetuning》中介紹的 BLOOMZ、mT0 和 xP3 的所有元件。

其中 BLOOMZ 是一個 1760 億參數且可開放獲取的多語言模型;mT0(這裡特指Google的 T5X);xP3 是 46 種語言的有監督資料集,帶有英語和機器翻譯的 prompts。

項目地址:https://github.com/bigscience-workshop/xmtf

除了上述提到的模型,ChatGPT 平替項目還包括基於 Meta 開源的大模型系列LLaMA(Large Language Model Meta AI)的一些研究,這個系列模型的參數量從 70 億到 650 億不等。具有 130 億參數的 LLaMA 模型「在大多數基準上」可以勝過 GPT-3( 參數量達 1750 億),而且可以在單塊 V100 GPU 上運行;而最大的 650 億參數的 LLaMA 模型可以媲美Google的 Chinchilla-70B 和 PaLM-540B。

  • 論文連結:https://research.facebook.com/publications/llama-open-and-efficient-foundation-language-models/
  • GitHub 連結:https://github.com/facebookresearch/llama

基於此研究,開發者也提出了幾個開源項目。

llama.cpp 無需 GPU,就能運行 LLaMA

llama.cpp 項目實現了在 MacBook 上運行 LLaMA,還有開發者成功的在 4GB RAM 的樹莓派上運行了 LLaMA 7B。總結而言,即使開發者沒有 GPU ,也能運行 LLaMA 模型。

項目地址:https://github.com/ggerganov/llama.cpp

ChatLLaMA

由於 LLaMA 大模型系列沒有使用 RLHF 方法,因此初創公司 Nebuly AI 開源了 RLHF 版 LLaMA(ChatLLaMA)的訓練方法。它的訓練過程類似 ChatGPT,該項目允許基於預訓練的 LLaMA 模型構建 ChatGPT 形式的服務。與 ChatGPT 相比,LLaMA 架構更小,但訓練過程和單 GPU 推理速度更快,成本更低;該庫還支持所有的 LLaMA 模型架構(7B、13B、33B、65B),因此使用者可以根據訓練時間和推理性能偏好對模型進行微調。

項目地址:https://github.com/nebuly-ai/nebullvm/tree/main/apps/accelerate/chatllama

期待後續更多開源項目加入進來。

參考連結:
https://www.reddit.com/r/MachineLearning/comments/11uk8ti/d_totally_open_alternatives_to_chatgpt

相關文章

當創業者開始用 ChatGPT 裁員

當創業者開始用 ChatGPT 裁員

他說,從沒想到科幻片的場景有一天會發生在自己身上。 作者 | 黎詩韻編輯| 衛詩婕 幾個月來,對話機器人 ChatGPT 展現出的能力令世界...

ChatGPT 的「神功」,是如何煉成的?

ChatGPT 的「神功」,是如何煉成的?

最強對話式 AI,站在巨人的肩膀上。 AIGC 在這幾個月成了一個大熱的話題。 頗有些風水輪流轉的感覺,如同年初大火特火的 web3 一樣,...

ChatGPT,一種更中心化的權力?

ChatGPT,一種更中心化的權力?

引 ChatGPT的威力毋需贅述,它是溫和的聚變。 越是會使用的人,驚喜之餘,越是會感到害怕。 作為這個時代技術的傑出結晶,它帶來的是不可預...