AIGC 火遍全球,裡面有哪些創業機會?

挑戰與機遇並存,但機遇更大

挑戰與機遇並存,但機遇更大。

作者 | Founder Park

人人都在聊 AIGC(AI Generated Content,人工智慧生成內容)。

先是今年 9 月份一幅由 AI 繪圖工具 Midjourney 創作的作品《太空歌劇院》獲得了藝術比賽的首獎引起爭議,而與此同時,Stable Diffusion、Copy.ai、Jasper.ai 等多個 AIGC 平臺宣佈了融資訊息,一時間湧現出了多個獨角獸公司。

另一方面,AIGC 正面臨著不少商業和技術的爭議,內容本身的版權、良品率和工業標準問題,技術倫理的挑戰,以及算力可能會集中在頭部大公司的問題,未來的新機會究竟在哪裡尚未可知。

很多報道關注的都是國外 AIGC 創業動態,對於國內賽道的創業卻少有報道,國內 AIGC 創業的機會在哪裡?和國外產品有何不同?Founder Park 特意邀請到了國內 AIGC 領域的多位創業者,來一起聊一聊 AIGC 當前的技術發展和國內創業的商業可能性。

AIGC 內容如何更好地進行內容版權保護?到底 AIGC 會讓人工智慧取代人類,還是輔助人類更高效地進行生產創作?關於這些問題,在這場圓桌討論中也都有深入的討論。

這是 Founder Park 的圓桌欄目「Tech、Coffee or Tea」的第一期,和「Founder 100」欄目聚焦創業者有所不同,這個欄目會關注當下的熱點科技話題,直面熱點的現狀和爭議,從更多元的視角來審視新技術帶來的變化和商業可能性。

參與本次圓桌的創業者們分別是:

  • 瀾舟科技 合夥人 & 首席產品官 李京梅

  • 西湖心辰 合夥人 & COO 俞佳

  • 數字力場科技 創始人 & CEO 張濤

  • ZMO.AI 創始人 & CEO 張詩瑩

01

AIGC

的現狀和爭議

Founder Park:很多人說 AIGC 的大進步得益於底層大模型的進步,到底是哪些技術發生了革命性的變化?

李京梅:大模型到底是什麼?嚴格說來應該叫預訓練模型,可以追溯到 2017 年Google提出的 Transformer 技術*,在之後有真正的預訓練模型開始湧現,Google的 BERT、T5 以及 OpenAI、GPT-3 模型等,還有阿里、百度、華為等推出的預訓練模型。

Transformer 模型:最早是由 Google 於 2017 年在「Attention is all you need」一文中提出,在論文中該模型主要是被用於克服機器翻譯任務中傳統網路訓練時間過長,難以較好實現平行計算的問題。後來,由於該方法在語序特徵的提取效果由於傳統的 RNN、LSTM 而被逐漸應用至各個領域。

預訓練模型在技術上實現了哪些突破呢?首先是認知智慧,NLP 也就是自然語言處理,我們可以用人工智慧技術去理解人類的自然語言。2019 年機器 AI 的閱讀理解的水平已經超過人類的水準了。

其次是感知智慧,就是視覺上能看得懂、語音上能聽得懂。為什麼說 NLP 會被視為人工智慧皇冠上的明珠,是因為當 AI 能夠像人類一樣做到能聽會看,下一步的突破就是理解、思考以及決策了。

預訓練模型跟以往傳統的學習模型最大的不同,是預訓練模型基於網際網路公開的海量資料,可以做到無監督或者次監督學習,不需要人工打標,比如識別一隻貓、一隻狗,或者說這是一個名詞還是動詞等,都是通過機器自己的無監督學習,讓模型 AI 有了基本的閱讀理解、分類和分詞的能力。

但是天下並沒有一個可以解決所有問題的預訓練模型,可以一套預訓練技術解決不同語言、不同的任務,可以快速針對具體的某個領域、場景做針對性微調。而在此之前的學習模型都必須從零開始訓練。也就是說,NLP 大模型進入到了一個工業化實施的階段,可以作為生意去商業化了。

還有就是,近來 Stable Diffusion 模型開源,並且這個模型的規模相比於 GPT-3 小很多,能夠在消費級顯示卡甚至手機上運行,瞬間讓 AIGC 這件事的門檻降低了,普通消費者或者一般的公司都可以來嘗試,公眾可以來嘗試各種發揮想象力的應用。瀾舟科技也是自研開發了預訓練大模型——孟子,並且通過輕量化技術,做到了十億級參數量的預訓練模型可以比肩超大規模的預訓練模型。

俞佳:在京梅老師的回答上,我稍微補充下當下存在的問題。

實際上當我們真正面對使用者的時候,會發現大模型還是存在著一小步的距離。不管是 GPT-3 還是 T5, 獲取到行業資訊生成通用文章的效果都還不錯,但是文章的知識性或者言之有物的一面距離工業級應用還會有一些差距。這是目前商業化中會遇到的一些問題。

還有就是,除了生成質量之外,人對大模型的控制能力,或者說大模型如何能更好理解人的指令也是很重要的。

張詩瑩:圖像這邊的變化主要源於 Diffusion models(擴散模型),是學術圈和商業圈重新把之前的東西撿了起來。大家之前都是在研究 GANs(對抗生成網路),OpenAI 的研究人員發表了一篇論文說擴散模型在圖像合成上優於目前最先進的生成模型的圖像質量,然後大家就都去做 Diffusion models 了,事實也證明這確實是一條更好的路,後來出現的很多開源框架都基於 Diffusion models。

其次,我也比較同意京梅老師的看法,大模型雖然很廣,但是也沒法解決所有行業的問題,也許未來演算法突破後,演算法集變大以及 GPU 變得更便宜後可以。當下還是要基於不同行業的需求,對模型進行修改和最佳化。

Founder Park:AIGC 現在在不同領域生成內容的成熟度是什麼樣的?

李京梅:文字生成是其中相對比較成熟的,瀾舟科技在去年成立之後就在營銷文案領域進行了佈局。

文字生成在技術上關注的是可控性,今天還做不到給 AI 一個題目,讓 AI 直接生成千字文萬字文,更多的是可控文字生成。在營銷文案領域,需要提供商品資訊、以及一些常識資訊,比如人在白天戴墨鏡,夜裡不戴;白天擦防晒霜等這類資訊。

在營銷文案領域,我們和數說故事旗下的橫琴容徽合作推出了 contentnote 智慧文案,已經在去年年底就上線了。另外就是在文學寫作輔助領域的應用也已經落地,和網文平台中文線上進行合作,主要給網文作者提供一些靈感和輔助,目前已經集成在他們的寫作平台中。

圖像生成比文字生成的進度稍微慢一些,還有一些細節問題待解決,比如人臉和手部的細節真實度等,臉部有扭曲或者六指這樣的問題還有待去解決。

相比較文字生成和圖片生成這種背靠開源紅利,視訊生成目前還存在不少門檻,至少有兩個問題需要解決,首先是 AI 需要能夠識別圖片中的內容,然後基於此做一些插幀,這才能讓生成的視訊是一個比較真實連貫的視訊。

不過不管是視訊,還是文字生成,對於輸入長度都會有限制,幾百字的文字還行,再長可控性難度就比較高了。

張濤:3D 內容生成這塊確實存在很多問題待解決。

Stable Diffusion 推出之後,我們就快速將其引入到了 3D 內容生產的環境中。優點顯而易見,在大量的內容貼圖生成環節中可以幫我們降低成本。缺點的話,跟以前 GANs 類似,大家目前只能做一些很簡單的風格控制,比如馬變斑馬、長髮變短髮等,離偏精細化的控制還有一段距離。

不像文字有海量的資料可以訓練,網路上目前沒有大量開源的 3D 資產資料可以直接用來訓練大模型。我們現在走的路是一條比較艱辛的路,就是把 3D 的資產拆解後,用不同的方式去做,有些用傳統的圖形渲染的方式求解,另外一些通過 Stable Diffusion 或者類似模型生成後再去做組合。

張詩瑩:特別認同張濤老師的說法。

3D 內容生成是很重要的,這是現在的遊戲、動畫以及未來的 AR/VR 場景下的痛點。如果 3D 內容生成可用,將極大顛覆遊戲、動畫乃至未來世界的敘事方式。

現在圖片生成還是 2D 的形式,我們希望未來可以直接輸入文字生成 3D 內容,用一種 human friendly 的方式去生成,也不需要很多工程師。現在 2D 生成 3D,是一個自由度更高的挑戰,不僅要改變形狀和呈現形式,還要考慮移動方式等,而到了視訊時代,還要考慮不同的角度,以及光影等,難度更大,但也會更加震撼。

俞佳:從技術成熟度來看,文字生成確實比圖片生成更成熟,但是這個成熟度如果和人類的本身能力去比較的話,其結果可能是反過來的。

大部分使用者都有一些基礎的寫作能力,可以寫出 75-80 分的文章,現在的文字生成模型可能在 70 分左右;而對於圖片生成來說,大部分使用者不經過幾年專業畫圖訓練的話,可能是無法超過現在的圖片生成模型的。圖片生成模型的成熟度在這幾個月內得到了極大的突破,可能在未來幾個月也會有更快的調整。

Founder Park:如何看待 AIGC 內容的版權問題?

俞佳:盜夢師現在遵循的是 CC 協議,版權屬於創作者本人。不過現在確實有一些藝術創作者擔心自己的作品被餵給大模型訓練後,可能會喪失對自己的圖片的版權保護,我有一些更開放性的想法。

版權的本質是對創作者的智慧財產權和收益權的保護,版權的概念早在網際網路出現之前就有了,本身的內涵也在隨著技術的發展而變化,也許將來對創作者的收益分成機制也叫版權,比如說使用區塊鏈技術或者其他大家認可的一種分配方式。如果是你的圖被模型訓練了,那麼將來使用這個模型創造出來的所有的作品的商業收益你都獲得分成;或者是使用你的圖訓練了一個私有模型,那麼別人可以直接進行付費購買這個私有模型進行內容創作。

所以我覺得,版權問題,或者說創作者的收益保護問題一定會隨著行業的發展得到更好的解決方案。

張詩瑩:如果把 AI 看做一位小朋友的話,一定會經歷從模仿到創新的過程,一開始是從臨摹開始,後來才會有創造和超越。AIGC 中最強調的就是 AI 的創造能力,不是隻去模仿,是可以在學習的基礎上創造新的東西。所以我們也鼓勵所有的創作者,來和 AI 一起創造一些更美更有趣的內容,也更鼓勵我們的使用者去用更創新的方式去創作新的內容,而不是隻模仿某一位藝術家的風格。

02

AIGC 產品

在國內的商業落地

Founder Park:ZMO.AI 的產品主要佈局在哪些方向?

張詩瑩:我們很早就意識到 AIGC 是 AI 的下一波浪潮,上一波浪潮是感知智慧,下一波應該就是怎麼感知。目前我們在海外商業化落地的時候,主要圍繞三個方向。

首先是電商營銷,電商營銷分為部落格營銷和社交媒體營銷。部落格創作需要配圖,傳統都是在圖片素材庫購買,成本比較高,現在可以直接用 AIGC 生成。社交媒體的營銷對於圖片的 photorealism(照片寫實主義)要求比較高,尤其是細節和光影等,我們目前也優先從這個點切入。

ZMO.AI 生成的寫實照片 | 來源:ZMO.AI

第二個方向是 3D 素材的生成,目前還沒有到可以直接驅動生成 3D 人物形象的階段,但是可以幫助遊戲和動畫原畫師,去更好地獲得靈感。因為之前設計師都是靠畫很多張草稿,然後從中選出一張滿意的,不一定需要很精細的素材。

最後是設計領域的參考素材庫,微軟前一陣也發佈了 Designer 軟體,為使用者免費提供設計模版。AIGC 在其中既是生成器又是編輯器,可以生成設計師需要的素材,也可以進一步編輯成為更加完整的設計。

Founder Park:ZMO.AI 的產品基於開源的 Stable Diffusion 做了哪些創新改進?

張詩瑩:最大的不同是我們一開始就聚焦在真實照片的生成。這也導致我們選取的模型不同,Stable Diffusion 是在隱空間直接生成圖片的方式,而我們需要一些更真實的照片,光影包括細節需要更細膩,所以更多是在像素等級,基於多層級的方式去做模型的結構最佳化。

還有就是,我們是圍繞商用的場景,對圖片解析度比較看重,一般會輸出 1k 以上解析度的圖片,整個的演算法、模型結構和最佳化策略也會有所不同。

語言處理上,中文的語法和英文很不一樣,開源資料集也是以英文為主,對英文的處理會更好。因為產品面向海外市場,所以中文、英文的資料都進行了訓練。後期可能會針對不同國家,在資料上做更多的最佳化,比如針對國內市場的應用,使用更多的中文資料集。

Founder Park:介紹下盜夢師這款產品,你們的底層技術是如何實現的?做了哪些創新?

俞佳:我們現在有三款產品:圖片生成的盜夢師、文字生成的 Friday AI 和心理聊天機器人。盜夢師目前有接近 50 萬使用者,使用者粘性還是很強的,次日留存接近 40%。

盜夢師的使用者分為兩類,第一類是興趣型使用者,對 AIGC 的技術感興趣,頭腦中有很多故事和畫面但是自己沒法畫出來,於是用盜夢師實現了自己的夢想,很多使用者都在訪談中表示使用盜夢師創作小故事,這也是我們一直說的要賦予使用者畫出言之有物的圖像的能力。

還有一部分使用者是專業畫師或者設計師,他們更多把盜夢師當做素材和概念來源,對他們來說,可以很清楚地進行需求描述,很快得到概念稿。對於這樣的專業使用者,我們做了一定程度的最佳化,而對於普通使用者是免費的。

盜夢師的作品演示 | 來源:西湖心辰

盜夢師的作品演示 | 來源:西湖心辰

我們也是基於 diffusion 技術進行開發。在我看來,當下的 AIGC 會有兩個比較關鍵的問題還沒有被很好地解決。一個是模型本身的理解能力,給模型一段文字或者一張圖,它能理解多少,這其中有很多的 gap,比如說語言的隔閡,模型訓練時使用的都是英文,自然對中文的理解會存在問題。基於此我們做了模型的前置理解部分,讓模型去更好理解文字的內容。

除此之外,如果想在工業級別或者企業級別上使用內容生成,當下的圖片生成更多是做到了好看,但是沒有細節,缺少言之有物的東西。重要的是模型要能夠有常識和邏輯,理解語義的能力,我們在這個方面做了比較多的創新和最佳化,這是現在的開源模型或者其他競品所不具備的。

還有就是,我們會根據使用者的輸入,通過強化學習的方法來增強模型的能力,因為有不少專業使用者輸出了專業的描述詞彙來生成很好的內容。

Founder Park:瀾舟科技的文字生成產品現在發展得怎麼樣?

李京梅:瀾舟科技是做自然語言入手的,我們去年做先做的就是文字生成,目前的產品就是 contentnote 智慧文案,主要針對營銷文案的智慧化寫作。

AI 輔助創作營銷文案主要是三步,首先是選擇寫作模版,產品營銷、好物推薦還是科普等,然後確定文案的標題,輸入品牌和具體的商品,這樣其實就有了初步文案的生成,使用者可以在最後進行關鍵詞選擇,比如雅詩蘭黛的護膚產品,就會有類似清爽、淡斑之類的關鍵詞可選。營銷人員基於生成的內容進行二次編輯,很多時候可以做到 80 分的水準,可以滿足批量或者緊急情況下的內容生成,提高了效率。

我們還有一個文學創作輔助的應用,現在已經開放了 api 接口,大家可以去瀾舟科技的官網申請試用。這款產品主要針對網文等商業化寫作,幫助作者提高效率,提供靈感。比如使用者想創作一個從課堂穿越到清朝的小說,輸入一些關鍵字後,AI 可以幫助他生成一段細節描述,給使用者提供一些新的靈感,也鼓舞使用者繼續創作下去。目前這個 api 已經在中文線上的寫作平臺上進行了部署。

而具備了文字生成和圖像生成的能力,我們就可以給使用者提供更多的可能性,比如圖文並茂內容的一鍵生成等。

瀾舟科技圖片演示 | 來源:瀾舟科技

瀾舟科技圖片演示 | 來源:瀾舟科技

另外我們也上線了一款小程序——熊貓小說家,提供小說接龍的功能,你可以邀請你的朋友,大家一起來集體創作一個故事,AI 會根據你選擇的關鍵詞生成故事走向,分享給你的朋友後他可以進行續寫。

我們目前還是在垂直場景進行發力,在孟子這個預訓練模型的基礎上,整體走輕量化的策略,持續進行自研,去做多模態跨模態的融合,面向不同的場景做融合。

Founder Park:數字力場在 AIGC 上的探索方向是怎麼樣的?

張濤:我們主要聚焦在數字人和數字人服裝的低門檻生成。現階段流程已經打通,不過還需要進一步提升品質。

對服裝來說,3D 服裝面對的挑戰也有很多,光線、人物動作、周圍環境等的影響,還要配合不同的 avatar,衣服的材質建模以及物理仿真等,這些環節都有一系列的挑戰,我們目前算是磕磕碰碰跑完了整個流程,不過還處於調優級別。

為什麼切入這個方向,我們認為當 AIGC 的可以大量生產內容之後,數字人也許也可以通過這樣的方式生產,包括數字人的服裝、配飾等,畢竟行業內總是需要低門檻的生成方式,而不是全靠建模師、美術師一件一件去生產,這是我們目前比較看好的點。

03

AIGC 創業最終面對

的是內容創作者

Founder Park:ZMO.AI 的產品功能上,還有哪些創新的點?

張詩瑩:我們一直覺得從內容生成到內容編輯是非常完善的內部鏈條,生成圖片只是第一步,後續使用者還可以對圖片進行編輯,加入文字等。我們去做 Editor 這款產品也是希望能帶給使用者完整的體驗。尤其是對於很多設計師來說,很多時候都是從生成元素開始,然後在元素的基礎上設計海報或者包裝,這些都是鏈條上不可或缺的一環。

我們的 Editor 產品嚐試將編輯的門檻降得更低,使用者不需要去學習複雜的 PS 技術等。未來在包裝、建築和服裝設計領域等,AIGC 能夠幫助到大家很多,不管是提供靈感還是幫助他們直接生成內容,而在 3D 生成成熟後甚至可以直接對接到製造業。

Founder Park:ZMO.AI 的產品是 ToC 還是 ToB 的?會聚焦在哪些領域?

張詩瑩:我們的 IMAGECREATOR 最早在國外上線,最近在國內也推出了 YUAN 初小程序,為什麼叫這個名字是因為覺得 YUAN 很有想象力,可以叫它源遠的「源」,也可以叫它為遠大的「遠」或者願景的「願」都可以。

產品的定位是 to creator,所有的創作者,沒有嚴格說一定是 ToB 或者 ToC。我們認為在未來,當 AIGC 變成所有人都可以使用的時候,B 和 C 的界限會很模糊。很多人一開始可能是個人消費者 C,他通過自己的設計和作畫,有了自己的作品開始掙錢了,慢慢就變成一個小型的 B 了。大家都是創作者,人人都可以創造。

目前會聚焦在電商方向,但是會在此基礎上進行拓展。因為模型的生成能力是底層的能力,最後的落地可以有很多場景,電商只是其中的一部分。具體來說我們會聚焦在三個領域。

第一個是真實圖片的生成能力,第二個是 3D 內容的能力,第三個是專業的插圖能力,這種插圖包括後現代、兒童等各種插畫風格。本質上是一個內容生成和創造的平臺,能夠在上面創造各種內容,幫助到使用者更好創造價值。

Founder Park:對於圖片生成,ToC 會是更值得期待的方向嗎?

俞佳:在我看來,AIGC 的 ToC 領域一定會出現非常大的平臺,因為人類的創作成本史無前例地降低了,創作形式的變化會帶來內容消費形式的變化。因為有了智慧手機,人們可以更方便地拍攝視訊,才出現了抖音,當大家可以更快速地去創作圖片或者視訊內容的時候,一定會出現另一種內容消費平臺。也許將來會出現很多的網路漫畫,因為只要有故事和想象力,你就可以自己創作自己的漫畫。這種創作生產力的突變會帶來一些新的機會,當然競爭也會很激烈。

Founder Park:文字生成類產品,海內外的產品有什麼區別?

俞佳:海外的文字生成應用也有現象級的公司比如 Jasper、copy.ai 等,海外公司的優勢在於起步較早,國外使用者對於 SaaS 類產品付費接受度比較高,對於能夠節省時間的產品,他們的付費意願是很高的。

國內使用者對於工具類產品付費意願沒那麼高,但是對於那些工具確實能夠幫他們掙錢的使用者,比如跨境電商、新媒體創作的使用者,付費意願就比較高,所以我們除了這一類使用者外,也會發展一些 ToB 的合作。

04

AIGC

的未來可能性

Founder Park:從商業化角度考慮,如何提高 AIGC 的良品率?

張濤:兩個層面吧,首先是從模型的底層控制入手,朝著更精準的方向最佳化。底層改造需要投入大量的資源和資料資源。

其次是生產層面,對於大模型來說,想進行精準的調整是有難度的,我覺得可以在運營層面投入更多的資源進行調整,比如輸入更準確的描述,內容把控上更嚴格等。

李京梅:當下其實還沒有放之四海而皆準的解決方案。從技術層面來看,我們更關注垂直場景的落地,這樣對我們來說是比較可控的,在這個場景下進行持續最佳化,提升良品率。其次是工程層面的最佳化,讓產品的使用者體驗更好。

還有一個最根本的理念,不管是 NLP 還是 AIGC,大多數場景下應該都是人機互動的方式生成最後的成品,也就是說最終能否產出良品,還是把握在操作者的手中。這是目前以人機互動的形式產出內容的客觀侷限性。

俞佳:現階段討論建立工業標準可能有點言之過早,可能文章的完整性、併發數、QPS 等這些傳統指標是可以作為監測標準的。

我覺得在很長的一段時間內,人一定是和 AI 共同完成創作。早期階段人需要做的是不讓 AI 跑偏,隨著 AI 能力的上升,人需要去提供創意,或者按照自己的審美從結果中選擇好的內容。不管是短期還是長期,這種互動關係是值得深入去研究的。

張濤:我們現在更多是聚焦,在垂類上更加聚焦,逐步提高產出的細節、光照等質量。

其次是重視使用者反饋,當生成的圖越來越多,使用者的反饋就很重要,可以幫助大模型進一步最佳化,達到更好的狀態。

Founder Park:3D AI 模型訓練進展比較緩慢,你們如何解決 3D 模型訓練素材少的問題?

張詩瑩:我們會使用渲染引擎專門生成一些資料來做訓練,這些能夠覆蓋到我們聚焦的場景,但是沒辦法泛化到所有場景,而且相對來說獲取成本有些高。未來還是期待會有大廠無私放出一些資料幫助大家。

張濤:我覺得進展慢是正常的發展規律。14、15 年多模態發展起來的時候,很多人去做文字生成和圖片生成,也是積累了很長時間,即便是到了今天的 DALL·E 2,也是經歷了一段時間才爆發。現在資料比較難,將來一定是要依靠某些開源資料的大力推進,這一點我是認同詩瑩老師的。

但是即便是這樣,我仍然覺得目前 3D 的進展不慢。回到元宇宙概念爆發之前,行業內的 3D 資產很多是在遊戲行業,這個賽道是相對更封閉,有固定的盈利模式,人才培養和生態也是有自己的閉環,人才很少流入到其他行業。隨著元宇宙賽道的火熱,以及遊戲行業這兩年受到的牌照、疫情的衝擊等,整個行業的人才流失到了其他行業。當這些不同行業的人才碰撞在一起,開始探討 AIGC 的內容突破的時候,我覺得這個賽道才剛剛開始。

現階段大模型很難取得讓人驚訝的成績,因為大家現在習慣影視和遊戲高成本製作的 3D 模型,但是一年之後,3D 模型生成的狀態一定不是今天這種粗糙的狀態。要知道,三年以前文字和圖像大模型的狀態也是不可控的。

Founder Park:很多 AIGC 公司都是在開源模型的基礎上進行最佳化和產品開發,應該如何搭建自己的技術壁壘?

李京梅:瀾舟科技是一直堅定走開源路線,孟子的面向不同場景的 17 個開源模型都可以在開源站上體驗到。對我們來說,首先讓社區內儘可能多的夥伴把東西用起來,收集更多的反饋,然後再找到不同場景裡存在的不足,再去最佳化我們的大模型。

作為創業公司,上游的資料採集和硬體顯然不是我們要走的方向,我們走的是更落地的路線,所以要去不斷打磨我們的大模型,以客戶的應用場景為導向,提供輕量化的可快速落地的方案。

人工智慧的三要素:算力、演算法和資料。當大家共創生態圈的時候,自然是有算力的出算力、有資料的出資料,我們做模型也是希望能改進演算法。大家一起把蛋糕做大,讓更多應用開發者和廠商能夠有更多想象空間,一起促進產業生態發展。

俞佳:AI 的三要素,演算法模型目前有比較好的基礎,而且模型的創新可能要面臨整個開源社區和學術界的挑戰;算力面臨著大公司的挑戰,在資料層面我覺得是可能有自己的護城河的,這也是我們選擇去做 ToC 產品的出發點。我們能夠直面使用者,切到具體的行業,獲得非常好的一手資料,這是我們的一個優勢。

Founder Park:長遠來看,AIGC 還有哪些方向的創新值得關注?

俞佳:在動漫化、元宇宙等強內容消費行業,AIGC 會有非常大的發展。

張詩瑩:首先是在設計領域會有一個爆發,比如已經出現的 Figma 外掛等。然後營銷領域的發展應該也是比較快的。

而在日常生活中,大部分人都會接觸到設計的需求,比如短視訊、廣告語、產品包裝設計等,這些工作在未來會跟 AIGC 有越來越多的結合,能夠幫助到更多人線上下、線上更好地進行內容創造。

張濤:第一,因為 AIGC 能夠更高效地生產內容,目前主流的短視訊平臺肯定會大量通過 AIGC 生產內容,這是目前比較旺盛的需求。

第二,通過 AIGC 協助設計師,降低成本、提高生產效率。

第三,遊戲領域,更高效地產出 NPC 和提高生產力。

第四,目前的元宇宙和 3D 內容生產領域,生產力還是很低下的,大量內容生產需要人工去填補,AIGC 在這個領域還是比較有前途的。

李京梅:還是迴歸到人類和人工智慧的關係上,我覺得人類不要放棄去做有創造力的工作,機器還是要跟人學習的。在未來幾年,人工智慧會用在那些幫助人類提升效率的地方,虛一點說,把創造力、創意相關的工作留給人類,人工智慧去提升效率。人類和機器能夠更加和諧相處,找到自己的位置,最終還是機器為人類創造價值。

技術最終的價值其實並不是取代人,而是真的去幫助人更好創造價值。

*以上嘉賓觀點不代表 Founder Park 立場,也不構成任何投資建議。

文中提到的一些應用和網站如下:

YUAN 初:https://yuan.zmoai.cn/

IMAGECREATOR:https://imgeditor.zmo.ai/

瀾舟科技:https://www.langboat.com/

contentnote 容徽:https://www.content-note.com/

Friday AI :https://www.heyfriday.cn/home

盜夢師:https://www.printidea.art/

小程序:盜夢師、聊會小天、熊貓小說家、YUAN 初

相關文章

英偉達的元宇宙夢想,不止 Omniverse

英偉達的元宇宙夢想,不止 Omniverse

英偉達已經成為元宇宙的基礎服務商。 作者 | Founder Park 要談元宇宙,英偉達是避不開的。 不管是更真實呈現虛擬世界所需要的光追...

2023,元宇宙「脫虛向實」

2023,元宇宙「脫虛向實」

在希望與爭議中,元宇宙渡過了關鍵的一年。 從國際局勢,到新冠疫情,過去三年「新常態」的衝擊,讓外部環境充斥著不確定性,也令這個時代的人們處於...