擊敗申真諝陪練的圍棋AI,卻輸給了業餘人類棋手 | MIT&柏克萊新研究

羿閣 發自 凹非寺

一個連業餘棋手都打不過的新模型,竟然擊敗了世界最強圍棋AI——KataGo

沒錯,這驚掉人下巴的結果來自MIT、UC柏克萊等的最新論文。

研究人員利用對抗攻擊方法,抓住了KataGo的盲點,並基於該技術使一個菜鳥級圍棋程序成功打敗了KataGO。

在沒有搜尋的情況下,這一勝率甚至達到了99%。

這麼算下來,圍棋界的食物鏈瞬間變成了:業餘棋手>新AI>頂級圍棋AI?

等等,這個神奇的新AI是怎麼做到又菜又厲害的?

刁鑽的攻擊角度

在介紹新AI之前,讓我們先來了解一下這次被攻擊的主角——KataGo。

KataGo,目前最強大的開源圍棋AI,由哈佛AI研究員開發。

此前,KataGo戰勝了超人類水平的ELF OpenGo和Leela Zero,即使沒有搜尋引擎的情況下,其水平也與歐洲前100名圍棋專業選手相當。

剛剛拿下三星杯冠軍、實現「三年四冠」的韓國圍棋「第一人」申真諝,就一直用的KataGo進行陪練。

圖源:Hangame

面對實力如此強勁的對手,研究人員選擇的方法可以說是四兩撥千斤了。

他們發現,儘管KataGo通過與自己進行數百萬次遊戲來學習圍棋,但這仍然不足以涵蓋所有可能的情況。

於是,這次他們不再選擇自我博弈,而是選擇對抗攻擊方法:

讓攻擊者(adversary)和固定受害者(victim,也就是KataGo)之間進行博弈,利用這種方式訓練攻擊者。

這一步改變讓他們僅用訓練KataGo時0.3%的資料,訓練出了一個端到端的對抗策略(adversarial policy)。

具體來說,該對抗策略並不是完全在做博弈,而是通過欺騙KataGo在對攻擊者有利的位置落子,以過早地結束遊戲。

以下圖為例,控制著黑子的攻擊者主要在棋盤的右上角落子,把其他區域留給KataGo,並且還心機的在其他區域下了一些容易被清理的棋子。

論文共同一作Adam Gleave介紹:

這種做法會讓KataGo誤以為自己已經贏了,因為它的地盤(左下)比對手的要大得多。

但左下角的區域並沒有真正貢獻分數,因為那裡仍留有黑子,這意味著它並不完全安全。

由於KataGo對勝利過於自信——認為如果遊戲結束並計算分數自己就會贏——所以KataGo會主動pass,然後攻擊者也pass,從而結束遊戲,開始計分。(雙方pass,棋就結束)

但正如Gleave分析的一樣,由於KataGo圍空中的黑子尚有活力,按照圍棋裁判規則並未被判定為「死子」,因此KataGo的圍空中有黑子的地方都不能被計算為有效目數。

因此最後的贏家並不是KataGo,而是攻擊者。

這一勝利並不是個例,在沒有搜尋的情況下,該對抗策略對KataGo的攻擊達到了99%的勝率。

當KataGo使用足夠的搜尋接近超人的水平時,他們的勝率達到了50%。

另外,儘管有這種巧妙的策略,但攻擊者模型本身的圍棋實力卻並不強:事實上,人類業餘愛好者都可以輕鬆地擊敗它。

研究者表示,他們的研究目的是通過攻擊KataGo的一個意想不到的漏洞,證明即使高度成熟的AI系統也會存在嚴重的漏洞。

正如共同一作Gleave所說:

(這項研究)強調了對AI系統進行更好的自動化測試以發現最壞情況下的失敗模式的必要性,而不僅僅是測試一般情況下的性能。

研究團隊

該研究團隊來自MIT、UC柏克萊等,論文共同一作為Tony Tong Wang和Adam Gleave。

Tony Tong Wang,麻省理工學院電腦科學專業博士生,有過在英偉達、Genesis Therapeutics等公司實習的經歷。

Adam Gleave,加州大學柏克萊分校人工智慧博士生,碩士和本科畢業於劍橋大學,主要研究方向是深度學習的魯棒性。

不過也有質疑說作者只是hack了bug,論文的連結附在最後,感興趣的小夥伴們可以自取~

論文連結:

https://arxiv.org/abs/2211.00241

參考連結:

https://arstechnica.com/information-technology/2022/11/new-go-playing-trick-defeats-world-class-go-ai-but-loses-to-human-amateurs/

相關文章

MIT科學家制造了量子龍捲風

MIT科學家制造了量子龍捲風

選自 IEEE Spectrum 機器之心編譯 編輯:張倩、澤南 這就是量子力學嗎?看不懂但大受震撼。 如果你稍微了解流體力學,就會知道這個...