家中狗子都在想些什麼,科學家們利用機器學習搞清楚了

Alex 發自 凹非寺

鏟屎官們有沒有想過,每天向你撒嬌、求投餵的狗狗,它腦海裡究竟在想什麼?

為什麼有時候投入大把精力養熟的狗子,轉頭就可以撲向別人的懷裡?

其實,狗狗這麼做並不故意是要氣你——

其實,狗狗這麼做並不故意是要氣你——

一項來自埃默裡大學的實驗表明:狗狗對世界的看法可能與我們截然不同

人類更關注對象,但狗子卻不太關心看到的到底是誰或什麼物體,而更在意動作本身

所以按理來說,誰對狗子好它就可以親近誰。(當然,別忘了狗子嗅覺靈敏,許多狗狗也很認主)

此外,狗和人類的視覺系統也有很大差異,它們只能看到黃藍色調,但有一個靈敏的視覺感受器,用來觀察運動。

這項實驗採用了機器學習來弄清楚狗子的大腦活動,相關論文已在The Journal of Visualized Experiments上發表。

研究者指出,這種方法有一個明顯的好處:就是無創

而此方法之前只在靈長動物身上用過,所以這次在狗狗身上的實驗算是一個重大突破。

下面就來看看具體體驗過程。

對比狗和人的大腦活動

研究者通過機器學習和fMRI(功能磁共振成像),來探索狗狗看到不同類視訊時的大腦活動。

至於為什麼要選狗子而非其他動物?

因為狗子是一種比較好教的動物,通過一定訓練後可以乖乖配合MRI(核磁共振)掃描,而不需要注射鎮靜劑或使用其他約束方法。

不過儘管狗狗相對聽話,但要在本研究中,它們除了要參與MRI掃描,還要長時間觀看視訊。所以最終只有2只狗入選,一隻是4歲的雄性拳師混血犬,另一隻11歲的雌性波士頓梗混血犬。

狗狗正在看視訊

每隻狗狗看了三組不同的視訊,每組視訊時長30分鐘,共計256個視訊片段。為了控制變數,這些視訊都沒有聲音。

其中一些視訊主要展示不同的物體(如:人、狗、汽車),另一些視訊則側重於展示不同的動作(如:玩耍、吃東西、聞氣味)。

為了作比較,兩名人類志願者也以同樣的程序觀看了這些視訊片段。

在志願者和狗狗看視訊的同時,研究人員用3T核磁共振掃掃描器記錄了他們的大腦活動圖像。

然後他們使用神經網路,訓練並測試了3個分類器(classifier),以區分「物體」和「行動」。

誒,為什麼不是2個而是3個?

因為關於行為的分類器中,一個是在3種不同動作上訓練的,另一個則學習了5種動作。

結果顯示,人腦對物體和動作都有不錯的反應,而狗狗的大腦只對動作敏感,對於不同的人、物,它們似乎並不感冒。

左為人腦MRI圖,右為狗腦MRI圖

為了評估模型性能、讓資料更有說服力,研究者還用了Ivis機器學習演算法對收集的資料進行量化。

從人類志願者的資料來看,這些模型在將其大腦活動資料對映到不同分類器上時,準確性都超過99%。

而在對狗的大腦資料進行解碼時,該模型對基於物體的分類器基本不起作用;不過對於基於行為的分類器來說,準確率可達60%至88%。

由此可見,狗狗的思維方式和我們還是有很大區別的!

研究者簡介

研究者來自埃默裡大學心理學系。

研究者來自埃默裡大學心理學系

論文一作Erin M. Phillips,現為普林斯頓大學生態學和進化生物學系的在讀博士研究生。

她作為訪問學者來到埃默裡大學,並參與了這項研究。

論文的共同作者Gregory S.Berns,現任埃默裡大學教授,主要研究方向為人類決策的神經影像、狗的fMRI,以及比較神經生物學。

Berns教授本科畢業普林斯頓大學物理學系,並先後獲得2個博士學位:生物醫學工程博士以及醫學博士。

Berns認為,狗狗更關注動作其實是可以理解的,因為動物天生需要非常關注環境中的變化,以此來捕獵或者避免被吃掉。

雖然在本次研究中,最終只有2只狗參與,不過研究者未來還會對更多狗子以及其他動物展開實驗,探索動物們是如何感知世界的。

論文地址:

https://www.jove.com/t/64442/through-dog-s-eyes-fmri-decoding-naturalistic-videos-from-dog

參考連結:

https://www.eurekalert.org/news-releases/964886

相關文章

手機裡的微信群,都在變成DAO

手機裡的微信群,都在變成DAO

tou解釋最新科技進展,報道矽谷大事小情 一個烏托邦式的組織設想,正在帶來的革命和所要面對的挑戰。 —— 文|Juny 編輯|VickyXi...

別了,矽谷人的黃金時代?

別了,矽谷人的黃金時代?

時代洪流下,普通人的不安、無力、徬徨與自救。 —— 文|Juny 編輯|VickyXiao 凌晨1:45分。陳珏又抬腕看了下表,但還是感到毫...