錯把黑人視訊打上「靈長類動物」標籤,Facebook的AI太離譜!官方已向公眾致歉

明敏 發自 凹非寺
量子位 報道 | 公眾號 QbitAI

觀看一個以黑人為主角的視訊,結果平臺給出的相關推薦是:

是否繼續觀看有關靈長類動物的視訊?

這是最近一些Facebook使用者在觀看一則黑人視訊時,遇到的真實情況。

視訊的內容其實是幾個平民和警察發生爭執,和「猴子或靈長類動物」毫無關係。

這在網上引起了軒然大波

這在網上引起了軒然大波。

對此Facebook緊急致歉,稱其是「不能容忍的錯誤」。

目前,他們正在研究這一推薦功能以「防止這種情況再次發生」。

「我們的AI並不完美」

這件事情起源於《每日郵報》2020年6月27日發佈的一個視訊。

視訊中有白人、黑人和警察,他們之間發生了一些爭執,視訊的主要人物是黑人

最近,有Facebook使用者觀看這則視訊時發現,平臺給出的推薦提示居然是:

是否繼續觀看有關靈長類動物的視訊?

這讓人感到有些錯愕。

按照生物學定義劃分,人類的確屬於靈長目。

但結合一些社會情況,不少種族主義者將黑人貶低為「猴子」、「猩猩」,意圖刻意將他們與「人」區分開。

這樣的社會背景,讓人不免猜測Facebook給這段視訊打上「靈長類動物」標籤到底是怎麼一回事。

於是有人把這個視訊的情況告訴了前Facebook內容設計經理Darci Groves ,看到這個情況後,Groves感到非常的震驚。

隨即,她把這一情況發到了一個面向Facebook員工的產品反饋論壇中。

之後,這事引起了Facebook官方的注意。

Facebook Watch產品經理表示,這種情況是不能被容忍的,公司已經在調查問題的根本原因。

Facebook發言人Dani Lever則在一份聲明中表示,:

雖然我們在不斷提升AI的水平,但是我們知道它並不完美,還有更多可以最佳化的地方。

我們向所有看到這則冒犯性推薦的人道歉。

AI種族歧視,不是第一次了

Facebook這次的「錯誤標籤」,再一次把AI推上了輿論的風口浪尖。

這幾年,不少科技巨頭的AI都出現了存在種族偏見的負面新聞。

2015年,谷歌相簿就曾把黑人照片打上黑猩猩的標籤引起不少爭議。

當時,谷歌對此「深表歉意」

當時,谷歌對此「深表歉意」。

不過在2018年,《連線》雜誌發現,谷歌並沒有真的改正錯誤,只是……為圖像分類演算法去掉了「大猩猩gorilla」這個類別。

去年被CVPR 2020收錄的PLUSE方法,也被人發現存在明顯的種族偏見。

它是一個可以把打碼的人臉修復如初的AI,結果還原的人臉,全部是白人臉

比如奧巴馬這張復原圖,可以說和他本人是毫無關係。

對亞洲臉龐的復原效果也非常不好

對亞洲臉龐的復原效果也非常不好。

類似的例子在AI演算法中,真的不少見

類似的例子在AI演算法中,真的不少見。

由此,AI的倫理問題也一直備受人們關注。

在把人和大猩猩弄混這事上,人類不會犯這種低級錯誤。為什麼AI會呢?

有人認為這是一個複雜的計算機視覺問題。

找出圖像之間相似是很容易的,但是找出為什麼相似卻不相關,這是個很難的問題。

也有人就指出這是因為AI做的工作更多是統計推理,它本身不會思考。

所以,就要關注訓練集

有人就表示,他曾與一家大公司合作時發現,不少AI訓練集中都存在偏見。

但是對於這一現象,不少團隊都沒有想消除歧視的想法。

此外,也存在訓練集中包含黑人面孔太少的可能,這導致演算法在識別黑人面孔時會表現不好。

當然也不排除程式設計師本身存在種族偏見,所以在打標籤時就已經存在偏見。

參考連結:
[1]https://www.nytimes.com/2021/09/03/technology/facebook-ai-race-primates.html
[2]https://news.ycombinator.com/item?id=28415582

相關文章

黃仁勳從烤箱裡取出新鮮出爐的GPU

黃仁勳從烤箱裡取出新鮮出爐的GPU

深黑的皮衣,蒼白的頭髮,熟悉的Jensen Huang又來了,但是少了寬敞的會場和粉絲的尖叫。 因為美國疫情的原因,英偉達和其他科技公司一樣...

臉部辨識遭到美國波士頓政府禁用

臉部辨識遭到美國波士頓政府禁用

郭一璞 發自 凹非寺量子位 報道 | 公眾號 QbitAI 舊金山之後,美國又有一座大城市禁用臉部辨識了。這次,是哈佛、MIT等知名高校的所...