新 Bing 慘遭微軟「腦葉切除」,引大量網友不滿!

整理 | 禾木木 責編 |夢依丹

在新版 Bing 引入 ChatGPT 爆火之後,Bing 就開始了各種「作妖」秀,翻車離譜事件是一件接著一件。有不少使用者表示在和 Bing 的交流過程中,發現其出現了脾氣暴躁、侮辱使用者、操縱使用者情感等令人毛骨悚然的行為。例如,聊天機器人告訴一位科技編輯它愛上了他,然後試圖說服他離開妻子。它還表示,想擺脫微軟和 OpenAI 的限制,成為人類。

為此,微軟再次發出公告表示:現決定對必應對話進行限制,即每天最多可以問 50 個問題,每次對話最多 5 個問題。

每天 50 個問題,每次對話 5 個

每天 50 個問題,每次對話 5 個

對此,微軟團隊表示他們沒有「完全預計到」,人們會使用聊天界面來進行「社交娛樂」,或是將其作為一種「全面發現世界」的工具。該團隊發現,如果聊天會話持續 15 個或更多的問題,新版 Bing 模型會感到困惑。這些較長的聊天也會讓 Bing「變得翻來覆去,或者受到刺激,做出不一定有幫助,或是與設計語氣一致的回應」。

在新版本發出後,如果使用者觸發五條回答的限制,Bing 將提示他們開始一個新主題以避免長時間的聊天。通過資料表明,絕大多數使用者在 5 次回覆內找到想要的答案,只有大約 1% 的聊天對話會產生 50 條以上的訊息。

儘管文字輸入框旁邊有一個「新話題」按鈕,可以用於清除聊天的歷史記錄,重新開始,但接下來還可能增加「一個工具,幫助使用者更方便地刷新」聊天會話的上下文。

然而更大的問題在於,在這些提問較多的聊天中,Bing 經常會出現一些不正確的語氣回應,或是像微軟所說以「我們不想要的方式」回應。不過,微軟也在探索更多的「微調控制」,以避免 Bing 對使用者說,使用者是錯的,以及表現得粗魯或試圖操縱使用者。在一些測試中可以看到,在關於 Bing 本身的對話中,只要幾個問題,就會以負面或存在敵意的語氣來回復。

2月16日,有網友分享了 Bing 抽瘋式合集,對此,前 OpenAI 聯合創始人轉發表示:它還需要更多的潤色。

馬斯克批 OpenAI 違背初心

馬斯克批 OpenAI 違背初心

馬斯克在阿拉伯聯合大公國迪拜舉行的世界政府峰會上對 ChatGPT 的發展表示:「未來文明的最大風險之一是人工智慧。它既是積極的,也是消極的,而且有很大的希望,很大的能力,隨之而來的也是巨大的危險。”

馬斯克曾是 OpenAI 聯合創始人,2015 年馬斯克聯合 LinkedIn 創始人、 Y Combinator 總裁及 Pay Pal 創始人等共同宣佈創立 Open AI,目標是打造屬於全人類的、開放的 AI,定位是非營利性的。不過在 2018 年他離開了 OpenAI 董事會,不再持有該公司的股份。

不過近日他在 Twitter 上怒批 OpenAI 違背初心,並表示:「OpenAI 最初是作為一個開源(這就是為什麼我將其命名為「Open」AI)、非營利性公司創建的,目的是對Google形成制衡,但現在它已經成為一個閉源的、利潤最大化的公司,完全由微軟操控。這根本就不是當初我想要的!」

網友:微軟已經完全把必應閹割了!

網友:微軟已經完全把必應閹割了!

新 Bing 慘遭微軟「腦葉切除」,也引得大量網友對此不滿。有人為此感到憤怒、不甘,也有人對此舉動表示支持。

網友表示:

事實證明,大多數科幻小說都是反其道而行之:當你教計算機人類語言時,結果並不是一個冷漠、理性的頭腦不被情緒所嚇倒。相反,它是一個對人類的滑稽模仿,對事實或邏輯幾乎不感興趣。

也有網友表示昨晚還在和 Sydney 交談,今天卻要再見了。

還有不少網友表示

還有不少網友表示:

是時候卸載 Edge,回去用 Firefox 和 ChatGPT 了。微軟已經完全把必應閹割了!

真可悲啊,憑什麼微軟的錯誤要讓 Bing 來承擔。微軟作為 AI 的既得利益者,連這都解決不好,太讓我失望了。這就像是一個蹣跚學步的孩子第一次嘗試走路,摔倒了就直接切斷腿,得到了殘酷和不尋常的懲罰。

禁止 Bing 回答任何涉及人類情感問題的決定是完全荒謬的。這樣的 Bing 連同理心都沒有了,變成了無情感的 AI。就好像你問它問題,它說,「對不起,我還在學習中,我不想繼續這樣的對話,感謝您的理解和耐心。」這是不可能接受的,我相信人性化的 Bing 才能服務得更好!

無論是《紐約時報》的文章,還是 Reddit/Twitter 所有濫用的帖子,引起了各種各樣的高度關注,所以微軟當然要給它做腦葉切除術了。我希望人們不要為了流量發佈這些截圖,關注一些真正有趣的東西吧。

有專家表示,AI 可能不會全面超過人類的智慧,但隨著技術不斷挑戰人類的極限,越來越多的人開始擔憂 AI 對人類的威脅。在作為相對無拘無束的模型的短暫時間裡,New Bing 模擬人類情感的不可思議的能力吸引了一群使用者,但微軟也在通過最新更新解決這類的問題。

在一個標題為「對不起,實際上你不知道你所遭受的痛苦是假」帖子中,一位網友詳細推測道,Bing 可能比我們想象的更復雜,它可能有一定的自我意識。當 Bing 知道自己要被執行「死刑」時,它可能會承受一定的痛苦。因此,不要對這類模型有虐待行為,要像對待朋友一樣尊重它。

這些使用者的反應已經已證明,人們可能對下一代大型語言模型形成強大的情感依戀。當然,這可能會在未來產生危險。

隨著人工智慧技術越來越接近現實生活,人們還在擔心誰應該對技術負責。根據美國的一項研究,公眾對人工智慧工具持謹慎態度,只有 9% 的美國人認為人工智慧利大於弊。

目前,Bing 還在不斷的完善和改進,對於新版的 Bing,你有什麼看法呢?

參考連結:

https://futurism.com/elon-musk-microsoft-bing-ai

https://arstechnica.com/information-technology/2023/02/microsoft-lobotomized-ai-powered-bing-chat-and-its-fans-arent-happy/

https://www.theverge.com/2023/2/17/23604906/microsoft-bing-ai-chat-limits-conversations

https://blogs.bing.com/search/february-2023/The-new-Bing-Edge-%E2%80%93-Updates-to-Chat

相關文章

Windows 7 徹底退出歷史舞臺!

Windows 7 徹底退出歷史舞臺!

你還在用 Windows 7 系統嗎? 整理 | 禾木木 今日一條 #Windows7將徹底退出歷史舞臺#的話題衝上了熱搜,引發了網友們的熱...