網(wǎng)友問NewBing問題,結(jié)果它上了另一個(gè)AI的當(dāng)
最近,有網(wǎng)友在問New bing問題時(shí)發(fā)現(xiàn),New bing給出了錯(cuò)誤的回答,而造成這一問題發(fā)生的原因,在于New bing參考的AI信息源也有問題。具體如何看待這一事件,以及這類事件未來發(fā)生的可能性?不妨來看看本文的解讀。
前幾天,世超刷到一個(gè)帖子。
有個(gè)網(wǎng)友問 New Bing :象鼻山是否有纜車,New Bing上網(wǎng)查了下后說有的,并給出纜車開放時(shí)間和價(jià)格。
最后還強(qiáng)調(diào),坐纜車可以欣賞到象鼻山的全景,值得一試。
乍一看, New Bing 回答還可以吼,一些必要信息它都給了,甚至想給你種草。
但一番考證后,網(wǎng)友發(fā)現(xiàn)New bing 回答是錯(cuò)的。
AI 回答錯(cuò)這種事,大家早見怪不怪了,但這次不同的是:
New Bing答錯(cuò)的原因,在于它參考的信息源有問題——
信息源,居然也是個(gè)AI。
根據(jù) Newbing 下方提供的參考來源,「象鼻山提供纜車」信息來自于一個(gè)知乎賬號(hào)。
而這個(gè)賬號(hào),正瘋狂生產(chǎn)大量的AI內(nèi)容。
為啥這么說呢。
5 月 25 日這天,從下午 1 點(diǎn)05 開始, 20分鐘內(nèi)他回答了 5 個(gè)問題。
不僅回答速度快,他還涉獵賊廣。
上能給出泰國、日本旅游攻略,下還熟知寵物訓(xùn)練,甚至了解果蛆生活習(xí)性,還知道留置看護(hù)筆試要考什么題。
字?jǐn)?shù)大概都在 200字左右,回答的角度也都挺全面。
說實(shí)話,這背后要是一個(gè)真人在操作,那世超就是來人間湊數(shù)的……
我把它的回答復(fù)制到百度和谷歌,也并未發(fā)現(xiàn)是搬運(yùn)。
既然不是營銷號(hào),那根據(jù)經(jīng)驗(yàn),這種文案口吻只有 AI 能寫出來了。
目前知乎已經(jīng)把百變?nèi)松?,并在它所有回答下方貼出「疑似 AI 」的提示,也基本能坐實(shí)這就是一個(gè)背靠 AI 的賬號(hào)了。
所以整件事就是NewBing被另一個(gè)AI編造的答案給坑了。
你可以戲謔的說成:AI吃到了同類拉出來的狗糧。
但要世超看,這種事,將來在AI界內(nèi)可能會(huì)被不斷發(fā)生。
講一個(gè)案例。
AI 行業(yè)有一種工作叫標(biāo)注員,最簡(jiǎn)單的一類就是給圖像打標(biāo)簽,比如標(biāo)記下圖片里的物體是汽車還是摩托車。
打過標(biāo)簽的圖片,相當(dāng)于有了參考答案,才可以拿去給AI進(jìn)行訓(xùn)練,深度學(xué)習(xí)。
標(biāo)注員的工作也能稍微復(fù)雜點(diǎn),比如做摘要。
前段時(shí)間,瑞士洛桑聯(lián)邦理工學(xué)院有一群研究人員就請(qǐng)了 44 名外包員工,讓他們給 16 篇論文做摘要。
結(jié)果你猜咋地。
研究人員最后用技術(shù)手段識(shí)別出有 33%到 46%的摘要,是用大型語言模型生成的。
原來有一些外包員工偷懶,用 AI 幫他們生成摘要,然后用這批摘要用來訓(xùn)練 AI 。
他們是懂偷懶的。
雖然整個(gè)事件是學(xué)者們做的一場(chǎng)實(shí)驗(yàn),但從本質(zhì)上說,這不也是一起AI吃到同行拉的狗糧的故事么?
我認(rèn)為這可不是個(gè)好兆頭。
要知道大語言模型非常復(fù)雜,它需要的訓(xùn)練數(shù)據(jù)極其龐大,也是關(guān)鍵所在。
不管是書籍還是網(wǎng)絡(luò)上發(fā)布的帖子,文章,這些由人類創(chuàng)造的作品,因?yàn)樽匀?、干凈、質(zhì)量高,對(duì)正在長身體的AI來說,就是一個(gè)營養(yǎng)拉滿的訓(xùn)練語料庫,
前段時(shí)間為什么 reddit 要對(duì) API 收費(fèi),就因?yàn)樯厦鏀?shù)以萬計(jì)的帖子,對(duì) AI 公司來說就是一個(gè)極具有價(jià)值的人類寶庫,它不想被白嫖。
所以在未來一段時(shí)間,不僅網(wǎng)絡(luò)上AI生成的內(nèi)容會(huì)越來越多,而且,會(huì)有越多的內(nèi)容創(chuàng)作者和平臺(tái)認(rèn)識(shí)到數(shù)據(jù)的價(jià)值,開始對(duì)內(nèi)容進(jìn)行收費(fèi)。
這就意味著,以后訓(xùn)練AI時(shí),語料庫會(huì)不可避免來自于它們的前輩。
這個(gè)趨勢(shì)下,會(huì)發(fā)生啥呢?
世超在網(wǎng)上搜羅一圈,發(fā)現(xiàn)前段時(shí)間就有英國和加拿大學(xué)者研究了這個(gè)問題,并為此發(fā)布了一篇論文。
簡(jiǎn)單概括就是,這種情況會(huì)導(dǎo)致AI越學(xué)越退步,他們稱為Model Collapse「模型崩潰」,
一旦模型出現(xiàn)崩潰,它的瓦解速度會(huì)非???, AI 會(huì)迅速忘了他們最開始學(xué)的大部分內(nèi)容,錯(cuò)誤也會(huì)越來越多。
說簡(jiǎn)單點(diǎn), AI 會(huì)開始記不住東西,并且瞎 tm 回答。
這就意味著AI智商會(huì)迅速崩塌,一代更比一代蠢。好比一張圖片被人們轉(zhuǎn)來轉(zhuǎn)去,高清無碼總會(huì)成了爆漿表情包。
不過,比起AI和人類未來,我更擔(dān)心人類自己。
因?yàn)椤?AI 越練越蠢」說法建立在「大部分」訓(xùn)練數(shù)據(jù)來源于前輩的情況,且忽略 AI 未來可能會(huì)具備「識(shí)別 AI 文本」的能力。
而有個(gè)很殘酷的事實(shí)是,互聯(lián)網(wǎng)上 AI 生成的內(nèi)容會(huì)越來越多,人類寶庫會(huì)被逐漸污染。
那有沒有一種可能,就像那些網(wǎng)絡(luò)流行語一樣,AI 作品、文案、圖片也會(huì)逐漸融入我們?nèi)粘贤ǚ绞?,甚至讓我們無法離開。
長此以往,人類是否會(huì)被「馴化」。從說話習(xí)慣到思考方式,再到行為邏輯,會(huì)不會(huì)受到一定的影響。
我想,這可能要打一個(gè)問號(hào)了。
圖片、資料來源:
v2ex :在知乎抓到一個(gè) ai 瘋狂地污染中文互聯(lián)網(wǎng)
The AI feedback loop:Researchers warn of‘model collapse’as AI trains on AI-generated content
AI is going to eat itself:Experiment shows people training bots are using bots
THE CURSE OF RECURSION:TRAINING ON GENERATED DATA MAKES MODELS FORGET
作者:刺猬;編輯:莽山烙鐵頭
來源公眾號(hào):差評(píng)(ID:chaping321),Debug the World。
本文由人人都是產(chǎn)品經(jīng)理合作媒體 @差評(píng) 授權(quán)發(fā)布,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自 Unsplash,基于 CC0 協(xié)議。
該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)。
- 目前還沒評(píng)論,等你發(fā)揮!