當(dāng)搜索框用上 ChatGPT

1 評論 5438 瀏覽 35 收藏 22 分鐘

ChatGPT被認(rèn)為是人工智能以及搜索引擎方面里程碑式的進(jìn)步,當(dāng)它應(yīng)用到谷歌搜索框,會產(chǎn)生怎樣的效果?谷歌將在搜索頁面引入類似ChatGPT的引擎,這個AI將幫助你整理它找到的搜索結(jié)果,這會使搜索引擎的能力大幅上升嗎?這個AI的加入有何利弊?看完這篇文章,或許會給你帶來啟發(fā)。

谷歌電腦版首頁的格局,是和別處不同的:

在搜索框旁邊有兩個按鈕,而不是一個。在常規(guī)搜索按鈕的右邊還有一個「手氣不錯」(I’m Feeling Lucky)按鈕。

在講到 ChatGPT 以及同類生成式 AI 和搜索引擎的關(guān)系之前,讓我們先來看看這個按鈕。

一、「手氣不錯」,但點(diǎn)開搜索結(jié)果頁更棒

在搜索框內(nèi)鍵入關(guān)鍵字后,如點(diǎn)擊「手氣不錯」,將會跳轉(zhuǎn)到搜索結(jié)果的第一條。如果什么都不輸入,點(diǎn)擊「手氣不錯」則會進(jìn)入谷歌的節(jié)日 Logo(Doodles)頁面。

「手氣不錯」自谷歌 1998 年成立時就已經(jīng)存在。在早期,它的正確用法是輸入網(wǎng)站名字直達(dá)該網(wǎng)站,而不需要再多點(diǎn)一次。

該按鈕也被用作「搜索炸彈」攻擊,即使用搜索引擎優(yōu)化(SEO)手段,讓不正確或惡意的結(jié)果排到最前面。2006 年 9 月,在搜索框輸入「failure(失?。埂竚iserable failure(慘?。乖冱c(diǎn)擊「手氣不錯」都會跳轉(zhuǎn)到時任美國總統(tǒng)小布什的官方簡歷頁面,因為它被刷到了搜索結(jié)果的第一條。

「手氣不錯」按鈕并沒有進(jìn)入谷歌搜索的手機(jī)版,或其它有搜索框的地方。在 PC 端它也被弱化,因為輸入關(guān)鍵字時,搜索框自動向下展開聯(lián)想詞,遮住了該按鈕。在 PC 搜索結(jié)果頁也沒有這個按鈕。

不過,谷歌的語音助手 Google Assistant 如果接到一些類似「什么是……」的提問,如果沒有預(yù)設(shè)答案,也會念出搜索結(jié)果的第一項,或者百科條目。這可以被看作是變相的「手氣不錯」,因為最終也是只呈現(xiàn)一條結(jié)果。

「手氣不錯」保留至今僅僅是一個情懷的體現(xiàn)。相比以前,谷歌首頁也已經(jīng)很少有人訪問了。人們越來越多通過瀏覽器界面上的搜索框或地址欄進(jìn)入谷歌搜索,他們看到的第一個頁面就是搜索結(jié)果頁,而不是谷歌首頁。

因此,過去數(shù)年谷歌對搜索結(jié)果頁做了重大改進(jìn)?,F(xiàn)在結(jié)果頁的信息量更豐富,包括從目標(biāo)頁面文字中提取出的那一段有意義的文本。而「手氣不錯」并沒有做任何調(diào)整。比如,現(xiàn)在用搜索框輸入數(shù)學(xué)公式,搜索結(jié)果頁會顯示一個計算器,但「手氣不錯」會引導(dǎo)到一個谷歌外部的網(wǎng)頁,而不是直接展示運(yùn)算結(jié)果。

搜索結(jié)果頁也包含百科、新聞、圖片等大量有價值的信息。如果搜索的是一個門戶網(wǎng)站或論壇,那么結(jié)果頁還附帶該站的一個站內(nèi)搜索框,不點(diǎn)開就可以搜索該站內(nèi)容;如果搜索的是某款軟件,官網(wǎng)的下載鏈接都會被提取出來。

當(dāng)搜索框用上 ChatGPT

同時,越來越多的搜索結(jié)果頁加入了「人們還在問」(People also ask)板塊;每個搜索結(jié)果及板塊旁邊都提供「關(guān)于此結(jié)果」(About this result)功能,介紹該搜索結(jié)果的來源,以及為什么呈現(xiàn)在這個位置上。

因此,搜索結(jié)果頁現(xiàn)在已經(jīng)比提供一個「直達(dá)」鏈接的「手氣不錯」更能滿足用戶的需要了。谷歌這一點(diǎn)和百度等競品都一樣,搜索引擎?zhèn)冇媒Y(jié)構(gòu)化的信息呈現(xiàn),盡量把人們留在自己站內(nèi)而不跳轉(zhuǎn)出去。

二、然后,我們把搜到的東西講給別人聽

現(xiàn)在,不論用谷歌還是百度,搜索更像是打開一個與關(guān)鍵字有關(guān)的「面板」——對,就像蘋果發(fā)布會總結(jié)某款新手機(jī)時候的那種拼圖版面,試圖在你的屏幕上顯示所有可能的信息,并把它們鋪滿。那種常見的一頁頁的搜索結(jié)果,要繼續(xù)滾動下去才有。

當(dāng)搜索框用上 ChatGPT

而作為搜索引擎的使用者,一個人類,你看到這些東西的時候要做的事情,其實是在自己的大腦里總結(jié)它們,并將它們轉(zhuǎn)換為一段話。比如說,如果要搜索的這個問題是你老婆問你的,她讓你幫她搜一下。那么你回答她的方式并不是給她看你的屏幕,而是自己總結(jié)一下再講給她。而且你最好不要試圖逐字念百科的結(jié)果,她希望聽到的或許只有一兩個字。

這時候你是什么?

你就是一個 ChatGPT 啊。

好的,我們終于要進(jìn)入正題了。

根據(jù) CNBC 報道,谷歌將更快引入類似 ChatGPT 的自家產(chǎn)品 LaMDA 到搜索引擎中。谷歌的某款設(shè)計中的新版首頁,就是替換掉「手氣不錯」按鈕,取而代之的是隨著關(guān)鍵字輸入,展示 AI 選出的 5 個你最有可能提的問題。而當(dāng)你打出一句自然語言后,可以點(diǎn)擊搜索框最右邊的聊天按鈕,將頁面切換為類似 ChatGPT 的對話模式。

在這方面,LaMDA 可以幫助我們做的工作,其實就是總結(jié)「搜索結(jié)果頁首屏」可能呈現(xiàn)出來的關(guān)鍵信息,并將其轉(zhuǎn)換為自然語言。這次,你就可以直接念屏幕上的內(nèi)容給老婆聽了。

這些內(nèi)容現(xiàn)在仍然沒有實際可用的產(chǎn)品原型曝光。另外一邊,微軟已經(jīng)宣告將在必應(yīng)搜索整合 ChatGPT 本尊,甚至功能都已經(jīng)做好了,甚至都對外放出來了——雖然只有短短的 5 分鐘,但已經(jīng)足夠至少 3 個人在 Twitter 上放出截圖。

當(dāng)搜索框用上 ChatGPT

當(dāng)搜索框用上 ChatGPT

根據(jù)截圖,必應(yīng)的 ChatGPT 整合使用了這樣一個流程:

  1. 首先拆開自然語言提問,將它們轉(zhuǎn)換為普通的搜索關(guān)鍵字。
  2. 精選出上述關(guān)鍵字的 5 條最相關(guān)的結(jié)果。
  3. 提取結(jié)果中與問題直接相關(guān)的段落,并合并同類項。
  4. 以這些語料喂入 ChatGPT,生成一段連貫的段落。段落中來自某個來源的一段話或幾個詞,會用角標(biāo)形式給出資料來源。

這樣做的好處顯而易見,可以減少對算法的干擾,避免它分心處理困難的語義分歧;可以事先過濾關(guān)鍵字,以免惹出麻煩;可以解決未聯(lián)網(wǎng)的 ChatGPT 「瞎編」的困境。

當(dāng)然,我之前也說過,將材料限定在 Prompt 給出的有限文本中,也意味著要放棄它早前從那鍋大雜燴里面學(xué)到的不知哪兒來的「知識」,成品可能變得干巴巴的,沒有使出十成功力。而這也可能意味著每一次請求結(jié)果的運(yùn)算都更節(jié)能,成本更低,甚至如果轉(zhuǎn)化后的關(guān)鍵字別人搜過,還可以直接調(diào)用此前生成好的內(nèi)容呢。真是一舉多得。

三、這話是你說的,你可要負(fù)責(zé)啊

當(dāng)人們望著攤開的搜索結(jié)果「面板」自己歸納總結(jié)的時候,是人們自己對具體采信哪條信息,放棄另一些信息來負(fù)責(zé)。比如去搜索一些疾病,搜完往往感覺都是「絕癥」。但造成這種誤解的責(zé)任只能歸結(jié)于用戶本人。

然而,如果是 AI 幫你總結(jié)這一頁到底說了什么,而你看到的只是它嚼過的成品,那就變成搜索引擎要對這段話負(fù)責(zé)了?!m然站在搜索引擎的角度看,它也很無辜,它也避免不了,但我們不用等實際產(chǎn)品上線就會推斷出,結(jié)局一定會是這樣。

因此,谷歌們一定要注意不讓這些 AI 對搜索結(jié)果的演繹演變?yōu)樾碌摹杆阉髡◤棥?。?dāng)然,也不是完全束手無策:它們都做了很長時間的語音助手,在如何規(guī)避違規(guī)或政治不正確的結(jié)果時,積累了一些經(jīng)驗。比如在必應(yīng)那種模式下,在拆分搜索關(guān)鍵字階段即可開始干預(yù)。

不同的是,因為語音助手的技術(shù)相對比較落后,它們更缺乏「自信」,也更多用車轱轆話搪塞過去,以至于人們有一個它們就玩玩就好的心理預(yù)期。ChatGPT 讓人感到「革命性」的重要原因,恰恰是它對自己說的東西充滿自信,即使那只是一本正經(jīng)的胡說八道。這使得它的危險性也直線上升。

即使通過腳注方式讓每一句話都可以溯源,這種 AI 輔助的搜索依然沒解決下一個問題,就是 FT 專欄作者描述的「劣幣驅(qū)逐良幣」:「如果不可靠的文字可以免費(fèi)獲得,而原創(chuàng)研究既昂貴又費(fèi)力,那么前者將會蓬勃發(fā)展?!?/p>

AIGC 的內(nèi)容對一般大眾已經(jīng)足夠可用,但對專業(yè)人士來說非常粗糙。同時他們對其中借鑒拼湊的痕跡也十分敏感。有些人類畫師咒罵說 Midjourney 或 NovelAI 這種 AI 生成的畫作,實際上是將人類作品「分尸」以后拼貼而成的「尸塊」。

但實際上,使用搜索引擎的人類做的就是拼貼,沒什么神秘的。以前我們說程序員「面向谷歌編程」,其實很多人是通往 StackOverflow,該站也是 ChatGPT 解答大量編程問題所使用的信息來源?,F(xiàn)在該站據(jù)報因為不少原本通過搜索找過來的訪問者轉(zhuǎn)而詢問 ChatGPT,而損失了一大部分流量。反過來,這又會導(dǎo)致站內(nèi)人類回答者受到的激勵變少,與讀者的交互也變少,長遠(yuǎn)來看不利于維持社區(qū)氛圍,生成更多的內(nèi)容。

人類對創(chuàng)作社區(qū)的貢獻(xiàn),固然有一些是源于金錢激勵,但也有不少是純粹的「我為人人,人人為我」,比如百科以及 StackOverflow。這些站點(diǎn)在幫助大量新生碼農(nóng)入門的同時,也鼓勵他們「班門弄斧」地分享,通過獲得良性反饋達(dá)到自己經(jīng)驗和技能上的進(jìn)步。

專家也是一步一個腳印踏上來的,沒有初學(xué)者,哪來的專家?但 AIGC 有可能通過掐掉初學(xué)者的幼苗,讓人類能做的貢獻(xiàn)僅限于那些已經(jīng)練成的專家,再過幾代人,那就沒什么知識傳承了。而現(xiàn)在的 AI 還完全不會憑空創(chuàng)造。它們只是總結(jié),而且經(jīng)常是瞎貓碰死耗子這樣的總結(jié)。

四、AI 犯的錯誤能改正嗎?

從原理上講,大模型有天生缺陷。更正一個錯誤對人類來說是非常容易的(當(dāng)然人類的自主意志或許不愿意認(rèn)錯),但對現(xiàn)在的生成式 AI 很困難。即使是開發(fā)者,也很難定位錯誤具體出現(xiàn)在哪里,只能通過喂養(yǎng)新的材料試圖快速更正。當(dāng)微軟曾經(jīng)研發(fā)的聊天機(jī)器人 Tay 難以抵擋大量惡意操作激發(fā)出的錯誤用例時,它只能選擇關(guān)停。

要想治本揪出病根,而不是看到危機(jī)了打個補(bǔ)丁這樣的方法,行得通嗎?

國內(nèi)的北京智源人工智能研究院就做了這樣的嘗試。在我之前對它們的采訪中,它們曾經(jīng)組織多條技術(shù)路線賽馬。有人做了類似 Wikidata 的中國版知識圖譜,希望教會 AI 認(rèn)知不同事物之間的邏輯關(guān)系,雄心勃勃。但最后,智源對外正式發(fā)布的第一個成果,是另一條路線的大模型「悟道」。這也是 ChatGPT 蹚過的同一條路線。

大模型源于大數(shù)據(jù),但大數(shù)據(jù)不必然產(chǎn)生(好的)大模型。同樣的數(shù)據(jù),從什么方向煉,或者拿來以后是否要再篩一下,都可能導(dǎo)致完全不同的結(jié)果,機(jī)器學(xué)習(xí)的黑箱也讓不同人的經(jīng)驗不能復(fù)用。

如果大模型就等于大數(shù)據(jù),那百度擁有的中文數(shù)據(jù)量當(dāng)然是國內(nèi)最大的。但我之前說過,就算是百度,他們煉丹的過程也極其艱難。因為上面所說的數(shù)據(jù)質(zhì)量和煉丹路徑問題,悟道目前還是中文大模型的獨(dú)苗。(雖然悟道有少數(shù)用例,但功能開放很有限,其實外界也很難感知它的成品和 ChatGPT 之間是否有可比性?,F(xiàn)在只能是說它們煉出了這么一個東西而已。)

智源驕傲地說,現(xiàn)在 AI 從「大煉模型」已經(jīng)改為「煉大模型」,從數(shù)據(jù)上云、算力上云,已經(jīng)進(jìn)化到了模型上云。還想重新造輪子的小散現(xiàn)在已經(jīng)追不上他們了。不過,這中間發(fā)生了一個插曲:智源宣布自己大模型階段性成果的那篇論文《A Roadmap for Big Model》,其中居然有大量段落是直接復(fù)制粘貼過來的,實在是觀感不佳。

當(dāng)然這確實只是一個插曲,因為這論文不是它們工作的核心內(nèi)容。煉丹肯定能煉出來東西,這玩意的成本就擺在那里,造假沒什么意義。同時它致敬的來源本身是谷歌的科學(xué)家 Nicholas Carlini,其實也說明了集中力量煉大模型已經(jīng)是跨越東西方的行業(yè)共識。

反過來說,這也宣告了 AI 也是朝著深度學(xué)習(xí)原理未知的「黑箱」方向一條道走到黑,專家系統(tǒng)以及知識圖譜路線再一次被打入冷宮。今后,即使大模型因為監(jiān)管原因,因為政治正確原因必須要有可解釋性,那也是用新的機(jī)器學(xué)習(xí)來解釋,用一個「黑箱」來解釋另一個「黑箱」,補(bǔ)丁永遠(yuǎn)打下去,類似人類的 Prompt 工程。真正「治本」是沒有指望了。

從這個角度來說,就像 Lecun 說過的,以及微軟的洪小文在 2019 年 6 月就說過的(我現(xiàn)場聽了他那場演講),當(dāng)今的 AIGC 相比早前的機(jī)器學(xué)習(xí)沒有質(zhì)的飛躍,只是模型終于大過了可以「騙過」普通人類的那個臨界點(diǎn)。在此之前,其實更多進(jìn)步主要是業(yè)內(nèi)自嗨,大家都是很會自我安慰的,比如谷歌那個神棍員工把一點(diǎn)蛛絲馬跡附會為 AI 有自我意識,創(chuàng)造了自己的語言什么的。這當(dāng)然是扯淡。

所以,ChatGPT 這種「信誓旦旦,虛心接受,堅決不改」的玩世不恭勁兒我們還得忍耐好一陣子。當(dāng)然,必應(yīng)方案中將來源鏈接與文本對應(yīng)的辦法更討巧,但以這個路線實現(xiàn)的 AIGC,依然不可能有從無到有的自我創(chuàng)造。

五、所以……?

當(dāng) ChatGPT 幫我們撰寫文書,做總結(jié)陳詞的時候——我不知道別人怎么想,但我多少有一種開車時,從手動擋變?yōu)樽詣訐?,再前進(jìn)到特斯拉「Autopilot」讓我偶爾能松開方向盤的那種感覺。(巧了,谷歌和百度也都在做自動駕駛。)

適當(dāng)?shù)母倪M(jìn)解放了我的雙手,讓我精力更充沛。但完全的接管,則還是因為安全原因,不能讓我放心。在車廂里,自動駕駛判斷錯誤,會付出生命的代價。在工作中,直接使用 ChatGPT 生成的結(jié)果而不潤色核查,就要讓我自己為這些結(jié)果發(fā)布后的后果負(fù)責(zé)。

其結(jié)果是,我不得不再自行,或者使用別人的人力,來做事實核查與潤色調(diào)整。就像我不得不仍然兩手放在方向盤上,時不時下意識地轉(zhuǎn)轉(zhuǎn)。

我并沒有什么內(nèi)幕信息,上文描述的情況全都來自公開資料,它們也只是 AI 搜索可能的其中一種實現(xiàn)形式。當(dāng)然,它的效果會好于目前智能音箱能做到的那種「手氣不錯」模式。

大多數(shù)人可能用到的會是類似自動擋這樣,相對全手動擋是「低收益低風(fēng)險」的改進(jìn)。少數(shù)人會越來越拔高其中 AIGC 所占比重,進(jìn)入「高收益高風(fēng)險」的領(lǐng)域。其中多條技術(shù)路線相互競爭,最后也許跑出一兩個成功的,并且可以被大規(guī)模復(fù)制的辦法(這一點(diǎn)非常重要),讓原本的高風(fēng)險也變成低風(fēng)險,于是所有人得到更大的收益。我能想到的 AIGC 進(jìn)化路線,也不外如此。

此時,當(dāng)前機(jī)器學(xué)習(xí)的黑箱模式,就變成了 AIGC 模式大規(guī)模復(fù)制的最大障礙。因為你甚至都可能不知道你自己是怎么成功的,你都不能再做第二個同類產(chǎn)品出來。從這個角度上講,中國廠家即使跟風(fēng)研究 ChatGPT 競品,也沒什么丟人的。不論用看上去不可能的「白箱」模式,還是用可信賴、高可靠性的黑箱解釋黑箱,只要攻克了可解釋性這個深度學(xué)習(xí)的大難關(guān),對全行業(yè)也有著重大意義。

最后,祝你每次用 AI 搜索的時候都「手氣不錯」,得到的結(jié)果不用人工修改,就可以直接用。

專欄作家

書航,微信公眾號:航通社 (ID:lifeissohappy),人人都是產(chǎn)品經(jīng)理專欄作家。提供全原創(chuàng)科技新聞和觀點(diǎn)。為您呈現(xiàn)文字有力、觀點(diǎn)鮮明、打動人心的文章。

本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)作者許可,禁止轉(zhuǎn)載

題圖來自Unsplash,基于CC0協(xié)議

該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 蠻有深度!

    來自浙江 回復(fù)