AI 時(shí)代最重要的能力——判斷能力

YTY
0 評(píng)論 1211 瀏覽 5 收藏 10 分鐘

隨著 AI 技術(shù)的飛速發(fā)展,尤其是推理模型如 DeepSeek-R1 的出現(xiàn),AI 在日常生活和工作中的應(yīng)用越來(lái)越廣泛。然而,AI 輸出內(nèi)容的準(zhǔn)確性和質(zhì)量卻引發(fā)了新的思考。本文將探討在 AI 時(shí)代,普通人如何通過(guò)提升判斷能力來(lái)有效評(píng)估 AI 輸出內(nèi)容的正確性和價(jià)值。

在 deepseek-R1 發(fā)布前,主流大模型是語(yǔ)言模型,大家使用的重點(diǎn)是如何調(diào)試 prompt 讓大模型輸出質(zhì)量更高的結(jié)果;deepseek-R1發(fā)布后,主流大模型變成了推理模型,AI 能夠做到根據(jù)你提問(wèn)的內(nèi)容,先推理思考你的深層需求是什么,再根據(jù)推理的結(jié)果進(jìn)行輸出,使得輸出的結(jié)果質(zhì)量大大提高。

這降低了普通人在日常工作生活中使用大模型的門檻,所以,現(xiàn)在提問(wèn)方式已經(jīng)不再是限制普通人使用的瓶頸,你只要能詳細(xì)描述清楚自己想要什么,大概率可以得到看起來(lái)還不錯(cuò)的答案。那么,現(xiàn)在的關(guān)鍵點(diǎn)是什么呢?

在提問(wèn)門檻降低后,普通人現(xiàn)在需要重點(diǎn)關(guān)注的,其實(shí)是一個(gè)更難的能力——判斷能力。

一、判斷能力

大家經(jīng)常能聽到 AI 幻覺這個(gè)詞,就是大模型有時(shí)會(huì)編造它認(rèn)為真實(shí)存在的信息,雖然粗看起來(lái)合理可信,但其實(shí)并不是真實(shí)的。因?yàn)榇竽P偷牡讓舆壿嬍穷A(yù)測(cè)下一個(gè)詞出現(xiàn)的概率,既然是預(yù)測(cè),就不會(huì)有100%的準(zhǔn)確性。

另一方面,在得出一個(gè)結(jié)論的過(guò)程中,往往需要推理能力,高質(zhì)量的推理 = 明確的前提 + 嚴(yán)密的邏輯 + 可解釋的過(guò)程 + 對(duì)反例的考慮 + 有意義的結(jié)論。但 AI 在推理的每一個(gè)方面都容易出現(xiàn)「裂痕」,盡管 AI 可能說(shuō)得頭頭是道,但它在邏輯連貫性、內(nèi)容真實(shí)性和推理可靠性等方面都存在明顯不足,也很難對(duì)其結(jié)論的來(lái)源進(jìn)行有效追溯。

雖然目前大部分 AI 工具有「聯(lián)網(wǎng)搜索」功能,可以在輸出的內(nèi)容中標(biāo)注參考的信息來(lái)源,但 AI 在對(duì)參考信息總結(jié)時(shí)也可能出錯(cuò),甚至標(biāo)注的信息來(lái)源中根本沒(méi)有提到 AI 輸出的內(nèi)容。

因此,如何判斷 AI 輸出內(nèi)容的正確性以及質(zhì)量好壞就變成了現(xiàn)在普通人用好大模型的關(guān)鍵。

二、怎么判斷

判斷 AI 結(jié)果的正確性和質(zhì)量是稀缺性能力,只有知識(shí)儲(chǔ)備豐富,才能快速分辨。判斷力的本質(zhì)是「用系統(tǒng)對(duì)抗混沌」,通過(guò)知識(shí)體系搭建、思維工具武裝、持續(xù)實(shí)踐反饋,才能顯著提升這項(xiàng)能力。

但這個(gè)方式其實(shí)是一個(gè)漫長(zhǎng)的提升過(guò)程,在沒(méi)有那么大量的知識(shí)儲(chǔ)備的情況下,比如面對(duì)不太熟悉的領(lǐng)域,短期內(nèi)我們應(yīng)該怎么做呢?有下面幾種方法。

1、分步拆解法

在我們提問(wèn)后,AI 的回答角度一般會(huì)比較全面,但深度往往不夠,我們需要先根據(jù) AI 的回答將復(fù)雜問(wèn)題拆解成多個(gè)子任務(wù),然后重新提問(wèn),再逐個(gè)判斷每個(gè)子任務(wù)的回答質(zhì)量。

比如讓 AI 撰寫一個(gè)行業(yè)的市場(chǎng)分析報(bào)告時(shí),它一般會(huì)從行業(yè)概況、行業(yè)發(fā)展現(xiàn)狀、驅(qū)動(dòng)因素分析、競(jìng)爭(zhēng)格局分析、用戶畫像分析等方面去闡述,但每個(gè)方面提供的內(nèi)容都較少。信息量少的時(shí)候不僅難以判斷信息是否正確,而且使用價(jià)值很低。

因此,我們可以基于這份回答,把大問(wèn)題進(jìn)一步細(xì)化,比如分別讓 AI 針對(duì)行業(yè)發(fā)展歷程、競(jìng)爭(zhēng)格局現(xiàn)狀等單獨(dú)分析,從而縮小問(wèn)題和回答的范圍。

2、交叉驗(yàn)證法

將問(wèn)題分步拆解后,我們可以通過(guò)橫向和縱向的對(duì)比,來(lái)進(jìn)一步驗(yàn)證 AI 輸出的內(nèi)容的正確性。

一方面,我們可以使用多個(gè) AI 工具來(lái)回答同一個(gè)問(wèn)題,對(duì)比它們輸出的結(jié)果;另一方面,在一個(gè) AI 工具中,把同一個(gè)問(wèn)題用不同的方式再問(wèn)一遍,看輸出的結(jié)果是否一致。

通過(guò)這種方式,找出這些回答中的共性和差異。共性的部分置信度較高,有差異的部分再去詳細(xì)了解原因是什么。

3、逆向提問(wèn)法

在 AI 的內(nèi)容看上去有道理時(shí),不妨試著問(wèn)一句“反過(guò)來(lái)想,如果結(jié)論不成立,會(huì)發(fā)生什么?”或者“有沒(méi)有可能出現(xiàn)與這個(gè)觀點(diǎn)相反的情況?”,這個(gè)方法非常實(shí)用。這類逆向問(wèn)題可以幫助我們測(cè)試 AI 推理是否穩(wěn)固,也有助于我們構(gòu)建對(duì)問(wèn)題更全面的理解。

比如你讓 AI 給出一個(gè)行業(yè)下滑的原因,它列出幾點(diǎn)你覺得都挺合理。那你可以反問(wèn)一句“如果這個(gè)行業(yè)還在增長(zhǎng),那可能說(shuō)明了什么?”這能暴露 AI 是否只是表面羅列,而沒(méi)有真正理解因果關(guān)系。

4、追蹤異常點(diǎn)

在看 AI 輸出的內(nèi)容時(shí),需要重點(diǎn)關(guān)注其中的非常規(guī)表述和模糊的部分,尤其涉及數(shù)據(jù)、事實(shí)、專業(yè)術(shù)語(yǔ)、引用相關(guān)的部分,要重點(diǎn)核查來(lái)源和推理過(guò)程,這是 AI 最容易出錯(cuò)的部分。

追蹤異常點(diǎn)其實(shí)就是在練習(xí)“質(zhì)疑意識(shí)”,當(dāng)你覺得某個(gè)點(diǎn)“怪怪的”,不要放過(guò)它,而是去把它變成新的問(wèn)題繼續(xù)追問(wèn)。這種方式有兩個(gè)好處:一是可以幫助你識(shí)別 AI 在推理過(guò)程中的邏輯斷裂或偽裝出的“貌似合理”;二是可以逼迫 AI 補(bǔ)全它本來(lái)跳過(guò)或模糊帶過(guò)的內(nèi)容,輸出的質(zhì)量也會(huì)隨之提高。

久而久之,你會(huì)形成一種“異常點(diǎn)雷達(dá)”,自動(dòng)對(duì)看似正常但實(shí)則不可靠的段落起疑。這在使用 AI 做研究、寫方案、甚至做決策輔助時(shí),都是非常核心的能力。

總之,使用 AI 與讀書時(shí)的注意事項(xiàng)其實(shí)有異曲同工之處,盡信書,則不如無(wú)書。掌握了這些基本的方法,在不同領(lǐng)域你都可以快速拆解和評(píng)估 AI 的內(nèi)容質(zhì)量。

三、AI 的價(jià)值

從上文的描述中可以看出,我們要對(duì) AI 推理的質(zhì)量好壞打一個(gè)問(wèn)號(hào),需要花精力去判斷。你對(duì)某個(gè)領(lǐng)域了解越深,就越能快速判斷 AI 輸出的內(nèi)容質(zhì)量。但反過(guò)來(lái)說(shuō),知識(shí)儲(chǔ)備越多,你可能也越不需要 AI 來(lái)幫你生成內(nèi)容。

所以可能存在這樣一個(gè)悖論,我們需要用 AI 的部分,判斷輸出內(nèi)容質(zhì)量很困難,而判斷起來(lái)容易的部分,可能根本不需要使用 AI。那么 AI 的價(jià)值在哪里呢?

盡管 AI 存在著這樣或那樣的問(wèn)題,但你只要會(huì)提問(wèn),它就可以根據(jù)你的想法快速生成很多內(nèi)容,你可以低成本的獲得大量信息,這可以產(chǎn)生大量的可能性。

因此,AI 的最大價(jià)值就在于,它讓試錯(cuò)的成本變得極低,從一個(gè)點(diǎn)子直通實(shí)踐,我們可以快速產(chǎn)生各種假設(shè),然后通過(guò)實(shí)踐來(lái)驗(yàn)證、迭代,找到其中的最優(yōu)解。這種快速的實(shí)踐和迭代,才是我們使用 AI 的正確方式。

盡管 AI 的能力確實(shí)越來(lái)越強(qiáng),但未來(lái),不是 AI 替我們工作,而是我們學(xué)會(huì)更好地和 AI 合作。未來(lái)的人機(jī)協(xié)作模式很可能會(huì)變成——人類負(fù)責(zé)方向把控和價(jià)值判斷,AI 來(lái)承擔(dān)信息整合與模式挖掘的部分,最終實(shí)現(xiàn) 1+1>2 的效果。

我們需要記住的是,可以讓 AI 作為一個(gè)助手,一定不要讓 AI 替你決策,決策權(quán)還是在你自己這里。

本文由人人都是產(chǎn)品經(jīng)理作者【YTY】,微信公眾號(hào):【產(chǎn)品二三】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來(lái)自Unsplash,基于 CC0 協(xié)議。

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評(píng)論
評(píng)論請(qǐng)登錄
  1. 目前還沒(méi)評(píng)論,等你發(fā)揮!