我所理解的大模型:語言的幻術(shù)
大模型的本質(zhì)并非真正的理解,而是通過語言關(guān)聯(lián)復(fù)現(xiàn)表達(dá),形成“看起來像是懂了”的能力。Prompt的作用在于引導(dǎo)模型生成預(yù)期回應(yīng),而非提問。本文深入剖析大模型的運(yùn)作機(jī)制、能力邊界及對人類思維的潛在影響,揭示語言幻術(shù)背后的真相。
寫在前面在我看來,我們使用 AI,尤其通過 Prompt 來使用 AI,本質(zhì)是用自然語言來編排上下文,引導(dǎo)模型的注意力,以生成我們期待的回應(yīng)。于是,我們可以思考的更深一些。
一、大模型
常用的 AI,或者說大模型產(chǎn)品,無論是 ChatGPT、DeepSeek 還是其他,這些大模型都并不真正理解信息,只是在大量語言中學(xué)習(xí)到了如何復(fù)現(xiàn)特定的表達(dá)。
它處理的是形式,不是含義;擅長的是預(yù)測,而不是理解。大模型是通過無數(shù)次的語言關(guān)聯(lián),形成了一種“看起來像是懂了”的能力。
所謂“智能”,更多是語言表象的聰明,而非意識層面的思考。
二、Prompt
Prompt,并不是對 AI 提問,而是在設(shè)定它該如何回答。
人與 AI 的“交流”不是兩個意識體的互動,而是我們用自然語言來構(gòu)建上下文,引導(dǎo)它進(jìn)入特定的語境,讓它在我們設(shè)定的軌道中自動完成回應(yīng)。
一個有效的 Prompt,是把 AI 限定在一個可控的思維框架里。
三、大模型的能力
AI 給出的回答,是建立在它“見過足夠多”的基礎(chǔ)上,進(jìn)行“下意識二創(chuàng)”,讓人誤以為它“懂了”:
但它并不知道自己在說什么,只是在復(fù)現(xiàn)類似語境中人類可能說的話。
它輸出的不是“真理”,而是“最有可能被說出來的話”。
四、大模型的問題
連貫的語言容易贏得信任,但信任感并不等于可靠性。
AI 經(jīng)常會說錯,卻不會意識到自己錯了。畢竟對它來說,沒有“正確”或“錯誤”,只有“哪種說法在這個語境中最可能”。
它的邏輯聽起來像是真的,其實(shí)只是它在模仿你說話的方式。
你越肯定,它看起來就越有道理。
五、人機(jī)交互
AI 的表現(xiàn),很大程度上取決于提問。
你越擅長構(gòu)建 Prompt,它就越像專家:不是 AI 聰明了,而是你在代替它思考。
我們訓(xùn)練的不只是模型,更是在訓(xùn)練自己如何提問、如何引導(dǎo)、如何設(shè)定目標(biāo)。
六、技術(shù)的背后
AI 是工具,但它的“話語權(quán)”掌握在能操控輸入的人手里。
模型本身并不自帶偏見,但它學(xué)的是現(xiàn)實(shí),而現(xiàn)實(shí)本身就是偏的。
AI 的輸出看似中立,其實(shí)只是默認(rèn)。
而所謂“默認(rèn)”,往往就是主流、常規(guī)和權(quán)力所定義的樣子。
七、未來
AI 改變的不只是我們的工作方式,它正在重塑我們的表達(dá)、思考和判斷習(xí)慣。
我們以為是在向它獲取答案,其實(shí)也在接受它劃定的問題邊界。
它不僅在幫我們回應(yīng)世界,也在悄悄改變我們理解世界的方式。
本文由人人都是產(chǎn)品經(jīng)理作者【賽博禪心】,微信公眾號:【賽博禪心】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于 CC0 協(xié)議。
- 目前還沒評論,等你發(fā)揮!