必須了解的8大AI術(shù)語

0 評論 3339 瀏覽 11 收藏 18 分鐘

在人工智能迅速發(fā)展的今天,理解AI領(lǐng)域的基礎(chǔ)術(shù)語對于我們至關(guān)重要。本文精選了8大AI術(shù)語,從AI的起源到現(xiàn)代應(yīng)用,為您提供了全面的解讀。

一位朋友去B2B公司面試產(chǎn)品銷售,回來后有點迷茫。

他說:

HR聊到前幾段履歷情況,以及所做出的成果和離職原因后,就沒說其他的;但業(yè)務(wù)負(fù)責(zé)人面試完,我自信的狀態(tài)突然沒有了。

因為在雙方交流過程中發(fā)現(xiàn),他用到很多英文、專業(yè)術(shù)語,這些我都似懂非懂,盡管對方?jīng)]有具體做到問我某些什么意思,可我總認(rèn)為,自己在該方面還有很多課要補。

是的,新技術(shù)發(fā)展,必然會有大量術(shù)語、概念產(chǎn)生。

這些術(shù)語好處是,能將復(fù)雜、冗余的表述簡化為幾個詞,從而極高交流效率;然而,劣勢也同樣明顯,你對術(shù)語不熟,就沒辦法跟客戶把產(chǎn)品講明白,甚至導(dǎo)致溝通失效。

那么,面對此類情況,該怎么辦呢?有兩個方法,一,日常在工作中多積累;二,集中系統(tǒng)性學(xué)習(xí)。

第二種很難,畢竟人工智能廣泛還復(fù)雜,涵蓋細(xì)分場景也比較多;因此,我特意選取了一些容易混淆,提及比較多的通用詞匯。

01 第一個關(guān)于AI。你怎么一句話給人解釋它?

我會這么說:

AI,是人工+智能。一種讓機器能像人一樣思考、解決問題的技術(shù),它能用在多個領(lǐng)域和場景中,想象一下,智能手機,智能家居設(shè)備,這些都是AI技術(shù)的應(yīng)用。

這很簡單吧。

不過,要說起它的由來,就得提到一個專業(yè)詞匯:神經(jīng)元(Neuron)。在生物和神經(jīng)科學(xué)領(lǐng)域,它是神經(jīng)系統(tǒng)的基本單位,負(fù)責(zé)接受、處理和傳遞信息。

早在1943年,有兩位科學(xué)家,名叫McCullouch和Pitts,他們發(fā)表一篇非常重要的論文,名字叫做:

《A Logical Calculus of the Ideas Immanent in Nervous Activity》

論文中,提到了一個數(shù)學(xué)模型,叫做“McCulloch-Pitts神經(jīng)元”,也就是人工神經(jīng)元的早期形式。通過模型,我們可以模擬,并解釋生物大腦是如何傳遞信號的。

這不難理解吧?有了對神經(jīng)元的理解,科學(xué)家能更深入的知道如何模擬一個生物的大腦系統(tǒng)。

隨著不斷研究,7年后(1950年),一位英國學(xué)家艾倫·圖靈(Alan Turing)發(fā)表一篇論文,探討了“機器能思考嗎?”圖靈通過著名的「圖靈測試」,探索機器會不會更智能。

到了1956年,在一個叫達(dá)特茅斯學(xué)院(Dartmouth College)的地方,幾位研究計算機和自動化的科學(xué)家聚在一起,討論預(yù)測機器是否能模仿人類學(xué)習(xí)的行為;麥卡錫在會議中提出一個想法:

希望在夏天的1-2個月內(nèi),憑借10幾個人的努力,讓機器能夠使用語言、形成抽象概念和解決各種問題的方法,最終達(dá)到與人類相似的智能水平。

因此,這次會議上:AI才作為一個獨立學(xué)科被成立。一晃之間,又7年過去了,1960年左右,多名研究者對人工智能的發(fā)展做出了貢獻(xiàn)。

比如:

斯坦福大學(xué)研究者們,開發(fā)了珀西瓦爾(Perceptron),基于神經(jīng)元結(jié)構(gòu),展示機器如何學(xué)習(xí);著名的邏輯理論家赫伯特·西蒙(Herbert Simon)和他的團隊,基于數(shù)學(xué)定理,開發(fā)出一套自動推理的程序。

還有很多……

但是,到了70年代中期(1974年),因為技術(shù)發(fā)展沒有達(dá)到大家希望的水平,加上經(jīng)濟壓力,美國政府才開始削減對AI領(lǐng)域的資助,這導(dǎo)致了所謂的歷史上第一個:AI寒冬的出現(xiàn)。

直到又過了7年后,專家系統(tǒng)的商業(yè)成功讓AI研究有了復(fù)蘇的標(biāo)志,市場才對AI領(lǐng)域有了新關(guān)注和投資機會??吹竭@里,你可能會問:什么是專家系統(tǒng)呢?

千萬不要誤解,專家系統(tǒng)不是管理專家的。

它是一套特別的計算機系統(tǒng)程序,它能學(xué)習(xí)各種規(guī)則、知識、模仿人類專家做決定;可以把人類專家的知識,轉(zhuǎn)變成計算機能理解和使用的形式,讓它在市場上真正派上用場。

可是,好景不長,7年后(1987年),AI又引發(fā)了第二個更長的寒冬。

失敗的結(jié)論無法用一句言語來表達(dá),不過,有幾個關(guān)鍵節(jié)點,一,專家系統(tǒng)看起來有前景,但不賺錢,不能廣泛使用;二,技術(shù)所依賴的Lisp編程語言,有性能瓶頸,要消耗大量硬件成本;三,Lisp編程所用的計算機系統(tǒng)過時了,導(dǎo)致市場潰敗。

這不僅影響到上游制造商,還涉及到人工智能的研究。

所以,許多研究項目停滯不前,導(dǎo)致市場對人工智能大幅度降溫,這一寒冬,持續(xù)小10年。

直到1990年,互聯(lián)網(wǎng)算法興起,人工智能才算恢復(fù)活力,同年,一位非常有影響力的計算機教授Yann LeCun,貢獻(xiàn)了卷軸神經(jīng)網(wǎng)絡(luò)(CNN)的發(fā)展,才推動了神經(jīng)網(wǎng)絡(luò)的實際運用。

到了2000年,AI背后所承載的技術(shù)才被運用到各領(lǐng)域。

這一段60年的脈絡(luò),只為讓你清晰展示AI的發(fā)展,它從一條神經(jīng)元,到成為系統(tǒng),經(jīng)歷了什么。

02 第二個,關(guān)于AI怎么更像人

想象一下:

如果我們想讓人工智能更像人類,是不是要先給它構(gòu)建一個類似于人類大腦的模型,讓它擁有一個「操作系統(tǒng)」,能夠模擬人腦的工作方式。

這意味著,我們得不斷挖掘它,讓它有注意力機制,讓它會能夠?qū)W習(xí),還能看得見周圍的一切,甚至說,還得自我優(yōu)化。沒錯,這正是人工智能專家們正在做的事情。

你知道嗎?

2000年以后,AI技術(shù)越來越廣泛,不管做什么,只要和智能相關(guān),都會給它貼上人工智能標(biāo)簽,不同技術(shù)之間的差異,到底該如何有效區(qū)分就成了一個問題。

2002年,人工智能領(lǐng)域有兩位科學(xué)家,Ben Goertzel和Cassio Pennachin合著一本書《Artificial General Intelligence》,翻譯成中文是《人工通用智能》。

它提到了AI的子領(lǐng)域,也就是AGI。

G是 General的縮寫。意思是通用的、全能的。這意味著,它的通用智能水平能和人類相媲美,不僅能執(zhí)行特定任務(wù),還能在多種環(huán)境、情境下學(xué)習(xí)知識,進(jìn)行自我改善。

看到這,你興許更困惑。

我們一般覺得,既然叫做人工智能,AI能力應(yīng)該比AGI廣泛,實際上情況并非如此。它倆區(qū)別在于,AI被特別訓(xùn)練來完成某個具體任務(wù),學(xué)習(xí)能力和適應(yīng)性都有明確的限制。

而AGI,具備自主智能,可以理解和解決之前未遇到的問題,不僅限于單一任務(wù)。簡單來說,AGI像可以在任何情況下都能夠應(yīng)對的智能,而AI則更像只擅長特定領(lǐng)域的專家。

圖片

圖譯:便于理解,畫了一張示意圖,供你參考,未來AI的終極目標(biāo),讓它像人一樣

因此,該怎么給別人一句話介紹AGI?

我會說:AGI是通用人工智能,讓機器能像人一樣,在很多不同事情上能自己想辦法解決;它跟AI區(qū)別在于,AI專門為某個任務(wù)設(shè)計,而AGI則可以處理任何問題,像人一樣,更強大。

有一個與AGI相似的詞,叫Gen AI了。

Gen背后英文是General,AGI中的G也是General,不要驚訝,它倆意思相同。那么,市面為什么有人喜歡叫GenAI,有人叫AGI?

有兩點:

一,源于發(fā)展。不同地域差異,大家叫法不同;二,和產(chǎn)品有關(guān)。商業(yè)環(huán)境中,大家喜歡用一些不同的叫法來突出自己的產(chǎn)品特色;不過,在全球范圍和學(xué)術(shù)文獻(xiàn)場景下,目前AGI稱呼更為普遍。

所以,這10年的故事中,AGI發(fā)展不僅讓機器在復(fù)雜環(huán)境中,有了更深層次的學(xué)習(xí)能力,還讓特定任務(wù)的窄AI(也稱為弱AI(Weak AI),也變得更智能了。

03 第三個,關(guān)于大模型(Large Model)

討論不同模型,了解2010年到2017年的AI發(fā)展至關(guān)重要。從2010年開始,AGI領(lǐng)域越來越多投資者進(jìn)入,深度學(xué)習(xí)也就成了研究和應(yīng)用的焦點。

2015是注意力轉(zhuǎn)折點,得益于硬件進(jìn)步和大數(shù)據(jù)的支持,DeepMind開發(fā)的AlphaGo擊敗了世界圍棋高手李世石。這一事件后,讓大家更相信AGI會變得更強、更像人類。

同年,OpenAI在美國成立,為后來大模型發(fā)展奠定了基礎(chǔ)。那么,什么是大模型呢?

“大”,指,模型處理信息量很大,在人工智能中,我們稱信息為“參數(shù)”(Parameters),模型,像小時候玩的玩具,雖然是虛擬的,卻能執(zhí)行真實的任務(wù),當(dāng)你問它一個問題時,它能迅速給出答案。

我通常這樣解釋:大模型是,能夠處理大量復(fù)雜數(shù)據(jù)的高級程序,像一個超級聰明的大腦,可以學(xué)習(xí)和處理許多不同的事情。

那么,小模型(Small Model)是什么呢?

與大模型相對,小模型參數(shù)數(shù)量少,結(jié)構(gòu)簡單,計算資源需求也不高。這些模型專為特定領(lǐng)域設(shè)計,比如營銷自動化、兒童早教、或幫助孩子學(xué)習(xí)古文等,更專注于解決特定類型的問題。

雖然在2015年左右,大模型還不為大眾知曉,但到了2017年,谷歌發(fā)表了《Attention Is All You Need》這篇論文后,徹底改變了大語言模型(Large Language Model, LLM)領(lǐng)域的面貌。

因為,這篇論文介紹一種基于multi-head自注意力機制的深度學(xué)習(xí)Transformer架構(gòu)。這種架構(gòu),推動了處理語言的模型的發(fā)展,它能更加靈活的能模仿人類的情感和語言風(fēng)格。

大語言模型和大模型,最主要的區(qū)別是:大模型能處理很多不同類型的任務(wù),比如圖像識別、數(shù)據(jù)分析等;而大語言模型,主要是用來處理文字,比如,幫我們寫文章或翻譯語言。

另外,值得一提的是:

自然語言處理(NLP)技術(shù)是AI領(lǐng)域中的一個核心分支,它包括自然語言理解(NLU)和自然語言生成(NLG)。

當(dāng)我們在和AI對話時,輸入的每一個字或詞叫做token。AI會把文本分割成最小的單位來學(xué)習(xí),這個過程稱為tokenization(分詞);例如:句子,”你吃了嗎“,一個常見的分詞方法將其分為三個tokens,“你 / 吃了 / 嗎”。

還有一個與大語言模型經(jīng)?;煜脑~:GPT。

GPT是Generative(生成式)、Pre-trained(預(yù)訓(xùn)練)Transformer(一種模型架構(gòu))三者的縮寫,ChatGPT和GPT不是同一回事,不要混淆。

ChatGPT是OpenAI公司基于GPT模型,開發(fā)的特定產(chǎn)品,主要用于生成文本,而GPT本身代表一種廣泛的模型系列,像sora也是GPT模型的產(chǎn)品之一。

所以,當(dāng)別人問起時,我會說:

大語言模型像一個操作系統(tǒng),它為處理、理解語言提供了基礎(chǔ)框架;GPT更像系統(tǒng)上的一個應(yīng)用程序,它利用框架來執(zhí)行任務(wù);至于ChatGPT,是基于GPT模型開發(fā)的一款具體產(chǎn)品,就像電腦上的聊天工具。

明白它非常重要,國內(nèi)一些產(chǎn)品,某種程度上,也可以稱它為類似GPT的模型。

畢竟,它們同樣基于自注意力架構(gòu)進(jìn)行預(yù)訓(xùn)練,也能生成文本;所以,雖然優(yōu)化方法不同,但技術(shù)核心上,基本一致。

這7年,讓大模型、大語言模型(LLM)發(fā)生了關(guān)鍵變化。通過時間脈絡(luò),你也能理解到幾者有何不同。

04 第四個,關(guān)于AIGC。什么是AIGC?

這里的”C”代表Content,中文意思是“內(nèi)容”。AIGC的全稱是“人工智能生成內(nèi)容”,涵蓋文本、圖像、視頻和音樂等多種形式。

因此,AIGC包括四個方面:文生文、文生圖、文生視頻、文生音樂。

說起來,你也許不信,歷史時間脈絡(luò)中,并沒有哪位科學(xué)家首次提出該術(shù)語,它是在人們不斷討論中,逐漸形成的一種通用描述。

想徹底了解AIGC,不妨再看7年。

從2018年到2020年的3年里,一項調(diào)查顯示,全球有72個活躍的AGI研發(fā)項目,分布在37個不同的國家;本質(zhì)上,是研究openAI、DeepMind、Anthropic等公司。

這些公司都在做什么?簡單說,DeepMind是專注創(chuàng)造AGI的公司,目標(biāo)讓機器的智能能夠和人類相媲美;而OpenAI,則因其開發(fā)的大型模型,引起廣泛關(guān)注。

再看最近4年,AIGC技術(shù)幾乎在各行業(yè)的涌現(xiàn)。現(xiàn)在,照片不僅能一鍵美顏,還能一鍵摳圖,并且處理的更精細(xì);做PPT,不僅能根據(jù)大綱生成內(nèi)容,還能直接匹配的配圖素材。這背后都得益于小模型,多模態(tài)發(fā)展。

多模態(tài)(Multimodal)技術(shù),即:一個AI模型能處理不同類型的數(shù)據(jù)(文本、圖像、音頻),還能將不同形式的信息,整合在一起,從而進(jìn)行更全面的分析和理解。

因此,一個最重要啟發(fā)在于:

未來更加垂直領(lǐng)域的信息,將會被開發(fā)出來,這些信息反哺給模型,模型經(jīng)過參數(shù)調(diào)整后重新學(xué)習(xí),將變得更加聰明,這種發(fā)展,越來越逼近AGI的目標(biāo)。

作為個人,理解整個AI發(fā)展,能有一個宏觀框架在心里,下次看到不同產(chǎn)品時能知道,公司處在哪個賽道中。

當(dāng)然,每個細(xì)分賽道里,還有更多更專業(yè)的術(shù)語,像AI+營銷領(lǐng)域還有很多小模型,如:動態(tài)定價模型、情感分析模型、用戶流失模型、ROI預(yù)測模型等等,這些像人的思維模型一樣,被格柵化在多模態(tài)里。

好了。

四個大概念講完了。關(guān)于AI、AGI、大模型、小模型、大語言模型(LLM)、GPT、AIGC、多模態(tài),按照時間軸加在一起,共計發(fā)展了81年。

這81年中,幾乎7年一個小變化,但也不是絕對,你有什么感受?

總結(jié)而言

有大視角,才不會被細(xì)節(jié)迷惑。

隨著AI發(fā)展,未來,舊工作會被加速迭代,新行業(yè)雖然沒起來,但必有新機會出現(xiàn),了解AI,才能迎接新的時代,更好的駕馭它。

本文由人人都是產(chǎn)品經(jīng)理作者【王智遠(yuǎn)】,微信公眾號:【王智遠(yuǎn)】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。

題圖來自Unsplash,基于 CC0 協(xié)議。

更多精彩內(nèi)容,請關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號或下載App
評論
評論請登錄
  1. 目前還沒評論,等你發(fā)揮!