從AI小白到大神的7個(gè)細(xì)節(jié):讓你開(kāi)竅逆襲
在當(dāng)今科技界,人工智能無(wú)疑是最炙手可熱的話題。然而,這個(gè)領(lǐng)域充斥著專業(yè)術(shù)語(yǔ),使得理解每次技術(shù)革新的具體內(nèi)容變得頗具挑戰(zhàn)性。為了幫助讀者更好地把握時(shí)代脈搏,本文整理了一系列常見(jiàn)的人工智能(AI)術(shù)語(yǔ),并通過(guò)簡(jiǎn)單的例子和盡可能簡(jiǎn)明扼要地解釋,闡述它們的含義及其重要性。
一、人工智能的本質(zhì)
人工智能,簡(jiǎn)稱AI,是一門(mén)致力于創(chuàng)造能夠模擬人類思維過(guò)程的計(jì)算機(jī)系統(tǒng)的學(xué)科。目前,AI更多地被看作是技術(shù)甚至實(shí)體,其確切含義頗為模糊,有時(shí)也被當(dāng)作營(yíng)銷術(shù)語(yǔ)使用。
多年來(lái),谷歌一直積極宣傳其在人工智能領(lǐng)域的深入投資。這不僅體現(xiàn)在其眾多產(chǎn)品通過(guò)AI技術(shù)得到顯著提升,也體現(xiàn)在公司推出的諸如 Gemini 這樣的智能工具上。在這些智能工具背后,是一系列基礎(chǔ) AI 模型提供動(dòng)力,例如 OpenAI 開(kāi)發(fā)的 GPT 模型。同時(shí),Meta 的首席執(zhí)行官馬克·扎克伯格(Mark Zuckerberg)也常將人工智能作為個(gè)人聊天機(jī)器人的代名詞。
隨著越來(lái)越多的企業(yè)將人工智能作為其創(chuàng)新的前沿,他們對(duì)這一術(shù)語(yǔ)及其相關(guān)概念的使用可能會(huì)變得更加復(fù)雜和多樣化。在閱讀有關(guān)人工智能的文章或接觸市場(chǎng)營(yíng)銷材料時(shí),您可能會(huì)遇到許多專業(yè)術(shù)語(yǔ)。為了幫助您更清晰地理解這些術(shù)語(yǔ),本文概述了當(dāng)前人工智能討論中的一些關(guān)鍵詞匯,歸根結(jié)底,所有這些努力的核心目標(biāo)都是推動(dòng)計(jì)算機(jī)智能的進(jìn)一步發(fā)展。
請(qǐng)注意,本文僅對(duì)人工智能(AI)的術(shù)語(yǔ)提供了一個(gè)入門(mén)級(jí)別的概覽。雖然這些術(shù)語(yǔ)本身可能涉及復(fù)雜的科學(xué)原理,但本文的目的是簡(jiǎn)化這些概念,使您能夠掌握其核心要點(diǎn)。即使在面對(duì)高度技術(shù)性的內(nèi)容時(shí),您也能夠輕松地理解并應(yīng)用這些基礎(chǔ)術(shù)語(yǔ)。
二、AI的關(guān)鍵術(shù)語(yǔ)
1. 機(jī)器學(xué)習(xí)(Machinelearning)
這是一種讓系統(tǒng)在數(shù)據(jù)上進(jìn)行訓(xùn)練,從而對(duì)新信息做出預(yù)測(cè)的技術(shù)。機(jī)器學(xué)習(xí)是支撐眾多AI技術(shù)的基石。通用人工智能(AGI):與人類智能相當(dāng)或超越人類的 AI。OpenAI 等公司正在大力投資 AGI,但許多人對(duì)其潛在風(fēng)險(xiǎn)表示擔(dān)憂——想想我們看過(guò)的所有關(guān)于超級(jí)智能機(jī)器接管世界的電影!
2. 生成式AI(GenAI)
一種能夠生成新文本、圖像、代碼等的 AI 技術(shù)。這類工具通常在大量數(shù)據(jù)上訓(xùn)練,有時(shí)會(huì)產(chǎn)生幻覺(jué),即錯(cuò)誤地編造答案。
3. 幻覺(jué)(Hallucinations)
在某些情況下,AI 可能會(huì)產(chǎn)生“幻覺(jué)”,即它們會(huì)自信地構(gòu)造出看似合理的答案,而這些答案可能并非基于事實(shí)。換句話說(shuō),這些幻覺(jué)(如果我們用更直白的話說(shuō),就是無(wú)稽之談)可能導(dǎo)致系統(tǒng)犯下事實(shí)性錯(cuò)誤或提供不合邏輯的答復(fù)。
關(guān)于人工智能的這種幻覺(jué)現(xiàn)象是否可以被糾正,學(xué)術(shù)界和業(yè)界都存在一些爭(zhēng)議。一方面,有人認(rèn)為通過(guò)改進(jìn)算法和訓(xùn)練數(shù)據(jù)可以減少幻覺(jué)的發(fā)生;另一方面,也有觀點(diǎn)認(rèn)為,幻覺(jué)是AI在嘗試?yán)斫鈴?fù)雜問(wèn)題時(shí)不可避免的一部分,需要我們以更開(kāi)放的心態(tài)來(lái)接受和處理。
4. 偏見(jiàn)(Bias)
幻覺(jué)并非人工智能領(lǐng)域唯一需要關(guān)注的問(wèn)題。事實(shí)上,這一問(wèn)題的出現(xiàn)并不出人意料,畢竟人工智能系統(tǒng)是由人類設(shè)計(jì)和編程的。因此,它們可能會(huì)在處理數(shù)據(jù)時(shí)反映出訓(xùn)練數(shù)據(jù)中的偏見(jiàn)。例如,麻省理工學(xué)院媒體實(shí)驗(yàn)室的杰出計(jì)算機(jī)科學(xué)家喬伊·布蘭維尼(Joy Buolamwini)和分布式人工智能研究所(DAIR)的創(chuàng)始人兼執(zhí)行董事蒂姆尼特·格布魯(Timnit Gebru),在 2018 年共同發(fā)表了一篇具有里程碑意義的論文。這篇論文揭示了面部識(shí)別技術(shù)在識(shí)別深色皮膚女性時(shí),存在顯著的高錯(cuò)誤率問(wèn)題。
這一發(fā)現(xiàn)不僅凸顯了人工智能系統(tǒng)中潛在的偏見(jiàn)問(wèn)題,也引發(fā)了對(duì)技術(shù)公平性和包容性的重要討論。隨著人工智能技術(shù)的不斷發(fā)展和應(yīng)用,確保其算法的公正性和消除偏見(jiàn)成為了一個(gè)亟待解決的全球性挑戰(zhàn)。
三、AI模型的架構(gòu)
1. AI 模型(AI model)
在數(shù)據(jù)上訓(xùn)練以執(zhí)行任務(wù)或做出決策的系統(tǒng)。
2. 大型語(yǔ)言模型(Large language models, or LLMs)
一種能夠處理和生成自然語(yǔ)言文本的 AI 模型。例如 Anthropic 的 Claude。
3. 擴(kuò)散模型(Diffusion Models)
訓(xùn)練這些模型的過(guò)程非常獨(dú)特,首先向圖像中引入噪聲,例如添加靜態(tài)噪聲,然后通過(guò)逆向操作,教會(huì) AI 如何從噪聲中恢復(fù)出清晰的圖像。擴(kuò)散模型的創(chuàng)新之處在于它們能夠模擬從有序到無(wú)序再到有序的轉(zhuǎn)換過(guò)程,通過(guò)這種方式,AI不僅學(xué)會(huì)了識(shí)別和理解數(shù)據(jù)中的模式,還學(xué)會(huì)了如何創(chuàng)造新的、有意義的內(nèi)容。
4. 基礎(chǔ)模型(Foundation Models)
這類模型通過(guò)在海量數(shù)據(jù)集上進(jìn)行訓(xùn)練,從而具備了廣泛的通用性。它們的強(qiáng)大之處在于,無(wú)需針對(duì)特定任務(wù)進(jìn)行定制化訓(xùn)練,即可作為多種應(yīng)用程序的基礎(chǔ)。這一概念是由斯坦福大學(xué)的研究人員在 2021 年首次提出。OpenAI 的 GPT、Google 的 Gemini、Meta 的 Llama 以及 Anthropic 的 Claude 等,都是基礎(chǔ)模型的杰出代表。
此外,許多公司正在將他們的人工智能模型作為多模態(tài)模型進(jìn)行推廣,這些模型不僅能夠處理單一類型的數(shù)據(jù),如文本,還能同時(shí)處理圖像、視頻等多種數(shù)據(jù)類型,滿足不同領(lǐng)域和場(chǎng)景的需求。
5. 前沿模型(Frontier Models)
在基礎(chǔ)模型的范疇之外,人工智能領(lǐng)域的探索者們正將目光投向所謂的”前沿模型”。這一術(shù)語(yǔ)通常被用作一種營(yíng)銷策略,指代那些尚未公開(kāi)發(fā)布的、預(yù)計(jì)在未來(lái)推出的模型。理論上,這些前沿模型在性能和能力上有望遠(yuǎn)超當(dāng)前市場(chǎng)上的人工智能模型,它們代表了技術(shù)進(jìn)步的最前沿。
四、AI的訓(xùn)練過(guò)程
AI 模型的智能并非與生俱來(lái),而是通過(guò)訓(xùn)練獲得的。訓(xùn)練是一個(gè)精心設(shè)計(jì)的過(guò)程,AI 模型通過(guò)分析龐大的數(shù)據(jù)集來(lái)學(xué)習(xí)如何以特定的方式理解數(shù)據(jù),從而能夠進(jìn)行預(yù)測(cè)和識(shí)別模式。例如,大型語(yǔ)言模型通過(guò)“閱讀”海量文本進(jìn)行訓(xùn)練,這使得像 ChatGPT 這樣的 AI 工具能夠”理解”用戶的查詢,并生成聽(tīng)起來(lái)像人類語(yǔ)言的答案,以解決用戶的問(wèn)題。
訓(xùn)練通常需要消耗大量的資源和計(jì)算能力,許多公司依賴于高性能的 GPU 來(lái)支持這一過(guò)程。AI 模型可以處理各種類型的數(shù)據(jù),包括文本、圖像、音樂(lè)和視頻等,這些數(shù)據(jù)在邏輯上被稱為訓(xùn)練數(shù)據(jù)。
參數(shù)是 AI 模型在訓(xùn)練過(guò)程中學(xué)習(xí)的變量,它們決定了模型如何將輸入轉(zhuǎn)換為輸出。關(guān)于參數(shù)的實(shí)質(zhì),海倫·托納(Helen Toner)給出了最佳解釋。她是喬治城大學(xué)安全與新興技術(shù)中心的戰(zhàn)略和基礎(chǔ)研究資助主任,也是前 OpenAI 董事會(huì)成員:
“參數(shù)是 AI 模型中的數(shù)字,它們決定了如何將輸入(比如一段提示文本)轉(zhuǎn)換為輸出(比如提示后的下一個(gè)單詞)。’訓(xùn)練’ AI 模型的過(guò)程包括使用數(shù)學(xué)優(yōu)化技術(shù)反復(fù)調(diào)整模型的參數(shù)值,直到模型非常擅長(zhǎng)將輸入轉(zhuǎn)換為輸出。”
換句話說(shuō),AI 模型的參數(shù)是決定它們提供答案的關(guān)鍵因素。有時(shí),公司會(huì)強(qiáng)調(diào)一個(gè)模型擁有的參數(shù)數(shù)量,以此來(lái)展示該模型的復(fù)雜性和能力。
五、AI的其他重要概念
1. 自然語(yǔ)言處理(NLP)
使機(jī)器能夠理解人類語(yǔ)言的技術(shù)。OpenAI 的 ChatGPT 就是一個(gè)基本示例:它可以理解您的文本查詢并生成文本作為響應(yīng)。另一個(gè)強(qiáng)大的能夠進(jìn)行 NLP 的工具是 OpenAI 的 Whisper 語(yǔ)音識(shí)別技術(shù),據(jù)報(bào)道,該公司使用它從超過(guò) 100萬(wàn)小時(shí)的 YouTube 視頻中轉(zhuǎn)錄音頻,以幫助訓(xùn)練 GPT – 4。推理(Inference):生成式 AI 應(yīng)用實(shí)際生成內(nèi)容的過(guò)程。以 ChatGPT 為例,當(dāng)用戶提出如何制作巧克力曲奇的請(qǐng)求時(shí),AI 能夠通過(guò)推理生成并分享食譜。這個(gè)過(guò)程體現(xiàn)了計(jì)算機(jī)在執(zhí)行本地人工智能命令時(shí)的能力,它不僅僅是簡(jiǎn)單的數(shù)據(jù)處理,而是能夠理解、分析并創(chuàng)造性地生成響應(yīng)。
推理過(guò)程是 AI 模型智能的體現(xiàn),它涉及到對(duì)輸入數(shù)據(jù)的深入分析,以及對(duì)可能的輸出結(jié)果的預(yù)測(cè)和生成。這種能力使得 AI 能夠在各種場(chǎng)景中提供有用的、創(chuàng)造性的解決方案,從而極大地?cái)U(kuò)展了人工智能的應(yīng)用范圍和實(shí)用性。
2. 標(biāo)記(Tokens)
“標(biāo)記”是指文本中的最小單位,它可以是一個(gè)單詞、一個(gè)詞的一部分,甚至是一個(gè)單獨(dú)的字符。例如,大型語(yǔ)言模型(LLM)會(huì)將輸入的文本分解成這些基本的標(biāo)記單元,以便進(jìn)行深入分析。通過(guò)這種方式,模型能夠識(shí)別和理解標(biāo)記之間的關(guān)系,并據(jù)此生成恰當(dāng)?shù)捻憫?yīng)。
模型的”上下文窗口”大小,即它一次能夠處理的標(biāo)記數(shù)量,是衡量其復(fù)雜性和處理能力的關(guān)鍵指標(biāo)。上下文窗口越大,模型能夠考慮的信息就越豐富,從而能夠生成更加復(fù)雜和精準(zhǔn)的輸出。例如 Kimi 的上下文數(shù)量是 20萬(wàn)個(gè)漢字,其在處理長(zhǎng)文本和復(fù)雜語(yǔ)境時(shí)比其他模型更加合適。
3. 神經(jīng)網(wǎng)絡(luò)(Neural Networks)
這是一種模仿人類大腦神經(jīng)元運(yùn)作方式的計(jì)算機(jī)架構(gòu)。神經(jīng)網(wǎng)絡(luò)通過(guò)連接的節(jié)點(diǎn)處理數(shù)據(jù),這些節(jié)點(diǎn)在功能上與大腦中的神經(jīng)元相似。神經(jīng)網(wǎng)絡(luò)對(duì) AI 至關(guān)重要,因?yàn)樗鼈兡軌蛲ㄟ^(guò)學(xué)習(xí)來(lái)識(shí)別和理解復(fù)雜的數(shù)據(jù)模式,而無(wú)需依賴于傳統(tǒng)的顯式編程。
這種能力使得神經(jīng)網(wǎng)絡(luò)在許多領(lǐng)域都顯示出巨大的潛力,例如在醫(yī)療領(lǐng)域,它們可以通過(guò)分析大量的醫(yī)療數(shù)據(jù)來(lái)學(xué)習(xí)識(shí)別疾病模式,進(jìn)而輔助醫(yī)生做出更準(zhǔn)確的診斷。神經(jīng)網(wǎng)絡(luò)的這種自學(xué)習(xí)能力,不僅提升了人工智能的智能水平,也為解決現(xiàn)實(shí)世界中的復(fù)雜問(wèn)題提供了新的可能性。
4. Transformer 架構(gòu)
Transformer 是一種先進(jìn)的神經(jīng)網(wǎng)絡(luò)架構(gòu),它利用”注意力”機(jī)制來(lái)深入理解序列數(shù)據(jù)中各個(gè)部分之間的相互聯(lián)系。這種機(jī)制使得 Transformer 能夠捕捉詞與詞之間的細(xì)微關(guān)系,從而在處理語(yǔ)言和序列預(yù)測(cè)任務(wù)時(shí)表現(xiàn)出色。
以亞馬遜的一個(gè)實(shí)例為例,考慮這樣一個(gè)輸入序列:”天空的顏色是什么?”在這個(gè)例子中,Transformer 模型通過(guò)內(nèi)部的數(shù)學(xué)表示,智能地識(shí)別出”顏色”、”天空”和”藍(lán)色”這些詞匯之間的相關(guān)性和聯(lián)系?;谶@種理解,模型能夠生成一個(gè)準(zhǔn)確的輸出:”天空是藍(lán)色的。”
Transformer 不僅在功能上極為強(qiáng)大,其訓(xùn)練速度也優(yōu)于許多其他類型的神經(jīng)網(wǎng)絡(luò)。自從 2017 年谷歌的前員工發(fā)表了開(kāi)創(chuàng)性的 Transformer 論文以來(lái),這種架構(gòu)已經(jīng)成為推動(dòng)生成式人工智能技術(shù)發(fā)展的關(guān)鍵因素。事實(shí)上,”ChatGPT”中的”T”就代表了 Transformer,這表明了它在我們?nèi)粘?duì)話和交互中的核心作用。
5. RAG 技術(shù)
RAG 是”檢索增強(qiáng)的生成”(Retrieval-Augmented Generation)的縮寫(xiě),它代表了一種先進(jìn)的人工智能技術(shù)。RAG 允許 AI 模型在生成內(nèi)容時(shí),不僅依賴于其訓(xùn)練數(shù)據(jù),還能從外部資源中檢索并整合相關(guān)信息,從而顯著提升生成內(nèi)容的準(zhǔn)確性和可靠性。
例如,當(dāng)您向一個(gè) AI 聊天機(jī)器人提出問(wèn)題,而該問(wèn)題超出了它的訓(xùn)練知識(shí)范圍時(shí),傳統(tǒng)模型可能會(huì)基于有限的信息產(chǎn)生錯(cuò)誤的推斷。然而,應(yīng)用了 RAG 技術(shù)的模型能夠主動(dòng)查詢外部數(shù)據(jù)源,比如互聯(lián)網(wǎng)上的其他網(wǎng)站,以獲取更全面和準(zhǔn)確的信息。通過(guò)這種方式,RAG 幫助 AI 模型利用最新的數(shù)據(jù)來(lái)生成更加精確和有根據(jù)的答案。
六、AI 的硬件基礎(chǔ)
1. 英偉達(dá)H100芯片
作為 AI 訓(xùn)練領(lǐng)域廣受歡迎的圖形處理單元(GPU),H100以其卓越的性能在業(yè)界備受青睞。它被認(rèn)為在處理 AI 工作負(fù)載方面,相較于其他服務(wù)器級(jí) AI 芯片具有顯著優(yōu)勢(shì)。這種優(yōu)勢(shì)使得英偉達(dá)在全球范圍內(nèi)對(duì) H100的需求居高不下,進(jìn)一步鞏固了其作為世界上最有價(jià)值的公司之一的地位。
2. 神經(jīng)處理單元(Neural Processing Unit, NPU)
這是一種專為計(jì)算機(jī)、平板電腦和智能手機(jī)等設(shè)備設(shè)計(jì)的專用處理器,它能夠高效地執(zhí)行人工智能推理任務(wù)。蘋(píng)果公司則使用“神經(jīng)引擎”這一術(shù)語(yǔ)來(lái)描述類似的技術(shù)。與傳統(tǒng)的中央處理單元(CPU)或圖形處理單元(GPU)相比,NPU 在處理各種 AI 驅(qū)動(dòng)的任務(wù)時(shí)表現(xiàn)出更高的能效比,例如在視頻通話中實(shí)現(xiàn)背景虛化功能。
3. TOPS指標(biāo)
TOPS,即“每秒萬(wàn)億次操作(Tera Operations Per Second),是一種衡量芯片處理能力的指標(biāo)。技術(shù)供應(yīng)商經(jīng)常使用這個(gè)術(shù)語(yǔ)來(lái)展示他們的芯片在執(zhí)行人工智能推理任務(wù)時(shí)的卓越性能。TOPS 數(shù)值越高,表明芯片在處理復(fù)雜 AI 算法時(shí)的速度和效率越強(qiáng)。
七、AI領(lǐng)域的主要參與者
有許多公司已成為開(kāi)發(fā)人工智能和人工智能工具的領(lǐng)導(dǎo)者。有些是根深蒂固的科技巨頭,而另一些則是較新的創(chuàng)業(yè)公司。以下是其中的一些參與者:
1. 國(guó)外
- OpenAI / ChatGPT:人工智能領(lǐng)域之所以變得如此重要,ChatGPT 功不可沒(méi)。這款由 OpenAI 在 2022 年底推出的 AI 聊天機(jī)器人迅速走紅,其影響力之大令許多大型科技公司措手不及。如今,幾乎所有科技公司都在積極展示他們?cè)谌斯ぶ悄茴I(lǐng)域的成就。
- Microsoft / Copilot:微軟正在將其 AI 助手 Copilot 整合到旗下眾多產(chǎn)品中,該助手由 OpenAI 的 GPT 模型提供支持。這家總部位于西雅圖的科技巨頭不僅在產(chǎn)品上與 OpenAI 深度合作,還持有其 49%的股份。
- Google / Gemini:谷歌正致力于通過(guò) Gemini 為其產(chǎn)品注入動(dòng)力,Gemini 既是谷歌 AI 助手的名稱,也代表了公司開(kāi)發(fā)的一系列 AI 模型。
- Meta / Llama:Meta 的人工智能研發(fā)聚焦于 Llama 模型,即大型語(yǔ)言模型 Meta AI。與其他科技巨頭的閉源模型不同,Llama 是開(kāi)源的,這使得它在 AI 領(lǐng)域具有獨(dú)特的地位。
- Apple / Apple Intelligence:蘋(píng)果在其產(chǎn)品中不斷加入以 AI 為中心的新功能,這些功能在 Apple Intelligence 的框架下進(jìn)行開(kāi)發(fā)。值得注意的是,ChatGPT 已被集成到 Siri 中,為用戶帶來(lái)全新的智能體驗(yàn)。
- Anthropic / Claude:Anthropic 是由前 OpenAI 員工創(chuàng)立的 AI 公司,其開(kāi)發(fā)的 Claude AI 模型備受矚目。亞馬遜已向 Anthropic 投資40億美元,谷歌也投入了數(shù)億美元,并有可能進(jìn)一步投資 15 億美元。此外,Anthropic 最近聘請(qǐng)了 Instagram 聯(lián)合創(chuàng)始人邁克·克里格擔(dān)任首席產(chǎn)品官,這一舉措進(jìn)一步凸顯了公司在 AI 領(lǐng)域的雄心。
- xAI / Grok:這是埃隆·馬斯克參與的人工智能公司,其開(kāi)發(fā)的 Grok 作為大型語(yǔ)言模型備受期待。該公司最近完成了 60億美元的融資,顯示出其在 AI 領(lǐng)域的強(qiáng)大潛力。
- Perplexity:Perplexity 是一家以其人工智能驅(qū)動(dòng)的搜索引擎而聞名的公司。然而,該搜索引擎因其數(shù)據(jù)抓取行為而受到一些爭(zhēng)議。
- Hugging Face:作為一個(gè) AI 模型和數(shù)據(jù)集的目錄平臺(tái),Hugging Face 為用戶提供了一個(gè)集中的資源庫(kù),以探索和利用各種 AI 技術(shù)。
2. 國(guó)內(nèi)
- 百度/文心大模型:百度的文心大模型是一系列知識(shí)增強(qiáng)型的人工智能模型,旨在為各行各業(yè)的 AI 開(kāi)發(fā)提供基礎(chǔ)和支持,模型覆蓋了包括自然語(yǔ)言處理(NLP)、計(jì)算機(jī)視覺(jué)(CV)和跨模態(tài)任務(wù)等多個(gè)AI領(lǐng)域。
- 阿里巴巴/通義大模型:阿里巴巴的通義大模型是阿里巴巴達(dá)摩院自主研發(fā)的超大規(guī)模語(yǔ)言模型,其前身為通義千問(wèn),后更名為通義,意為“通情,達(dá)義”,通義大模型的應(yīng)用范圍廣泛,已在辦公、文旅、電力、政務(wù)、醫(yī)保、交通、制造、金融、軟件開(kāi)發(fā)等多個(gè)領(lǐng)域進(jìn)行合作和落地。
- 騰訊/混元大模型:混元大模型已經(jīng)與騰訊的多個(gè)業(yè)務(wù)和產(chǎn)品進(jìn)行了廣泛的對(duì)接和集成,包括騰訊云、騰訊廣告、騰訊游戲、騰訊會(huì)議、騰訊文檔、微信搜一搜等超過(guò) 50個(gè)業(yè)務(wù)和產(chǎn)品。騰訊還推出了模型即服務(wù)(MaaS)解決方案,企業(yè)可以通過(guò) API 調(diào)用混元大模型,也可以將混元作為基底模型,為不同產(chǎn)業(yè)場(chǎng)景構(gòu)建專屬應(yīng)用。
- 華為/盤(pán)古大模型:盤(pán)古大模型具有強(qiáng)大的多模態(tài)能力和復(fù)雜邏輯推理能力,盤(pán)古大模型 5.0能夠理解包括文本、圖片、視頻、雷達(dá)、紅外、遙感等在內(nèi)的多種模態(tài),生成符合物理世界規(guī)律的多模態(tài)內(nèi)容。
- 字節(jié)跳動(dòng)/豆包大模型:豆包大模型包含多種類型的模型,如通用模型、角色扮演模型、語(yǔ)音識(shí)別模型、語(yǔ)音合成模型、聲音復(fù)刻模型、文生圖模型等。豆包大模型被應(yīng)用于字節(jié)跳動(dòng)內(nèi)部的50多個(gè)業(yè)務(wù)場(chǎng)景,如抖音、番茄小說(shuō)、飛書(shū)、巨量引擎等,用以提升效率和優(yōu)化產(chǎn)品體驗(yàn)
- 商湯科技/日日新大模型:商湯的日日新 V5.0大模型在多模態(tài)能力上全面對(duì)標(biāo) GPT-4 Turbo,性能在多個(gè)評(píng)測(cè)中達(dá)到或超越了 GPT-4 Turbo 版本。
- 科大訊飛/星火大模型:這是一個(gè)具有強(qiáng)大中文處理能力的認(rèn)知智能大模型,具備文本生成、語(yǔ)言理解、知識(shí)問(wèn)答、邏輯推理、數(shù)學(xué)能力、代碼能力、多模交互等七大核心能力。
本文由 @阿木聊AI(智能體) 原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)作者許可,禁止轉(zhuǎn)載
題圖來(lái)自Unsplash,基于CC0協(xié)議
該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺(tái)僅提供信息存儲(chǔ)空間服務(wù)
- 目前還沒(méi)評(píng)論,等你發(fā)揮!