"LLM"相關(guān)的文章
業(yè)界動(dòng)態(tài)
AI「長(zhǎng)腦子」了?LLM驚現(xiàn)「人類(lèi)腦葉」結(jié)構(gòu)并有數(shù)學(xué)代碼分區(qū),MIT大牛新作震驚學(xué)界!

AI「長(zhǎng)腦子」了?LLM驚現(xiàn)「人類(lèi)腦葉」結(jié)構(gòu)并有數(shù)學(xué)代碼分區(qū),MIT大牛新作震驚學(xué)界!

Max Tegmark團(tuán)隊(duì)又出神作了!他們發(fā)現(xiàn),LLM中居然存在人類(lèi)大腦結(jié)構(gòu)一樣的腦葉分區(qū),分為數(shù)學(xué)/代碼、短文本、長(zhǎng)篇科學(xué)論文等部分。這項(xiàng)重磅的研究揭示了:大腦構(gòu)造并非人類(lèi)獨(dú)有,硅基生命也從屬這一法則。
業(yè)界動(dòng)態(tài)
AI Agent實(shí)踐分享:基于FAQ文檔和LLM,從0-1搭建智能問(wèn)答機(jī)器人~

AI Agent實(shí)踐分享:基于FAQ文檔和LLM,從0-1搭建智能問(wèn)答機(jī)器人~

在人工智能領(lǐng)域,大型語(yǔ)言模型(LLM)正逐漸成為構(gòu)建智能系統(tǒng)的核心。本文通過(guò)兩個(gè)實(shí)踐案例,詳細(xì)闡述了如何從零開(kāi)始,利用受限的FAQ文檔和LLM能力,搭建一個(gè)智能問(wèn)答機(jī)器人,供大家學(xué)習(xí)。
業(yè)界動(dòng)態(tài)
深度|?Andrej Karpathy 最新思考:小模型有巨大潛力,大模型用來(lái)處理多任務(wù),AI 模型未來(lái)聚焦于處理重要信息的能力

深度|?Andrej Karpathy 最新思考:小模型有巨大潛力,大模型用來(lái)處理多任務(wù),AI 模型未來(lái)聚焦于處理重要信息的能力

在人工智能領(lǐng)域,Andrej Karpathy 的最新思考為我們提供了關(guān)于AI模型未來(lái)發(fā)展的深刻見(jiàn)解。他認(rèn)為,雖然當(dāng)前的大型模型非常強(qiáng)大,但未來(lái)的小型模型也具有巨大的潛力。通過(guò)模型蒸餾技術(shù),我們可以將大型模型的能力壓縮到更小的模型中,實(shí)現(xiàn)更高效的認(rèn)知處理。
業(yè)界動(dòng)態(tài)
LLM 進(jìn)化分岔口:多模態(tài)、成本、代碼推理

LLM 進(jìn)化分岔口:多模態(tài)、成本、代碼推理

在人工智能領(lǐng)域,大型語(yǔ)言模型(LLM)的進(jìn)化正處在一個(gè)關(guān)鍵的分岔口,其中多模態(tài)能力、成本效率和代碼推理能力是未來(lái)發(fā)展的三大核心方向。文章深入分析了OpenAI和Anthropic這兩家在LLM領(lǐng)域處于領(lǐng)先地位的公司,它們?cè)?024年的技術(shù)動(dòng)態(tài)、產(chǎn)品發(fā)展和人才變動(dòng),揭示了它們?cè)贚LM進(jìn)化路徑上的不同選擇和戰(zhàn)略重點(diǎn)。
LLM的范式轉(zhuǎn)移:RL帶來(lái)新的 Scaling Law

LLM的范式轉(zhuǎn)移:RL帶來(lái)新的 Scaling Law

LLM(?大型語(yǔ)言模型)?的范式轉(zhuǎn)移正在由RL(?強(qiáng)化學(xué)習(xí))?引領(lǐng),?帶來(lái)全新的Scaling Law。?傳統(tǒng)上,?LLM的發(fā)展依賴(lài)于模型規(guī)模、?數(shù)據(jù)量和計(jì)算資源的擴(kuò)展,?而RL的引入為這一領(lǐng)域注入了新的活力。?通過(guò)強(qiáng)化學(xué)習(xí),?LLM能夠更好地適應(yīng)復(fù)雜環(huán)境和任務(wù),?實(shí)現(xiàn)更精細(xì)化的控制和優(yōu)化。?這種范式轉(zhuǎn)移不僅提升了LLM的性能,?還為其應(yīng)用開(kāi)辟了新的可能性。?隨著RL與LLM的深度融合,?我們有望見(jiàn)證一個(gè)更加智能、?高效和適應(yīng)性強(qiáng)的大型語(yǔ)言模型時(shí)代的到來(lái)。?
業(yè)界動(dòng)態(tài)
世界模型又近了?MIT驚人研究:LLM已模擬現(xiàn)實(shí)世界,絕非隨機(jī)鸚鵡!

世界模型又近了?MIT驚人研究:LLM已模擬現(xiàn)實(shí)世界,絕非隨機(jī)鸚鵡!

MIT CSAIL的研究人員發(fā)現(xiàn),LLM的「內(nèi)心深處」已經(jīng)發(fā)展出了對(duì)現(xiàn)實(shí)的模擬,模型對(duì)語(yǔ)言和世界的理解,絕不僅僅是簡(jiǎn)單的「鸚鵡學(xué)舌」。也就說(shuō),在未來(lái),LLM會(huì)比今天更深層地理解語(yǔ)言。
業(yè)界動(dòng)態(tài)
Gary Marcus:生成式AI泡沫將退,神經(jīng)符號(hào)AI才是未來(lái)

Gary Marcus:生成式AI泡沫將退,神經(jīng)符號(hào)AI才是未來(lái)

人工智能學(xué)者Gary Marcus近日發(fā)文稱(chēng),生成式AI可能因可靠性問(wèn)題無(wú)法解決而在12個(gè)月內(nèi)退去泡沫。他認(rèn)為,神經(jīng)符號(hào)學(xué)方法是超越LLMS局限、邁向自主AI的途徑之一,而谷歌的兩款系統(tǒng)驗(yàn)證了可行性。
LLM最全「怪癖」首曝光!馬里蘭OpenAI等30+學(xué)者祭出75頁(yè)提示報(bào)告

LLM最全「怪癖」首曝光!馬里蘭OpenAI等30+學(xué)者祭出75頁(yè)提示報(bào)告

大語(yǔ)言模型提示中,竟有不少「怪癖」:重復(fù)某些內(nèi)容,準(zhǔn)確性就大大提高;人名變匿名,準(zhǔn)確性就大大下降。最近,馬里蘭OpenAI等機(jī)構(gòu)的30多位研究者,首次對(duì)LLM的提示技術(shù)進(jìn)行了大規(guī)模系統(tǒng)研究,并發(fā)布75頁(yè)詳盡報(bào)告。
業(yè)界動(dòng)態(tài)
兩句話,讓LLM邏輯推理瞬間崩潰!最新「愛(ài)麗絲夢(mèng)游仙境」曝出GPT、Claude等重大缺陷

兩句話,讓LLM邏輯推理瞬間崩潰!最新「愛(ài)麗絲夢(mèng)游仙境」曝出GPT、Claude等重大缺陷

在基準(zhǔn)測(cè)試上頻頻屠榜的大模型們,竟然被一道簡(jiǎn)單的邏輯推理題打得全軍覆沒(méi)?最近,研究機(jī)構(gòu)LAION的幾位作者共同發(fā)表了一篇文章,以「愛(ài)麗絲夢(mèng)游仙境」為啟發(fā)涉及了一系列簡(jiǎn)單的推理問(wèn)題,揭示了LLM基準(zhǔn)測(cè)試的盲區(qū)。