詳細介紹機器學習常見的10個學習類型
AI產(chǎn)業(yè)的快速發(fā)展讓機器學習成為核心技術(shù)。本文詳細介紹了機器學習的10大學習類型,從監(jiān)督學習到元學習,每種類型都通過具體算法和案例深入解析,幫助讀者快速掌握機器學習的核心邏輯與應(yīng)用場景。
近兩年來 AI 產(chǎn)業(yè)已然成為新的焦點和風口,各互聯(lián)網(wǎng)巨頭都在布局人工智能,不少互聯(lián)網(wǎng)產(chǎn)品經(jīng)理也開始考慮轉(zhuǎn)型 AI 產(chǎn)品經(jīng)理,入門AI產(chǎn)品經(jīng)理,或許你應(yīng)該了解一些相關(guān)技術(shù),本文將為你介紹機器學習的10大學習類型
機器學習(Machine Learning, ML)是教會計算機從數(shù)據(jù)中自動發(fā)現(xiàn)規(guī)律,并利用這些規(guī)律進行預測或決策的技術(shù)。
簡單來說,就是讓機器像人類一樣“學習經(jīng)驗”,而無需被明確編程每一步該怎么做。
機器學習不是某種具體的算法,而是很多算法的統(tǒng)稱。機器學習包含了很多種不同的算法,深度學習就是其中之一,這些算法能夠讓計算機自己在數(shù)據(jù)中學習從而進行預測。
機器學習常見的10個學習類型如下
其核心邏輯都是根據(jù)數(shù)據(jù)條件 (標注、規(guī)模、分布)、任務(wù)需求 (實時性、多任務(wù)、跨領(lǐng)域)和資源限制 (計算、隱私)選擇合適方法。
其中,基礎(chǔ)學習類型 (監(jiān)督/無監(jiān)督/強化學習)解決大多數(shù)傳統(tǒng)問題,進階學習類型突破數(shù)據(jù)、隱私、動態(tài)環(huán)境等限制。
1.監(jiān)督學習
監(jiān)督學習是指我們給算法一個數(shù)據(jù)集,并且給定正確答案。機器通過數(shù)據(jù)來學習正確答案的計算方法。
其中,數(shù)據(jù)有明確的標簽,其學習方式是根據(jù)輸入(特征)和輸出(標簽)的關(guān)系,建立一個預測模型。
(1)典型任務(wù)
分類(預測類別):判斷腫瘤是良性還是惡性。
回歸(預測數(shù)值):預測房價、氣溫。
(2)常見算法
線性回歸、決策樹、支持向量機(SVM)、神經(jīng)網(wǎng)絡(luò)
(3)舉例
我們準備了一大堆貓和狗的照片,我們想讓機器學會如何識別貓和狗。
當我們使用監(jiān)督學習的時候,我們需要給這些照片打上標簽。
我們給照片打的標簽就是“正確答案”,機器通過大量學習,就可以學會在新照片中認出貓和狗。
2.非監(jiān)督學習
非監(jiān)督學習中,給定的數(shù)據(jù)集沒有“正確答案”,所有的數(shù)據(jù)都是一樣的。
無監(jiān)督學習的任務(wù)是從給定的數(shù)據(jù)集中,挖掘出潛在的結(jié)構(gòu)。
其中,數(shù)據(jù)沒有標簽,其學習方式是發(fā)現(xiàn)數(shù)據(jù)中的隱藏規(guī)律或結(jié)構(gòu)(比如分組、簡化數(shù)據(jù))。
(1)典型任務(wù)
聚類(Clustering):把用戶按購買行為分成不同群體。
降維(Dimensionality Reduction):將高維數(shù)據(jù)壓縮成2D/3D可視化。
關(guān)聯(lián)分析:發(fā)現(xiàn)超市商品之間的購買關(guān)聯(lián)(如啤酒和尿布)。
(2)常見算法
K-Means、PCA(主成分分析)、Apriori。
(3)舉例
我們把一堆貓和狗的照片給機器,不給這些照片打任何標簽,但是我們希望機器能夠?qū)⑦@些照片分分類
通過學習,機器會把這些照片分為2類,一類都是貓的照片,一類都是狗的照片。
雖然跟上面的監(jiān)督學習看上去結(jié)果差不多,但是有著本質(zhì)的差別:
非監(jiān)督學習中,雖然照片分為了貓和狗,但是機器并不知道哪個是貓,哪個是狗。
對于機器來說,相當于分成了 A、B 兩類。
3.強化學習
關(guān)注的是智能體如何在環(huán)境中采取一系列行為,從而獲得最大的累積回報。
通過強化學習,一個智能體應(yīng)該知道在什么狀態(tài)下應(yīng)該采取什么行為。
其中,沒有現(xiàn)成的數(shù)據(jù),而是通過與環(huán)境互動獲得反饋(獎勵/懲罰),其學習目標是找到最優(yōu)策略(Policy),讓智能體(Agent)在環(huán)境中獲得最大累積獎勵。
(1) 核心要素
環(huán)境 (如游戲世界、自動駕駛場景)
動作 (Agent的行為,如踩油門、左轉(zhuǎn))
獎勵 (如得分增加、避免碰撞)
(2)典型任務(wù)
游戲AI(如AlphaGo)、機器人控制、自動駕駛。
(3)常見算法
Q-Learning、深度強化學習(DQN)
(4)舉例
訓練小狗接飛盤:
小狗成功接到飛盤 → 給它零食(正向獎勵)
小狗沒接到 → 不給零食(無獎勵)
小狗逐漸學會“加速奔跑+跳躍”的策略,以最大化獲得零食的機會
4.半監(jiān)督學習
結(jié)合少量標注數(shù)據(jù) + 大量無標注數(shù)據(jù)聯(lián)合訓練,降低標注成本。
(1)典型任務(wù)
醫(yī)學影像分析(標注成本高)
文本分類(部分文檔無標簽)
(2)常見算法
標簽傳播(Label Propagation)
半監(jiān)督GAN(生成對抗網(wǎng)絡(luò))
自訓練(Self-training)
(3)舉例
訓練一個AI模型來自動識別肺部X光片中的腫瘤,但僅有少量標注數(shù)據(jù) (如1000張明確標注“正?!被颉澳[瘤”的X光片)和大量未標注數(shù)據(jù) (如10萬張未標注的X光片)。
半監(jiān)督學習通過以下步驟解決標注不足的問題:
①初始模型訓練:1000張已標注的X光片(如500張正常、500張腫瘤),用這些標注數(shù)據(jù)訓練一個基礎(chǔ)分類模型(如卷積神經(jīng)網(wǎng)絡(luò)),學習初步的腫瘤識別規(guī)律,例如腫瘤區(qū)域的紋理、邊緣模糊度等特征
②未標注數(shù)據(jù)的偽標簽生成:將10萬張未標注的X光片輸入初始模型進行預測,生成偽標簽 (即模型預測的“正?!被颉澳[瘤”結(jié)果),僅保留模型預測置信度高的樣本(例如預測概率>90%的5萬張),作為“偽標注數(shù)據(jù)”加入訓練集,其原理是假設(shè)模型對高置信度樣本的預測基本正確,通過擴大數(shù)據(jù)量優(yōu)化模型對肺部結(jié)構(gòu)的理解
③迭代優(yōu)化與核心假設(shè):合并初始標注數(shù)據(jù)和偽標注數(shù)據(jù),重新訓練模型。重復此過程多次,逐步優(yōu)化模型性能
④實際應(yīng)用:最終模型可識別更多復雜病例(如早期腫瘤、微小病灶),準確率顯著高于僅使用標注數(shù)據(jù)訓練的模型。
5.自監(jiān)督學習
自監(jiān)督學習屬于無監(jiān)督學習的一種。數(shù)據(jù)本身沒有任務(wù)需要的標簽。
自監(jiān)督學習需要人為的構(gòu)造標簽,讓模型來學習特征。
(1)典型任務(wù)
預訓練通用表征(如文本、圖像)
下游任務(wù)微調(diào)(如問答系統(tǒng)、圖像分類)
(2)常見算法
BERT(掩碼語言模型)
GPT(生成式預訓練)
SimCLR(對比學習)
MAE(掩碼自編碼器)
(3)舉例
文本填空 (如BERT):遮蓋句子中的詞語,讓模型預測被遮部分(如“貓喜歡喝__”預測“牛奶”)。
視頻幀預測:利用視頻相鄰幀的連續(xù)性,預測下一幀內(nèi)容。
圖像著色:將黑白圖片輸入模型,預測原始顏色分布
6.多任務(wù)學習
同時學習多個相關(guān)任務(wù),共享部分模型參數(shù)以提高泛化能力
(1)典型任務(wù)
自動駕駛(同時檢測車輛、行人、車道線)
自然語言處理(如聯(lián)合學習命名實體識別和詞性標注)
(2)常見算法
多任務(wù)神經(jīng)網(wǎng)絡(luò)(共享底層,任務(wù)特定輸出層)
聯(lián)合訓練Transformer
(3)舉例
自然語言處理:同時處理文本分類、情感分析、命名實體識別等任務(wù)。
計算機視覺:同時處理目標檢測、圖像分割、人臉識別等任務(wù)。
醫(yī)療健康:結(jié)合病例診斷、預測疾病風險等多個任務(wù),提供更全面的醫(yī)療輔助服務(wù)。
語音識別:同時處理語音識別、語音情感分析、說話人識別等任務(wù)。
7.在線學習
模型每次接收一個或一小批新數(shù)據(jù)(如用戶點擊行為),立即調(diào)整參數(shù),無需重新訓練整個模型,適應(yīng)數(shù)據(jù)分布動態(tài)變化。
(1)典型任務(wù)
實時推薦系統(tǒng)(如新聞、廣告)
金融風控(如實時檢測欺詐交易)
(2)常見算法
在線梯度下降(Online Gradient Descent)
跟隨正則化領(lǐng)導(FTRL)
(3)舉例
根據(jù)用戶實時點擊行為調(diào)整短視頻推薦策略,每小時更新模型。
8.遷移學習
遷移學習是通過從已學習的相關(guān)任務(wù)中轉(zhuǎn)移知識來改進學習的新任務(wù),解決目標數(shù)據(jù)不足問題。
遷移學習的靈感來源于人類的學習方式。
例如:會騎自行車的人更容易學會摩托車(兩者平衡技巧相似)
其技術(shù)本質(zhì)是通過共享源域和目標域的底層規(guī)律(如特征、模型參數(shù)),讓模型避免從零學習,快速適應(yīng)新任務(wù)
(1)遷移學習的基本問題
How to transfer: 如何進行遷移學習?(設(shè)計遷移方法)
What to transfer: 給定一個目標領(lǐng)域,如何找到相對應(yīng)的源領(lǐng)域,然后進行遷移?(源領(lǐng)域選擇)
When to transfer: 什么時候可以進行遷移,什么時候不可以?(避免負遷移)
(2)常見算法
預訓練模型微調(diào)(如ResNet、BERT)
特征提取(固定預訓練模型,僅訓練新分類層)
(3)舉例
9.聯(lián)邦學習
多個設(shè)備/機構(gòu)協(xié)同訓練模型,數(shù)據(jù)不離開本地,保護隱私
聯(lián)邦學習(Federated Learning, FL) 是一種分布式機器學習范式 ,
其核心目標是 在保護數(shù)據(jù)隱私的前提下,聯(lián)合多個參與方(如設(shè)備、機構(gòu)或數(shù)據(jù)孤島)共同訓練模型 ,而無需共享原始數(shù)據(jù)。
(1)基本流程
初始化全局模型 :中央服務(wù)器(或協(xié)調(diào)方)初始化一個基礎(chǔ)模型并分發(fā)給各參與方。
本地訓練 :各參與方利用本地數(shù)據(jù)訓練模型,生成模型參數(shù)或梯度更新。
參數(shù)上傳與聚合 :參與方將本地模型更新上傳至服務(wù)器,服務(wù)器通過加權(quán)平均等方式聚合參數(shù),生成全局模型。
迭代優(yōu)化 :重復上述步驟,直至模型收斂
(2)常見算法
FedAvg(聯(lián)邦平均)
差分隱私聯(lián)邦學習(添加噪聲保護數(shù)據(jù))
(3)舉例
金融風控 :銀行間聯(lián)合建模反欺詐系統(tǒng),不共享客戶數(shù)據(jù)。
醫(yī)療健康 :醫(yī)院協(xié)作訓練疾病預測模型,保護患者隱私。
智能終端 :手機輸入法(如蘋果Siri)通過本地數(shù)據(jù)優(yōu)化語音識別。
自動駕駛 :多車協(xié)同訓練駕駛模型,提升安全性
10.元學習
元學習的目標是 學習“如何學習” ,而非直接解決單一任務(wù)。
它通過分析多個相關(guān)任務(wù)的共性(如數(shù)據(jù)分布、特征關(guān)聯(lián)性等),提取可遷移的元知識(Meta-Knowledge),從而在面對新任務(wù)時僅需少量樣本即可高效調(diào)整模型
(1)主要方法分類
根據(jù)知識遷移方式,元學習可分為三類主流方法:
①基于優(yōu)化的元學習
學習一個適用于多任務(wù)的模型初始化參數(shù),使模型通過少量梯度更新即可適應(yīng)新任務(wù)
無需修改模型結(jié)構(gòu),通用性強。
②基于度量的元學習
學習一個相似性度量空間,通過比較新樣本與已知樣本的距離進行分類。
如少樣本圖像分類(如清華團隊在MetaDL挑戰(zhàn)賽中提出的自適應(yīng)度量方法)
③基于模型的元學習
設(shè)計具有記憶或注意力機制的模型結(jié)構(gòu),動態(tài)存儲和調(diào)用任務(wù)相關(guān)知識。
適合處理時序依賴強的任務(wù)(如機器人連續(xù)決策)
(2)常見算法
MAML(模型無關(guān)元學習)
Prototypical Networks(原型網(wǎng)絡(luò))
(3)舉例
機器人在不同地形中調(diào)整行走策略
僅需幾張新類別圖片即可完成圖像識別
本文由人人都是產(chǎn)品經(jīng)理作者【諾兒筆記本】,微信公眾號:【諾兒筆記本】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于 CC0 協(xié)議。
- 目前還沒評論,等你發(fā)揮!