備考CFA考試是需要考生掌握很多知識(shí)的,那在CFA考試中有監(jiān)督學(xué)習(xí)分類或有序變量知識(shí)掌握了沒有?如果你正在備考這個(gè)知識(shí)點(diǎn)話,跟著小編一起看看CFA知識(shí)!

(1)支持向量機(jī) SVM

用線性分類器(linear classifier)分割n維超平面(hyperplane)

通過*裕度(maximum margin)來分隔數(shù)據(jù)

裕度中間為判別邊界(discriminant boundary)

(2)鄰近算法 KNN

超參數(shù)

度量相似性或接近度


分類和回歸樹CART

對(duì)訓(xùn)練數(shù)據(jù)的特征沒有任何假設(shè),不受約束,可能過擬合

超參數(shù)包括樹的*深度、節(jié)點(diǎn)的*小總體、決策節(jié)點(diǎn)的*數(shù)量

正則化可以減少樹的大小,將提供很少分類能力的部分修剪(pruning)

根節(jié)點(diǎn)和每個(gè)決策節(jié)點(diǎn)表示單個(gè)特征(feature)和該特征的截止值(cutoff)

二叉樹和特征空間提供了可視化的直觀解釋

(3)集成學(xué)習(xí)(ensemble learning):從一組模型中組合預(yù)測(cè)

異構(gòu)學(xué)習(xí)器的集成(aggregation of heterogeneous learners)

不同類型的算法與投票分類器相結(jié)合

多數(shù)票分類器(majority-vote classifier)為一個(gè)新數(shù)據(jù)點(diǎn)分配票數(shù)*多的預(yù)測(cè)標(biāo)簽

(4)同構(gòu)學(xué)習(xí)器的集成(aggregation of homogenous learners)

同一算法使用不同的訓(xùn)練數(shù)據(jù)的組合

自舉集成法(Bootstrap aggregation, bagging):用原始訓(xùn)練集生成n個(gè)新訓(xùn)練集

隨機(jī)森林分類器(random forest classifier):自舉集成法訓(xùn)練的大量決策樹的集合

不管你是備考CFA哪一級(jí)別的考試,這邊有CFA資料和課程可以幫助考生學(xué)習(xí)CFA知識(shí),這邊還有2022年CFA公式表和思維導(dǎo)圖,有需要可以在線咨詢老師。