A.無序規(guī)則
B.窮舉規(guī)則
C.互斥規(guī)則
D.有序規(guī)則
您可能感興趣的試卷
你可能感興趣的試題
A.基于類的排序方案
B.基于規(guī)則的排序方案
C.基于度量的排序方案
D.基于規(guī)格的排序方案
A.冗余屬性不會對決策樹的準(zhǔn)確率造成不利的影響
B.子樹可能在決策樹中重復(fù)多次
C.決策樹算法對于噪聲的干擾非常敏感
D.尋找最佳決策樹是NP完全問題
A.KNN
B.SVM
C.Bayes
D.神經(jīng)網(wǎng)絡(luò)
A.DBSCAN
B.C4.5
C.K-Mean
D.EM
A.與同一時期其他數(shù)據(jù)對比
B.可視化
C.基于模板的方法
D.主觀興趣度量
最新試題
當(dāng)數(shù)據(jù)集標(biāo)簽錯誤的數(shù)據(jù)點(diǎn)時,隨機(jī)森林通常比AdaBoost更好。
數(shù)據(jù)索引是保證數(shù)據(jù)處理高性能的軟件角度的一種手段,不做數(shù)據(jù)索引的數(shù)據(jù)訪問是線性訪問,但是做了索引的數(shù)據(jù)訪問會成倍的降低訪問時間。
使決策樹更深將確保更好的擬合度,但會降低魯棒性。
公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
要將工作申請分為兩類,并使用密度估計(jì)來檢測離職申請人,我們可以使用生成分類器。
通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。
隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。
對于文本數(shù)據(jù)和多媒體數(shù)據(jù)進(jìn)行特征提取是為了方便對于這類數(shù)據(jù)的觀察和理解。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。