A.冗余屬性不會對決策樹的準(zhǔn)確率造成不利的影響
B.子樹可能在決策樹中重復(fù)多次
C.決策樹算法對于噪聲的干擾非常敏感
D.尋找最佳決策樹是NP完全問題
您可能感興趣的試卷
你可能感興趣的試題
A.KNN
B.SVM
C.Bayes
D.神經(jīng)網(wǎng)絡(luò)
A.DBSCAN
B.C4.5
C.K-Mean
D.EM
A.與同一時期其他數(shù)據(jù)對比
B.可視化
C.基于模板的方法
D.主觀興趣度量
A.系數(shù)
B.幾率
C.Cohen度量
D.興趣因子
A.頻繁子集挖掘
B.頻繁子圖挖掘
C.頻繁數(shù)據(jù)項挖掘
D.頻繁模式挖掘
最新試題
當(dāng)反向傳播算法運(yùn)行到達(dá)到最小值時,無論初始權(quán)重是什么,總是會找到相同的解(即權(quán)重)。
根據(jù)數(shù)據(jù)科學(xué)家與數(shù)據(jù)工程師對于問題的理解并相互討論,然后確定需要收集數(shù)據(jù)的范圍以及種類,然后數(shù)據(jù)工程師使用數(shù)據(jù)收集工具,架構(gòu),甚至編程的形式來進(jìn)行數(shù)據(jù)收集的工作,然后并把數(shù)據(jù)收集的數(shù)據(jù)放置到對應(yīng)的存儲系統(tǒng)。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫來存儲。
通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。
通過統(tǒng)計學(xué)可以推測擲兩個撒子同時選中3點(diǎn)的幾率。
數(shù)據(jù)索引是保證數(shù)據(jù)處理高性能的軟件角度的一種手段,不做數(shù)據(jù)索引的數(shù)據(jù)訪問是線性訪問,但是做了索引的數(shù)據(jù)訪問會成倍的降低訪問時間。
選擇用于k均值聚類的聚類數(shù)k的一種好方法是嘗試k的多個值,并選擇最小化失真度量的值。
當(dāng)數(shù)據(jù)集標(biāo)簽錯誤的數(shù)據(jù)點(diǎn)時,隨機(jī)森林通常比AdaBoost更好。
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
使用偏差較小的模型總是比偏差較大的模型更好。