A.使用袋外估計(jì)評(píng)價(jià)模型的分類(lèi)誤差
B.變量重要性的度量
C.可解釋性強(qiáng)
D.隨機(jī)特征選取
您可能感興趣的試卷
你可能感興趣的試題
A.從樣本多的一類(lèi)中,去掉一些樣本,使各類(lèi)樣本數(shù)目接近
B.對(duì)樣本少的一類(lèi)補(bǔ)充樣本,使各類(lèi)樣本數(shù)目接近
C.對(duì)于二分類(lèi)的情況,可以根據(jù)正反類(lèi)的比例來(lái)調(diào)整閾值
D.利用集成學(xué)習(xí)的方法來(lái)處理
A.蛛網(wǎng)戰(zhàn)略
B.集中化戰(zhàn)略
C.結(jié)合-分離戰(zhàn)略
D.逐漸一體化戰(zhàn)略
A.大數(shù)據(jù)是數(shù)據(jù)量變積累達(dá)到質(zhì)變的結(jié)果
B.數(shù)據(jù)的產(chǎn)生需要經(jīng)歷很長(zhǎng)時(shí)間
C.我們每個(gè)人都是數(shù)據(jù)的制造者
D.當(dāng)今的世界,基本上一切都可以用數(shù)字表達(dá),所以叫數(shù)字化的世界
A.容易過(guò)擬合
B.類(lèi)別過(guò)多時(shí)容易出現(xiàn)錯(cuò)誤
C.對(duì)缺失值不敏感
D.難以解釋
A.SVM的可解釋性較差,無(wú)法給出決策樹(shù)那樣的規(guī)則
B.SVM算法既可以解決線性問(wèn)題,又可以解決非線性問(wèn)題
C.SVM算法既可以處理小樣本問(wèn)題,又可以處理大規(guī)模訓(xùn)練樣本
D.任意核函數(shù)都可以將低維線性不可分?jǐn)?shù)據(jù)映射到高維線性可分的情況,且效果沒(méi)有任何區(qū)別
最新試題
關(guān)于變異系數(shù)的表述,下列說(shuō)法正確的是()。
對(duì)于同一個(gè)樣本集,下列說(shuō)法正確是()。
當(dāng)買(mǎi)方資產(chǎn)專(zhuān)用性高,而賣(mài)方資產(chǎn)專(zhuān)用性低時(shí),賣(mài)方企業(yè)選擇的戰(zhàn)略不是以下哪幾項(xiàng)()。
關(guān)于大數(shù)據(jù)的來(lái)源,以下理解正確的是()。
有效的市場(chǎng)細(xì)分必須滿足如下條件()。
在以下條件下,需求可能缺乏彈性()。
下列可描述相關(guān)關(guān)系的圖表類(lèi)型有()。
標(biāo)準(zhǔn)正態(tài)分布的期望值μ和標(biāo)準(zhǔn)差σ分別為()
下列戰(zhàn)略中屬于合資經(jīng)營(yíng)中的基本戰(zhàn)略的是()。
建設(shè)投資包括()等。