單項(xiàng)選擇題如果規(guī)則集R中不存在兩條規(guī)則被同一條記錄觸發(fā),則稱規(guī)則集R中的規(guī)則為()。

A.無序規(guī)則
B.窮舉規(guī)則
C.互斥規(guī)則
D.有序規(guī)則


您可能感興趣的試卷

你可能感興趣的試題

2.單項(xiàng)選擇題以下哪項(xiàng)關(guān)于決策樹的說法是錯誤的?()

A.冗余屬性不會對決策樹的準(zhǔn)確率造成不利的影響
B.子樹可能在決策樹中重復(fù)多次
C.決策樹算法對于噪聲的干擾非常敏感
D.尋找最佳決策樹是NP完全問題

3.單項(xiàng)選擇題以下哪些分類方法可以較好地避免樣本的不平衡問題,()。

A.KNN
B.SVM
C.Bayes
D.神經(jīng)網(wǎng)絡(luò)

4.單項(xiàng)選擇題以下哪些算法是分類算法,()。

A.DBSCAN
B.C4.5
C.K-Mean
D.EM

5.單項(xiàng)選擇題下列()不是將主觀信息加入到模式發(fā)現(xiàn)任務(wù)中的方法。

A.與同一時期其他數(shù)據(jù)對比
B.可視化
C.基于模板的方法
D.主觀興趣度量

最新試題

當(dāng)數(shù)據(jù)集標(biāo)簽錯誤的數(shù)據(jù)點(diǎn)時,隨機(jī)森林通常比AdaBoost更好。

題型:判斷題

數(shù)據(jù)索引是保證數(shù)據(jù)處理高性能的軟件角度的一種手段,不做數(shù)據(jù)索引的數(shù)據(jù)訪問是線性訪問,但是做了索引的數(shù)據(jù)訪問會成倍的降低訪問時間。

題型:判斷題

使決策樹更深將確保更好的擬合度,但會降低魯棒性。

題型:判斷題

公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。

題型:判斷題

由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。

題型:判斷題

要將工作申請分為兩類,并使用密度估計(jì)來檢測離職申請人,我們可以使用生成分類器。

題型:判斷題

通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。

題型:判斷題

隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。

題型:判斷題

對于文本數(shù)據(jù)和多媒體數(shù)據(jù)進(jìn)行特征提取是為了方便對于這類數(shù)據(jù)的觀察和理解。

題型:判斷題

給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。

題型:判斷題