A.分類器
B.聚類算法
C.關(guān)聯(lián)分析算法
D.特征選擇算法
您可能感興趣的試卷
你可能感興趣的試題
A.邊界點(diǎn)
B.質(zhì)心
C.離群點(diǎn)
D.核心點(diǎn)
A.曼哈頓距離
B.平方歐幾里德距離
C.余弦距離
D.Bregman散度
A.層次聚類
B.劃分聚類
C.非互斥聚類
D.模糊聚類
A.組合(ensemble)
B.聚集(aggregate)
C.合并(combination)
D.投票(voting)
A.0.75
B.0.35
C.0.4678
D.0.5738
最新試題
數(shù)據(jù)復(fù)制或者備份均是為了從提高數(shù)據(jù)并發(fā)這個(gè)角度來設(shè)計(jì)和實(shí)現(xiàn)的。
如果P(A B)= P(A),則P(A∩B)= P(A)P(B)。
要將工作申請(qǐng)分為兩類,并使用密度估計(jì)來檢測(cè)離職申請(qǐng)人,我們可以使用生成分類器。
訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有過度擬合訓(xùn)練數(shù)據(jù)的潛在問題。
最大似然估計(jì)的一個(gè)缺點(diǎn)是,在某些情況下(例如,多項(xiàng)式分布),它可能會(huì)返回零的概率估計(jì)。
完整性,一致性,時(shí)效性,唯一性,有效性,準(zhǔn)確性是衡量數(shù)據(jù)質(zhì)量的六個(gè)維度指標(biāo)。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。
使用正則表達(dá)式可以找到一個(gè)文本文件中所有可能出現(xiàn)的手機(jī)號(hào)碼。
對(duì)于文本數(shù)據(jù)和多媒體數(shù)據(jù)進(jìn)行特征提取是為了方便對(duì)于這類數(shù)據(jù)的觀察和理解。
無論質(zhì)心的初始化如何,K-Means始終會(huì)給出相同的結(jié)果。