A.概率
B.鄰近度
C.密度
D.聚類
您可能感興趣的試卷
你可能感興趣的試題
A.STING
B.WaveCluster
C.MAFIA
D.BIRCH
A.當(dāng)簇只包含少量數(shù)據(jù)點,或者數(shù)據(jù)點近似協(xié)線性時,混合模型也能很好地處理
B.混合模型比K均值或模糊c均值更一般,因為它可以使用各種類型的分布
C.混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇
D.混合模型在有噪聲和離群點時不會存在問題
A.模糊c均值
B.EM算法
C.SOM
D.CLIQUE
A.CURE
B.DENCLUE
C.CLIQUE
D.OPOSSUM
A.平方歐幾里德距離
B.余弦距離
C.直接相似度
D.共享最近鄰
最新試題
小數(shù)據(jù)集的數(shù)據(jù)處理最好也由計算機(jī)手段來完成。
使用正則表達(dá)式可以找到一個文本文件中所有可能出現(xiàn)的手機(jī)號碼。
數(shù)據(jù)復(fù)制或者備份均是為了從提高數(shù)據(jù)并發(fā)這個角度來設(shè)計和實現(xiàn)的。
通過統(tǒng)計學(xué)可以推測擲兩個撒子同時選中3點的幾率。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個信箱。
使用偏差較小的模型總是比偏差較大的模型更好。
無論質(zhì)心的初始化如何,K-Means始終會給出相同的結(jié)果。
由于分類是回歸的一種特殊情況,因此邏輯回歸是線性回歸的一種特殊情況。
要將工作申請分為兩類,并使用密度估計來檢測離職申請人,我們可以使用生成分類器。
公司內(nèi)部收集的數(shù)據(jù)不存在需要考慮數(shù)據(jù)隱私的環(huán)節(jié)。