A.當簇只包含少量數(shù)據(jù)點,或者數(shù)據(jù)點近似協(xié)線性時,混合模型也能很好地處理
B.混合模型比K均值或模糊c均值更一般,因為它可以使用各種類型的分布
C.混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇
D.混合模型在有噪聲和離群點時不會存在問題
您可能感興趣的試卷
你可能感興趣的試題
A.模糊c均值
B.EM算法
C.SOM
D.CLIQUE
A.CURE
B.DENCLUE
C.CLIQUE
D.OPOSSUM
A.平方歐幾里德距離
B.余弦距離
C.直接相似度
D.共享最近鄰
以下是哪一個聚類算法的算法流程()。
①構造k-最近鄰圖。
②使用多層圖劃分算法劃分圖。
③repeat:合并關于相對互連性和相對接近性而言,最好地保持簇的自相似性的簇。
④until:不再有可以合并的簇。
A.MST
B.OPOSSUM
C.Chameleon
D.Jarvis-Patrick(JP)
A.K均值丟棄被它識別為噪聲的對象,而DBSCAN一般聚類所有對象
B.K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念
C.K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇
D.K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會合并有重疊的簇
最新試題
由于決策樹學會了對離散值輸出而不是實值函數(shù)進行分類,因此它們不可能過度擬合。
數(shù)據(jù)收集中的拉模式需要通過定時的方式不斷地觸發(fā),才能源源不斷地獲取對應的數(shù)據(jù)。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓練集上實現(xiàn)更好的分類精度。
使用正則表達式可以找到一個文本文件中所有可能出現(xiàn)的手機號碼。
最大似然估計的一個缺點是,在某些情況下(例如,多項式分布),它可能會返回零的概率估計。
數(shù)據(jù)復制或者備份均是為了從提高數(shù)據(jù)并發(fā)這個角度來設計和實現(xiàn)的。
任何對數(shù)據(jù)處理與存儲系統(tǒng)的操作均需要記錄,這符合數(shù)據(jù)安全的要求。
對于文本數(shù)據(jù)和多媒體數(shù)據(jù)進行特征提取是為了方便對于這類數(shù)據(jù)的觀察和理解。
任務調(diào)度系統(tǒng)的設計與實現(xiàn)才能使得數(shù)據(jù)收集工作可以不間斷地按照既定的目標從目標源獲取數(shù)據(jù)。
管理員不需要驗證就可以訪問數(shù)據(jù)存儲系統(tǒng)中的任何數(shù)據(jù),這符合數(shù)據(jù)安全的要求。