A.基于圖的凝聚度
B.基于原型的凝聚度
C.基于原型的分離度
D.基于圖的凝聚度和分離度
您可能感興趣的試卷
你可能感興趣的試題
A.O(m)
B.O(m2)
C.O(logm)
D.O(m*logm)
A.MIN(單鏈)
B.MAX(全鏈)
C.組平均
D.Ward方法
A.MIN(單鏈)
B.MAX(全鏈)
C.組平均
D.Ward方法
A.統(tǒng)計(jì)方法
B.鄰近度
C.密度
D.聚類技術(shù)
A.分類器
B.聚類算法
C.關(guān)聯(lián)分析算法
D.特征選擇算法
最新試題
數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫(kù)來(lái)存儲(chǔ)。
完整性,一致性,時(shí)效性,唯一性,有效性,準(zhǔn)確性是衡量數(shù)據(jù)質(zhì)量的六個(gè)維度指標(biāo)。
數(shù)據(jù)收集中的拉模式需要通過(guò)定時(shí)的方式不斷地觸發(fā),才能源源不斷地獲取對(duì)應(yīng)的數(shù)據(jù)。
任何對(duì)數(shù)據(jù)處理與存儲(chǔ)系統(tǒng)的操作均需要記錄,這符合數(shù)據(jù)安全的要求。
通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時(shí),我們幾乎總是可以通過(guò)允許更多隱藏狀態(tài)來(lái)增加訓(xùn)練數(shù)據(jù)的可能性。
最大似然估計(jì)的一個(gè)缺點(diǎn)是,在某些情況下(例如,多項(xiàng)式分布),它可能會(huì)返回零的概率估計(jì)。
隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。
使用偏差較小的模型總是比偏差較大的模型更好。
當(dāng)數(shù)據(jù)集標(biāo)簽錯(cuò)誤的數(shù)據(jù)點(diǎn)時(shí),隨機(jī)森林通常比AdaBoost更好。