多項(xiàng)選擇題通過(guò)數(shù)據(jù)挖掘過(guò)程所推倒出的關(guān)系和摘要經(jīng)常被稱為()。

A.模型
B.模式
C.模范
D.模具


您可能感興趣的試卷

你可能感興趣的試題

1.單項(xiàng)選擇題下面關(guān)于Jarvis-Patrick(JP)聚類算法的說(shuō)法不正確的是()。

A.JP聚類擅長(zhǎng)處理噪聲和離群點(diǎn),并且能夠處理不同大小、形狀和密度的簇
B.JP算法對(duì)高維數(shù)據(jù)效果良好,尤其擅長(zhǎng)發(fā)現(xiàn)強(qiáng)相關(guān)對(duì)象的緊致簇
C.JP聚類是基于SNN相似度的概念
D.JP聚類的基本時(shí)間復(fù)雜度為O(m)

3.單項(xiàng)選擇題以下哪個(gè)聚類算法不屬于基于網(wǎng)格的聚類算法()。

A.STING
B.WaveCluster
C.MAFIA
D.BIRCH

4.單項(xiàng)選擇題關(guān)于混合模型聚類算法的優(yōu)缺點(diǎn),下面說(shuō)法正確的是()。

A.當(dāng)簇只包含少量數(shù)據(jù)點(diǎn),或者數(shù)據(jù)點(diǎn)近似協(xié)線性時(shí),混合模型也能很好地處理
B.混合模型比K均值或模糊c均值更一般,因?yàn)樗梢允褂酶鞣N類型的分布
C.混合模型很難發(fā)現(xiàn)不同大小和橢球形狀的簇
D.混合模型在有噪聲和離群點(diǎn)時(shí)不會(huì)存在問(wèn)題

5.單項(xiàng)選擇題以下哪個(gè)聚類算法不是屬于基于原型的聚類()。

A.模糊c均值
B.EM算法
C.SOM
D.CLIQUE

最新試題

通過(guò)統(tǒng)計(jì)學(xué)可以推測(cè)擲兩個(gè)撒子同時(shí)選中3點(diǎn)的幾率。

題型:判斷題

要將工作申請(qǐng)分為兩類,并使用密度估計(jì)來(lái)檢測(cè)離職申請(qǐng)人,我們可以使用生成分類器。

題型:判斷題

數(shù)據(jù)索引是保證數(shù)據(jù)處理高性能的軟件角度的一種手段,不做數(shù)據(jù)索引的數(shù)據(jù)訪問(wèn)是線性訪問(wèn),但是做了索引的數(shù)據(jù)訪問(wèn)會(huì)成倍的降低訪問(wèn)時(shí)間。

題型:判斷題

假設(shè)屬性的數(shù)量固定,則可以在時(shí)間上以線性方式學(xué)習(xí)基于高斯的貝葉斯最優(yōu)分類器,而該數(shù)量是數(shù)據(jù)集中記錄的數(shù)量。

題型:判斷題

數(shù)據(jù)壓縮與解壓縮可以使得數(shù)據(jù)處理的速度加快。

題型:判斷題

最大似然估計(jì)的一個(gè)缺點(diǎn)是,在某些情況下(例如,多項(xiàng)式分布),它可能會(huì)返回零的概率估計(jì)。

題型:判斷題

使用正則表達(dá)式可以找到一個(gè)文本文件中所有可能出現(xiàn)的手機(jī)號(hào)碼。

題型:判斷題

數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個(gè)信箱。

題型:判斷題

隨機(jī)梯度下降每次更新執(zhí)行的計(jì)算量少于批梯度下降。

題型:判斷題

由于決策樹(shù)學(xué)會(huì)了對(duì)離散值輸出而不是實(shí)值函數(shù)進(jìn)行分類,因此它們不可能過(guò)度擬合。

題型:判斷題