最新試題

最大似然估計的一個缺點(diǎn)是,在某些情況下(例如,多項(xiàng)式分布),它可能會返回零的概率估計。

題型:判斷題

給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因?yàn)镾VM通常能夠在訓(xùn)練集上實(shí)現(xiàn)更好的分類精度。

題型:判斷題

通常,當(dāng)試圖從大量觀察中學(xué)習(xí)具有少量狀態(tài)的HMM時,我們幾乎總是可以通過允許更多隱藏狀態(tài)來增加訓(xùn)練數(shù)據(jù)的可能性。

題型:判斷題

對于文本數(shù)據(jù)和多媒體數(shù)據(jù)進(jìn)行特征提取是為了方便對于這類數(shù)據(jù)的觀察和理解。

題型:判斷題

任何對數(shù)據(jù)處理與存儲系統(tǒng)的操作均需要記錄,這符合數(shù)據(jù)安全的要求。

題型:判斷題

數(shù)據(jù)索引是保證數(shù)據(jù)處理高性能的軟件角度的一種手段,不做數(shù)據(jù)索引的數(shù)據(jù)訪問是線性訪問,但是做了索引的數(shù)據(jù)訪問會成倍的降低訪問時間。

題型:判斷題

非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫來存儲。

題型:判斷題

支持向量機(jī)不適合大規(guī)模數(shù)據(jù)。

題型:判斷題

由于決策樹學(xué)會了對離散值輸出而不是實(shí)值函數(shù)進(jìn)行分類,因此它們不可能過度擬合。

題型:判斷題

隨機(jī)梯度下降每次更新執(zhí)行的計算量少于批梯度下降。

題型:判斷題