您可能感興趣的試卷
你可能感興趣的試題
A.4
B.5
C.6
D.7
A.OLAP事務(wù)量大,但事務(wù)內(nèi)容比較簡單且重復(fù)率高
B.OLAP的最終數(shù)據(jù)來源與OLTP不一樣
C.OLTP面對的是決策人員和高層管理人員
D.OLTP以應(yīng)用為核心,是應(yīng)用驅(qū)動的
A.OLAP主要是關(guān)于如何理解聚集的大量不同的數(shù)據(jù).它與OTAP應(yīng)用程序不同
B.與OLAP應(yīng)用程序不同,OLTP應(yīng)用程序包含大量相對簡單的事務(wù)
C.OLAP的特點在于事務(wù)量大,但事務(wù)內(nèi)容比較簡單且重復(fù)率高
D.OLAP是以數(shù)據(jù)倉庫為基礎(chǔ)的,但其最終數(shù)據(jù)來源與OLTP一樣均來自底層的數(shù)據(jù)庫系統(tǒng),兩者面對的用戶是相同的
關(guān)于OLAP的特性,下面正確的是()
(1)快速性(2)可分析性(3)多維性(4)信息性(5)共享性
A.(1)(2)(3)
B.(2)(3)(4)
C.(1)(2)(3)(4)
D.(1)(2)(3)(4)(5)
最新試題
使決策樹更深將確保更好的擬合度,但會降低魯棒性。
非結(jié)構(gòu)化數(shù)據(jù)也可以使用關(guān)系型數(shù)據(jù)庫來存儲。
當(dāng)反向傳播算法運行到達(dá)到最小值時,無論初始權(quán)重是什么,總是會找到相同的解(即權(quán)重)。
任何對數(shù)據(jù)處理與存儲系統(tǒng)的操作均需要記錄,這符合數(shù)據(jù)安全的要求。
給定用于2類分類問題的線性可分離數(shù)據(jù)集,線性SVM優(yōu)于感知器,因為SVM通常能夠在訓(xùn)練集上實現(xiàn)更好的分類精度。
使用偏差較小的模型總是比偏差較大的模型更好。
數(shù)據(jù)索引就像給每條數(shù)據(jù)裝了個信箱。
最大似然估計的一個缺點是,在某些情況下(例如,多項式分布),它可能會返回零的概率估計。
數(shù)據(jù)存儲體系中并不牽扯計算機網(wǎng)絡(luò)這一環(huán)節(jié)。
當(dāng)MAP中使用的先驗是參數(shù)空間上的統(tǒng)一先驗時,MAP估計等于ML估計。