>>多選題部分 1. 通過(guò)數(shù)據(jù)挖掘過(guò)程所推倒出的關(guān)系和摘要經(jīng)常被稱(chēng)為:(A B) A. 模型 B. 模式 C. 模范 D. 模具 2 尋找數(shù)據(jù)集中的關(guān)系是為了尋找精確、方便并且有價(jià)值地總結(jié)了數(shù)據(jù)的某一特征的表示,,這個(gè)過(guò)程包括了以下哪些步驟,? (A B C D) A. 決定要使用的表示的特征和結(jié)構(gòu) B. 決定如何量化和比較不同表示擬合數(shù)據(jù)的好壞 C. 選擇一個(gè)算法過(guò)程使評(píng)分函數(shù)最優(yōu) D. 決定用什么樣的數(shù)據(jù)管理原則以高效地實(shí)現(xiàn)算法。 3. 數(shù)據(jù)挖掘的預(yù)測(cè)建模任務(wù)主要包括哪幾大類(lèi)問(wèn)題,? (A B) A. 分類(lèi) B. 回歸 C. 模式發(fā)現(xiàn) D. 模式匹配 4. 數(shù)據(jù)挖掘算法的組件包括:(A B C D) A. 模型或模型結(jié)構(gòu) B. 評(píng)分函數(shù) C. 優(yōu)化和搜索方法 D. 數(shù)據(jù)管理策略 5. 以下哪些學(xué)科和數(shù)據(jù)挖掘有密切聯(lián)系,?(A D) A. 統(tǒng)計(jì) B. 計(jì)算機(jī)組成原理 C. 礦產(chǎn)挖掘 D. 人工智能 6. 在現(xiàn)實(shí)世界的數(shù)據(jù)中,元組在某些屬性上缺少值是常有的,。描述處理該問(wèn)題的各種方法有: (ABCDE) A忽略元組 B使用屬性的平均值填充空缺值 C使用一個(gè)全局常量填充空缺值 D使用與給定元組屬同一類(lèi)的所有樣本的平均值 E使用最可能的值填充空缺值 7.下面哪些屬于可視化高維數(shù)據(jù)技術(shù) (ABCE) A 矩陣 B 平行坐標(biāo)系 C星形坐標(biāo) D散布圖 E Chernoff臉 8. 對(duì)于數(shù)據(jù)挖掘中的原始數(shù)據(jù),,存在的問(wèn)題有: (ABCDE) A 不一致 B重復(fù) C不完整 D 含噪聲 E 維度高 9.下列屬于不同的有序數(shù)據(jù)的有:(ABCE) A 時(shí)序數(shù)據(jù) B 序列數(shù)據(jù) C時(shí)間序列數(shù)據(jù) D事務(wù)數(shù)據(jù) E空間數(shù)據(jù) 10.下面屬于數(shù)據(jù)集的一般特性的有:( B C D) A 連續(xù)性 B 維度 C 稀疏性 D 分辨率 E 相異性 11. 下面屬于維歸約常用的線性代數(shù)技術(shù)的有: (A C) A 主成分分析 B 特征提取 C 奇異值分解 D 特征加權(quán) E 離散化 12. 下面列出的條目中,哪些是數(shù)據(jù)倉(cāng)庫(kù)的基本特征: (ACD) A. 數(shù)據(jù)倉(cāng)庫(kù)是面向主題的 B. 數(shù)據(jù)倉(cāng)庫(kù)的數(shù)據(jù)是集成的 C. 數(shù)據(jù)倉(cāng)庫(kù)的數(shù)據(jù)是相對(duì)穩(wěn)定的 D. 數(shù)據(jù)倉(cāng)庫(kù)的數(shù)據(jù)是反映歷史變化的 E. 數(shù)據(jù)倉(cāng)庫(kù)是面向事務(wù)的 13. 以下各項(xiàng)均是針對(duì)數(shù)據(jù)倉(cāng)庫(kù)的不同說(shuō)法,,你認(rèn)為正確的有(BCDE ),。 A.?dāng)?shù)據(jù)倉(cāng)庫(kù)就是數(shù)據(jù)庫(kù) B.?dāng)?shù)據(jù)倉(cāng)庫(kù)是一切商業(yè)智能系統(tǒng)的基礎(chǔ) C.?dāng)?shù)據(jù)倉(cāng)庫(kù)是面向業(yè)務(wù)的,支持聯(lián)機(jī)事務(wù)處理(OLTP) D.?dāng)?shù)據(jù)倉(cāng)庫(kù)支持決策而非事務(wù)處理 E.?dāng)?shù)據(jù)倉(cāng)庫(kù)的主要目標(biāo)就是幫助分析,,做長(zhǎng)期性的戰(zhàn)略制定 14. 數(shù)據(jù)倉(cāng)庫(kù)在技術(shù)上的工作過(guò)程是: (ABCD) A. 數(shù)據(jù)的抽取 B. 存儲(chǔ)和管理 C. 數(shù)據(jù)的表現(xiàn) D. 數(shù)據(jù)倉(cāng)庫(kù)設(shè)計(jì) E. 數(shù)據(jù)的表現(xiàn) 15. 聯(lián)機(jī)分析處理包括以下哪些基本分析功能,? (BCD) A. 聚類(lèi) B. 切片 C. 轉(zhuǎn)軸 D. 切塊 E. 分類(lèi) 16. 利用Apriori算法計(jì)算頻繁項(xiàng)集可以有效降低計(jì)算頻繁集的時(shí)間復(fù)雜度。在以下的購(gòu)物籃中產(chǎn)生支持度不小于3的候選3-項(xiàng)集,,在候選2-項(xiàng)集中需要剪枝的是(BD) ID 項(xiàng)集 1 面包,、牛奶 2 面包、尿布,、啤酒,、雞蛋 3 牛奶、尿布、啤酒,、可樂(lè) 4 面包,、牛奶、尿布,、啤酒 5 面包,、牛奶、尿布,、可樂(lè) A,、啤酒、尿布 B,、啤酒,、面包 C、面包,、尿布 D,、啤酒、牛奶 17. 下表是一個(gè)購(gòu)物籃,,假定支持度閾值為40%,,其中__(A D)__是頻繁閉項(xiàng)集。 TID 項(xiàng) 1 abc 2 abcd 3 bce 4 acde 5 de A,、abc B,、ad C、cd D,、de 18. Apriori算法的計(jì)算復(fù)雜度受__(ABCD)?__影響,。 A、支持度閥值 B,、項(xiàng)數(shù)(維度) C,、事務(wù)數(shù) D、事務(wù)平均寬度 19. 非頻繁模式__(AD)__ A,、其支持度小于閾值 B,、都是不讓人感興趣的 C、包含負(fù)模式和負(fù)相關(guān)模式 D,、對(duì)異常數(shù)據(jù)項(xiàng)敏感 20. 以下屬于分類(lèi)器評(píng)價(jià)或比較尺度的有: (ACD) A,預(yù)測(cè)準(zhǔn)確度 B,召回率 C,模型描述的簡(jiǎn)潔度 D,計(jì)算復(fù)雜度 21. 在評(píng)價(jià)不平衡類(lèi)問(wèn)題分類(lèi)的度量方法有如下幾種,,(ABCD) A,F1度量 B,召回率(recall) C,精度(precision) D,真正率(ture positive rate,TPR) 22. 貝葉斯信念網(wǎng)絡(luò)(BBN)有如下哪些特點(diǎn), (AB) A,構(gòu)造網(wǎng)絡(luò)費(fèi)時(shí)費(fèi)力 B,對(duì)模型的過(guò)分問(wèn)題非常魯棒 C,貝葉斯網(wǎng)絡(luò)不適合處理不完整的數(shù)據(jù) D,網(wǎng)絡(luò)結(jié)構(gòu)確定后,,添加變量相當(dāng)麻煩 23. 如下哪些不是最近鄰分類(lèi)器的特點(diǎn),, (C) A,它使用具體的訓(xùn)練實(shí)例進(jìn)行預(yù)測(cè),不必維護(hù)源自數(shù)據(jù)的模型 B,分類(lèi)一個(gè)測(cè)試樣例開(kāi)銷(xiāo)很大 C,最近鄰分類(lèi)器基于全局信息進(jìn)行預(yù)測(cè) D,可以生產(chǎn)任意形狀的決策邊界 24. 如下那些不是基于規(guī)則分類(lèi)器的特點(diǎn),,(AC) A,規(guī)則集的表達(dá)能力遠(yuǎn)不如決策樹(shù)好 B,基于規(guī)則的分類(lèi)器都對(duì)屬性空間進(jìn)行直線劃分,,并將類(lèi)指派到每個(gè)劃分 C,無(wú)法被用來(lái)產(chǎn)生更易于解釋的描述性模型 D,非常適合處理類(lèi)分布不平衡的數(shù)據(jù)集 25. 以下屬于聚類(lèi)算法的是( ABD ),。 A、K均值 B,、DBSCAN C,、Apriori D、Jarvis-Patrick(JP) 26.( CD )都屬于簇有效性的監(jiān)督度量,。 A,、輪廓系數(shù) B、共性分類(lèi)相關(guān)系數(shù) C,、熵 D,、F度量 27. 簇有效性的面向相似性的度量包括( BC )。 A,、精度 B,、Rand統(tǒng)計(jì)量 C、Jaccard系數(shù) D,、召回率 28.( ABCD )這些數(shù)據(jù)特性都是對(duì)聚類(lèi)分析具有很強(qiáng)影響的,。 A、高維性 B,、規(guī)模 C,、稀疏性 D、噪聲和離群點(diǎn) 29. 在聚類(lèi)分析當(dāng)中,,( AD )等技術(shù)可以處理任意形狀的簇,。 A,、MIN(單鏈) B,、MAX(全鏈) C、組平均 D,、Chameleon 30. ( AB )都屬于分裂的層次聚類(lèi)算法,。 A、二分K均值 B,、MST C,、Chameleon D、組平均 >>判斷題部分 1. 數(shù)據(jù)挖掘的主要任務(wù)是從數(shù)據(jù)中發(fā)現(xiàn)潛在的規(guī)則,,從而能更好的完成描述數(shù)據(jù),、預(yù)測(cè)數(shù)據(jù)等任務(wù)。 (對(duì)) 2. 數(shù)據(jù)挖掘的目標(biāo)不在于數(shù)據(jù)采集策略,,而在于對(duì)于已經(jīng)存在的數(shù)據(jù)進(jìn)行模式的發(fā)掘,。(對(duì))3. 圖挖掘技術(shù)在社會(huì)網(wǎng)絡(luò)分析中扮演了重要的角色。(對(duì)) 4. 模式為對(duì)數(shù)據(jù)集的全局性總結(jié),,它對(duì)整個(gè)測(cè)量空間的每一點(diǎn)做出描述,;模型則對(duì)變量變化空間的一個(gè)有限區(qū)域做出描述,。(錯(cuò)) 5. 尋找模式和規(guī)則主要是對(duì)數(shù)據(jù)進(jìn)行干擾,使其符合某種規(guī)則以及模式,。(錯(cuò)) 6. 離群點(diǎn)可以是合法的數(shù)據(jù)對(duì)象或者值,。(對(duì)) 7. 離散屬性總是具有有限個(gè)值。(錯(cuò)) 8. 噪聲和偽像是數(shù)據(jù)錯(cuò)誤這一相同表述的兩種叫法,。(錯(cuò)) 9. 用于分類(lèi)的離散化方法之間的根本區(qū)別在于是否使用類(lèi)信息,。(對(duì)) 10. 特征提取技術(shù)并不依賴(lài)于特定的領(lǐng)域。(錯(cuò)) 11. 序列數(shù)據(jù)沒(méi)有時(shí)間戳,。(對(duì)) 12. 定量屬性可以是整數(shù)值或者是連續(xù)值,。(對(duì)) 13. 可視化技術(shù)對(duì)于分析的數(shù)據(jù)類(lèi)型通常不是專(zhuān)用性的。(錯(cuò)) 14. DSS主要是基于數(shù)據(jù)倉(cāng)庫(kù).聯(lián)機(jī)數(shù)據(jù)分析和數(shù)據(jù)挖掘技術(shù)的應(yīng)用,。(對(duì)) 15. OLAP技術(shù)側(cè)重于把數(shù)據(jù)庫(kù)中的數(shù)據(jù)進(jìn)行分析,、轉(zhuǎn)換成輔助決策信息,是繼數(shù)據(jù)庫(kù)技術(shù)發(fā)展之后迅猛發(fā)展起來(lái)的一種新技術(shù),。 (對(duì)) 16. 商業(yè)智能系統(tǒng)與一般交易系統(tǒng)之間在系統(tǒng)設(shè)計(jì)上的主要區(qū)別在于:后者把結(jié)構(gòu)強(qiáng)加于商務(wù)之上,,一旦系統(tǒng)設(shè)計(jì)完畢,其程序和規(guī)則不會(huì)輕易改變,;而前者則是一個(gè)學(xué)習(xí)型系統(tǒng),,能自動(dòng)適應(yīng)商務(wù)不斷變化的要求。 (對(duì)) 17. 數(shù)據(jù)倉(cāng)庫(kù)中間層OLAP服務(wù)器只能采用關(guān)系型OLAP (錯(cuò)) 18.?dāng)?shù)據(jù)倉(cāng)庫(kù)系統(tǒng)的組成部分包括數(shù)據(jù)倉(cāng)庫(kù),,倉(cāng)庫(kù)管理,,數(shù)據(jù)抽取,分析工具等四個(gè)部分. (錯(cuò)) 19. Web數(shù)據(jù)挖掘是通過(guò)數(shù)據(jù)庫(kù)仲的一些屬性來(lái)預(yù)測(cè)另一個(gè)屬性,它在驗(yàn)證用戶提出的假設(shè)過(guò)程中提取信息. (錯(cuò)) 21. 關(guān)聯(lián)規(guī)則挖掘過(guò)程是發(fā)現(xiàn)滿足最小支持度的所有項(xiàng)集代表的規(guī)則,。(錯(cuò)) 22. 利用先驗(yàn)原理可以幫助減少頻繁項(xiàng)集產(chǎn)生時(shí)需要探查的候選項(xiàng)個(gè)數(shù)(對(duì)),。 23. 先驗(yàn)原理可以表述為:如果一個(gè)項(xiàng)集是頻繁的,那包含它的所有項(xiàng)集也是頻繁的,。(錯(cuò)) 24. 如果規(guī)則 不滿足置信度閾值,,則形如 的規(guī)則一定也不滿足置信度閾值,其中 是X的子集,。(對(duì)) 25. 具有較高的支持度的項(xiàng)集具有較高的置信度,。(錯(cuò)) 26. 聚類(lèi)(clustering)是這樣的過(guò)程:它找出描述并區(qū)分?jǐn)?shù)據(jù)類(lèi)或概念的模型(或函數(shù)),以便能夠使用模型預(yù)測(cè)類(lèi)標(biāo)記未知的對(duì)象類(lèi),。 (錯(cuò)) 27. 分類(lèi)和回歸都可用于預(yù)測(cè),,分類(lèi)的輸出是離散的類(lèi)別值,而回歸的輸出是連續(xù)數(shù)值,。(對(duì)) 28. 對(duì)于SVM分類(lèi)算法,,待分樣本集中的大部分樣本不是支持向量,移去或者減少這些樣本對(duì)分類(lèi)結(jié)果沒(méi)有影響,。 (對(duì)) 29. Bayes法是一種在已知后驗(yàn)概率與類(lèi)條件概率的情況下的模式分類(lèi)方法,,待分樣本的分類(lèi)結(jié)果取決于各類(lèi)域中樣本的全體,。 (錯(cuò)) 30.分類(lèi)模型的誤差大致分為兩種:訓(xùn)練誤差(training error)和泛化誤差(generalization error). (對(duì)) 31. 在決策樹(shù)中,隨著樹(shù)中結(jié)點(diǎn)數(shù)變得太大,,即使模型的訓(xùn)練誤差還在繼續(xù)減低,,但是檢驗(yàn)誤差開(kāi)始增大,這是出現(xiàn)了模型擬合不足的問(wèn)題,。 (錯(cuò)) 32. SVM是這樣一個(gè)分類(lèi)器,,他尋找具有最小邊緣的超平面,因此它也經(jīng)常被稱(chēng)為最小邊緣分類(lèi)器(minimal margin classifier) (錯(cuò)) 33. 在聚類(lèi)分析當(dāng)中,,簇內(nèi)的相似性越大,,簇間的差別越大,聚類(lèi)的效果就越差,。(錯(cuò)) 34. 聚類(lèi)分析可以看作是一種非監(jiān)督的分類(lèi),。(對(duì)) 35. K均值是一種產(chǎn)生劃分聚類(lèi)的基于密度的聚類(lèi)算法,簇的個(gè)數(shù)由算法自動(dòng)地確定,。(錯(cuò)) 36. 給定由兩次運(yùn)行K均值產(chǎn)生的兩個(gè)不同的簇集,,誤差的平方和最大的那個(gè)應(yīng)該被視為較優(yōu)。(錯(cuò)) 37. 基于鄰近度的離群點(diǎn)檢測(cè)方法不能處理具有不同密度區(qū)域的數(shù)據(jù)集,。(對(duì)) 38. 如果一個(gè)對(duì)象不強(qiáng)屬于任何簇,,那么該對(duì)象是基于聚類(lèi)的離群點(diǎn)。(對(duì)) 39. 從點(diǎn)作為個(gè)體簇開(kāi)始,,每一步合并兩個(gè)最接近的簇,,這是一種分裂的層次聚類(lèi)方法。(錯(cuò)) 40. DBSCAN是相對(duì)抗噪聲的,,并且能夠處理任意形狀和大小的簇,。(對(duì)) 文章來(lái)源:網(wǎng)絡(luò) 版權(quán)歸原作者所有 上文內(nèi)容不用于商業(yè)目的,如涉及知識(shí)產(chǎn)權(quán)問(wèn)題,,請(qǐng)權(quán)利人聯(lián)系小編,,我們將立即處理 |
|
來(lái)自: 學(xué)掌門(mén) > 《待分類(lèi)》