在线无码一区二区三区不卡,免费观看高潮一级A片 360doc--昵稱16883405的文章 http://bbzoh.cn/rssperson/16883405.aspx 360doc (http://bbzoh.cn) zh-cn 360doc--個人圖書館 Spark 隨機森林算法原理,、源碼分析及案例實戰(zhàn) http://bbzoh.cn/content/16/1108/16/16883405_604919738.shtml 2016/11/8 16:22:50
Spark 隨機森林算法原理,、源碼分析及案例實戰(zhàn)。在對決策樹,、隨機森林算法原理及 Spark 上的優(yōu)化策略的理解基礎(chǔ)上,,本節(jié)將對 Spark MLlib 中的隨機森林算法源碼進行分析,。通過上述樣例代碼可以看到,,從使用者的角度來看,,隨機森林中關(guān)鍵的類是 org.apache.spark.mllib.tree.RandomForest,、org.apache.spark.mllib.tree.model.RandomForestModel 這兩個類,它們提供了隨機森林具體的 trainClassifier 和 predict 函數(shù),。
Spark升級2.0.1版本安裝部署教程 http://bbzoh.cn/content/16/1105/22/16883405_604230768.shtml 2016/11/5 22:30:01
Spark版本:1.5.0.由于spark1.5.0版本和spark2.0.1版本的配置文件基本相同,故拷貝了原來的配置文件,。spark-env.sh配置spark的運行環(huán)境(注意,,JAK版本至少要是1.7以上,SCALA版本也要控制2.11版本以上,scala路徑就是后面你要安裝的路徑)a) 由于spark2.0.1版本只支持2.11版本以上的scala版本,,所以需要重裝新版本的Scala,。a) Spark文件夾,Scala文件夾及.bashrc文件到各個子節(jié)點,,注意:source下.bashrc文件,,使之生效。
spark2.0.1 安裝配置 http://bbzoh.cn/content/16/1105/22/16883405_604225459.shtml 2016/11/5 22:10:28
ln -s spark-2.0.1-bin-hadoop2.7 spark2.#Spark 2.0.1export SPARK_HOME=/usr/local/spark2export PATH=$PATH:$SPARK_HOME/bin.cp -a spark-env.sh.template spark-env.sh.scp -r spark-2.0.1-bin-hadoop2.7 root@cdh02:/usr/local.scp -r spark-2.0.1-bin-hadoop2.7 root@cdh03:/usr/local.hdfs hbase hive hdfshive hbase spark sparkspark spark spark.
Spark 初體驗 http://bbzoh.cn/content/16/1105/22/16883405_604225373.shtml 2016/11/5 22:10:09
Spark 初體驗Spark 初體驗 概覽,。=0){ val docId = row.getAs[String]("doc_id") var appellor = relateInfo(0).getAs[String]("value") var appellorList = appellor.split(",") for (name <- appellorList) yield Row(docId, name, "") } else{ Array[Row]() } }var testRDD = testDF.rdd.flatMap(row => parseLitigant(row))var newDF = spark.createDataFrame(testRDD, schema)
Investigation of Dynamic Allocation in Spark http://bbzoh.cn/content/16/1102/18/16883405_603440248.shtml 2016/11/2 18:16:00
In Spark a resource unit is executor, executor is combined with a bunch of CPU cores and memory.We’ve already introduced about how to calculate the desired resources (executor numbers), now we have to issue these resource requests to the cluster manager to allocate/deallocate the resources. Here we will introduce how YARN support resource allocation and deallocation.
使用spark ml pipeline進行機器學(xué)習(xí) http://bbzoh.cn/content/16/1102/16/16883405_603420250.shtml 2016/11/2 16:45:52
使用spark ml pipeline進行機器學(xué)習(xí)一,、關(guān)于spark ml pipeline與機器學(xué)習(xí)一個典型的機器學(xué)習(xí)構(gòu)建包含若干個過程1、源數(shù)據(jù)ETL2,、數(shù)據(jù)預(yù)處理3,、特征選取4、模型訓(xùn)練與驗證以上四個步驟可以抽象為一個包括多個步驟的流水線式工作,,從數(shù)據(jù)收集開始至輸出我們需要的最終結(jié)果,。
Spark 實戰(zhàn),第 5 部分: 使用 ML Pipeline 構(gòu)建機器學(xué)習(xí)工作流 http://bbzoh.cn/content/16/1102/15/16883405_603399844.shtml 2016/11/2 15:39:47
圖 4. 示例程序運行結(jié)果預(yù)覽 (部分)回頁首注意事項 本文的目標數(shù)據(jù)集結(jié)構(gòu)其實并不復(fù)雜,,之所以用 ML Pipeline 的方式實現(xiàn)訓(xùn)練和預(yù)測過程是為了向大家展示 ML Pipeline 的用法,,這樣的簡單數(shù)據(jù)集也更有利于讀者掌握 ML Pipeline 的處理過程。本文所使用的數(shù)據(jù)集數(shù)據(jù)量很小,,所以可能反映不了 Spark 處理大數(shù)據(jù)的優(yōu)勢,,讀者如果有更大量的數(shù)據(jù)集,即可對本文程序做少許修改便可以使用在新的數(shù)據(jù)集上,,以測試并了解更多的實現(xiàn)細節(jié),。
基于Spark的FPGrowth(關(guān)聯(lián)規(guī)則算法) http://bbzoh.cn/content/16/1101/15/16883405_603144700.shtml 2016/11/1 15:30:14
基于Spark的FPGrowth(關(guān)聯(lián)規(guī)則算法)#然后把數(shù)據(jù)文件scp到各個節(jié)點cd /home/jar/datascp sample_fpgrowth.txt spark@slave1:/home/jar/data/scp sample_fpgrowth.txt spark@slave2:/home/jar/data/FP_Growth --master spark://master:7077 --executor-memory 700m --num-executors 1 /home/jar/FP_Growth.jar /home/jar/data/sample_fpgrowth.txt 0.2 0.8 2.
數(shù)據(jù)挖掘算法之 http://bbzoh.cn/content/16/1101/11/16883405_603090420.shtml 2016/11/1 11:30:30
一般情況,有用的關(guān)聯(lián)規(guī)則的作用度都應(yīng)該大于1,,只有關(guān)聯(lián)規(guī)則的可信度大于期望可信度,,才說明A 的出現(xiàn)對B 的出現(xiàn)有促進作用,也說明了它們之間某種程度的相關(guān)性,,如果作用度不大于1,,則此關(guān)聯(lián)規(guī)則也就沒有意義了。從高頻項目組產(chǎn)生關(guān)聯(lián)規(guī)則,,是利用前一步驟的高頻k-項目組來產(chǎn)生規(guī)則,,在最小信賴度(Minimum Confidence)的條件門檻下,若一規(guī)則所求得的信賴度滿足最小信賴度,,稱此規(guī)則為關(guān)聯(lián)規(guī)則,。5. 關(guān)聯(lián)規(guī)則挖掘的相關(guān)算法。
Spark2.0機器學(xué)習(xí)系列之9: 聚類算法(LDA) http://bbzoh.cn/content/16/1031/14/16883405_602782690.shtml 2016/10/31 14:42:25
Spark2.0機器學(xué)習(xí)系列之9: 聚類算法(LDA)//對迭代次數(shù)進行循環(huán)for(i<-Array(5,10,20,40,60,120,200,500)){ val lda=new LDA() .setK(3) .setTopicConcentration(3) .setDocConcentration(3) .setOptimizer("online") .setCheckpointInterval(10) .setMaxIter(i) val model=lda.fit(dataset_lpa) val ll = model.logLikelihood(dataset_lpa) val lp = model.logPerplexity(dataset_lpa) println(s"$i $ll") println(s"$i $lp") }
Spark中的PIC分類及試驗 http://bbzoh.cn/content/16/1031/06/16883405_602680614.shtml 2016/10/31 6:45:42
Spark中的PIC分類及試驗,。但是拉普拉斯矩陣分析關(guān)系圖必須求解矩陣的特征值,,對小矩陣還沒有太多的資源要求,不過對巨型矩陣的分析就需要相當(dāng)多的資源才能操作,所以在通常的硬軟件環(huán)境下,,難以對大規(guī)模的關(guān)系網(wǎng)絡(luò)做學(xué)習(xí)和劃分試驗,。上面這個圖的矩陣,在超過200次迭代之后,,速度開始變慢,,繼續(xù)下去,能夠勉強通過迭代計算,,但之后,,在接下來的Kmenas算法中就會停滯不前,最后因內(nèi)存不夠退出計算,,這個情況很難讓人接受,。
spark的優(yōu)化-控制數(shù)據(jù)分區(qū)和分布 http://bbzoh.cn/content/16/1027/13/16883405_601783774.shtml 2016/10/27 13:38:38
spark的優(yōu)化-控制數(shù)據(jù)分區(qū)和分布。對于諸如cogroup()和join()這樣的二元操作,,預(yù)先進行數(shù)據(jù)分區(qū)會讓其中至少一個rdd(使用已知分區(qū)器的那個rdd)不發(fā)生數(shù)據(jù)shuffle,,如果兩個rdd使用同樣的分區(qū)方式,并且它們還緩存在同樣的機器上(比如一個rdd是通過mapvalues()從另一個rdd中創(chuàng)建出來的,,這兩個rdd就會擁有相同的key和分區(qū)方式),,或者其中rdd還沒有被計算出來,那么跨界點的shuffle(數(shù)據(jù)混洗)不會發(fā)生了,。
知識庫構(gòu)建前沿:自動和半自動知識提取 http://bbzoh.cn/content/16/1017/16/16883405_599123193.shtml 2016/10/17 16:13:34
屬性和屬性值提取 為語義類構(gòu)造屬性列表,,并提取類中所包含實體(或?qū)嶓w名)的屬性值。聚類的結(jié)果決定了要生成哪些語義類以及每個語義類包含哪些實體,,而語義類標定的任務(wù)是給一個語義類附加一個或者多個上位詞作為其成員的公共上位詞,。屬性提取的任務(wù)是為每個語義類構(gòu)造屬性列表(如城市的屬性包括面積、人口,、所在國家等),,而屬性值提取則為一個語義類中所包含的實體(如北京)附加屬性值(如其面積、人口,、所在國家等),。
How To Improve Deep Learning Performance http://bbzoh.cn/content/16/1017/16/16883405_599122738.shtml 2016/10/17 16:11:48
If you have one more idea or an extension of one of the ideas listed, let me know, I and all readers would benefit!Try a batch size of one (online learning).Here’s how to handle the overwhelm:Pick one groupData.Algorithms.Tuning.Ensembles.Pick one method from the group.Pick one thing to try of the chosen method.Compare the results, keep if there was an improvement.Repeat.Share Your Results.
Apache Spark源碼走讀之22 http://bbzoh.cn/content/16/1017/09/16883405_599027169.shtml 2016/10/17 9:26:23
機器學(xué)習(xí)算法是的主要目的是找到最能夠?qū)?shù)據(jù)做出合理解釋的模型,這個模型是假設(shè)函數(shù),,一步步的推導(dǎo)基本遵循這樣的思路假設(shè)函數(shù)為了找到最好的假設(shè)函數(shù),,需要找到合理的評估標準,一般來說使用損失函數(shù)來做為評估標準根據(jù)損失函數(shù)推出目標函數(shù)現(xiàn)在問題轉(zhuǎn)換成為如何找到目標函數(shù)的最優(yōu)解,,也就是目標函數(shù)的最優(yōu)化,。講完了aggregate函數(shù)的執(zhí)行過程, 回過頭來繼續(xù)講組成seqOp的gradient.compute函數(shù)。
Java Web提交任務(wù)到Spark http://bbzoh.cn/content/16/1013/18/16883405_598179563.shtml 2016/10/13 18:26:40
1> java web 提交任務(wù)到Y(jié)arn,,會失敗,,失敗的主要日志如下:[plain] view plain copy 15/08/25 11:35:48 ERROR yarn.ApplicationMaster: User class threw exception: java.lang.NoClassDefFoundError: javax/servlet/http/HttpServletResponse java.lang.NoClassDefFoundError: javax/servlet/http/HttpServletResponse 這個是因為javax.servlet的包被刪掉了,,和tomcat的沖突。
Spark GC 調(diào)優(yōu) http://bbzoh.cn/content/16/1009/18/16883405_597120410.shtml 2016/10/9 18:50:14
Spark GC 調(diào)優(yōu),。我們的Spark環(huán)境目前主要問題是數(shù)據(jù)量大后一些task的GC Time 特別長,多則幾分鐘,,少則幾十秒,,實在不能忍受。executor-memory executor-cores extraJavaOptions Max GC Time Job Duration.-XX:+UseG1GC.-XX:+UseG1GC -XX:NewRatio=8.-XX:+UseG1GC -XX:NewRatio=8 -XXConcGCThreads=20.-XX:+UseParallelGC -XX:+UseParallelOldGC.-XX:+UseConcMarkSweepGC -XX:+UseParNewGC.
Spark機器學(xué)習(xí)庫之?dāng)?shù)據(jù)類型 http://bbzoh.cn/content/16/1009/11/16883405_597005379.shtml 2016/10/9 11:02:27
MLUtilsimport org.apache.spark.rdd.Vectorimport org.apache.spark.mllib.linalg.distributed.RowMatrixval rows: RDD[Vector] = ... // an RDD of local vectors// Create a RowMatrix from an RDD[Vector].import org.apache.spark.mllib.linalg.distributed.{IndexedRow, IndexedRowMatrix, RowMatrix}val rows: RDD[IndexedRow] = ... // an RDD of indexed rows// Create an IndexedRowMatrix from an RDD[IndexedRow].
Spark RDD,、DataFrame和DataSet的區(qū)別 http://bbzoh.cn/content/16/1008/17/16883405_596739870.shtml 2016/10/8 17:45:51
Spark RDD,、DataFrame和DataSet的區(qū)別。// 上文DataFrame示例中提取出來的val idAgeRDDRow = sc.parallelize(Array(Row(1, 30), Row(2, 29), Row(4, 21)))val schema = StructType(Array(StructField("id", DataTypes.IntegerType), StructField("age", DataTypes.IntegerType)))val idAgeDF = sqlContext.createDataFrame(idAgeRDDRow, schema)Introducing Apache Spark Datasets APACHE SPARK: RDD, DATAFRAME OR DATASET?
Experiments with HBase, Phoenix, and SQL at Scale http://bbzoh.cn/content/16/1008/09/16883405_596604361.shtml 2016/10/8 9:34:50
Experiments with HBase, Phoenix, and SQL at Scale.While not a lot of data at all for this type of cluster (it all fir easily in the HBase block cache) it none-the-less lets us gauge how Phoenix and HBase can scale their workloads across the cluster.Increase phoenix.query.threadPoolSize (1000, 2000, or 4000) and phoenix.query.queueSize (maybe 100000).Phoenix/HBase do quite well in terms of scaling.