卖逼视频免费看片|狼人就干网中文字慕|成人av影院导航|人妻少妇精品无码专区二区妖婧|亚洲丝袜视频玖玖|一区二区免费中文|日本高清无码一区|国产91无码小说|国产黄片子视频91sese日韩|免费高清无码成人网站入口

linux下confluence安裝教程 confluence安裝完之后怎么返回安裝界面?

confluence安裝完之后怎么返回安裝界面?安裝合流后返回安裝界面的方法如下1.我們首先進入圖形界面。2.然后輸入ctrl alt F2切換到dos界面。3.接下來,以root用戶身份登錄。 5命

confluence安裝完之后怎么返回安裝界面?

安裝合流后返回安裝界面的方法如下

1.我們首先進入圖形界面。

2.然后輸入ctrl alt F2切換到dos界面。

3.接下來,以root用戶身份登錄。

5命令返回到圖形界面。

5.您也可以在圖形界面中找到該應(yīng)用程序。

6.找到終端項目。

7.點擊進入命令操作頁面。

注意事項:

CentOS的版本大約每兩年發(fā)布一次,每個版本的C

想建一個知識庫,用什么工具比較好?

謝謝你的邀請。歡迎關(guān)注黑桃,與邊肖交流互動,共享科技數(shù)字信息。

構(gòu)建知識庫的工具有哪些?這個要看你想建在哪里,只是想用手機做個記錄?還是要多種終端,共享?這個需求不一樣,工具就不一樣。

Apache Mahout如何使用?

Mahout安裝的詳細全過程1。jdk安裝22。SSH無密碼認證配置23。hadoop配置34。Hadop使用65。Maven安裝76??聪笕搜b置77。Hadoop集群執(zhí)行集群算法88。其他8......................................................................................................

開放 "終端 "然后輸入:sh

1.3.設(shè)置JAVA_HOME環(huán)境系統(tǒng)變量input:VI/etc/environment Add:export JAVA _ HOME/root/JDK 1 . 6 . 0 _ 24 export JRE _ HOME/root/JDK 1 . 6 . 0 _ 24/JRE導(dǎo)出類路徑$class path :$JAVA _ HOM:$JAVA _ HOME/JRE/lib同樣,修改第二個文件。Input: vi /etc/profile在umask 022前添加以下語句:export JAVA _ HOME/root/JDK 1 . 6 . 0 _ 24 export JRE _ HOME/root/JDK 1 . 6 . 0 _ 24/JRE導(dǎo)出類路徑$ class PATH : $JAVA _ HOM: $ JAVA _ HOM:$Java _ hom:$path:$hom:、:、Slav:,三個節(jié)點都是CentOS系統(tǒng),Hadoop在/root/hadoop/目錄下。在/etc/hosts上添加主機名和對應(yīng)的IP地址:192 . 168 . 1 . 10 Master 192 . 168 . 1 . 20 Slave 1192 . 168 . 1 . 21 Slave 23、SSH免密碼認證配置2.1 Hadoop需要使用SSH協(xié)議。Namenode將使用SSH協(xié)議啟動namenode和datanode進程。偽分布式模式下的數(shù)據(jù)節(jié)點和名稱節(jié)點是它們自己,所以SSH localhost必須在沒有密碼驗證的情況下進行配置。以root用戶身份登錄并在主目錄中執(zhí)行以下命令:ssh-k:的文件

按回車默認路徑創(chuàng)建目錄。創(chuàng)造。

目錄輸入密碼短語(空表示無密碼短語):輸入相同的密碼短語again:你的身份已經(jīng)保存在_

公鑰已保存在_

鍵指紋is: c 6 : 7 : 57 : 59 : 0 a: 2d: 85 : 49 : 23 : cc: 58 : : dbecho 33-@

在目錄中生成id_rsa私鑰和id_。

公鑰。進入

namenode節(jié)點下的目錄配置如下:[。ssh]#貓id_

授權(quán)密鑰。ssh]# scp授權(quán)_密鑰[

。ssh]# scp授權(quán)_密鑰

配置完成后,您可以測試是否需要通過ssh本地IP進行密碼登錄。2.2如同namenode無需密碼登錄所有DataNode的原理,將DataNode的公鑰復(fù)制到Namenode 噓。

在目錄下。[ .ssh]# scp authoriz:/root[root @]# scp authoriz:/root

添加剛剛發(fā)送到authorized _ keys[root @]# cat authorized _ keys 1 authorized _ keys[root @]# cat authorized _ keys 2 authorized _ keys,也可以關(guān)閉和啟動Datanode上的Hadoop服務(wù)。4、Hadoop配置下載hadoop-0.20.2.tar.gz。

,用于減壓。塔爾zxvf hadoop-0.20.2.tar.gz

修改/etc/profil: $ path 4.1 .進入hadoop/conf,配置Hadoop配置文件4.1.1,

將# setjavaenvironment export Java _ home/root/JDK 1 . 6 . 0 _ 24添加到文件中,保存并退出。配置核心站點。xml # vicore-site.xml4.1.3配置HDFS-site . XML # vihdfs-site . XML 4 . 1 . 4配置Mapred-site . XML # viMapred-site . XML 4 . 1 . 5配置masters # Vi masters 192 . 168 . 1 . 104 . 1 . 6配置slaves # vislaves 192 . 168 . 1 . 20192 . 168 . 1 . 214 . 2、hadoop startup 4.2.1、進入/root/Hadoop/中/Hadoop Namenode。

命令啟動后,可以使用jps命令檢查hadoop進程是否完全啟動。正常情況下應(yīng)該有以下進程:10910 namenode 11431 JPS 11176二級NameNode 11053 datanode 11254 Job Tracker 11378 TaskTracker。在建設(shè)過程中,這個環(huán)節(jié)出現(xiàn)的問題最多,啟動過程往往不完整。DataNode無常啟動,或者NameNode或Tasktracker啟動異常。解決方法如下:1)關(guān)閉Linux下的防火墻:使用服務(wù)iptables stop命令;2)再次格式化namenode:在/root/hadoop/bin目錄下執(zhí)行hadoop namenode -format命令3)重啟服務(wù)器4)查看datanode或namenode對應(yīng)的日志文件,該文件保存在/root/hadoop/logs目錄下。5)在/bin目錄中再次使用它。

命令啟動所有進程,通過以上方法應(yīng)該可以解決進程啟動不完整的問題。4.2.3查看集群狀態(tài)在bin目錄中執(zhí)行:Hadoop DFS admin-report # Hadoop DFS admin cr: 50070 : 50030 . 5。Hadop使用了一個測試示例wordcount:計算輸入文本。中文字數(shù)統(tǒng)計程序。hadoop主目錄中帶有WordCount的java包hadoop-0.20.2-examples.jar。

,實現(xiàn)步驟如下:在/root/hadoop/bin/目錄下,進行如下操作:。/hadoop fs -mkdir輸入(新目錄名可以任意命名)mkdir/root/a/vi/root/a.txt。

從本地/root/a/input寫hello world hello # Hadoop fs-copy,在/root/hadoop/bin: #下執(zhí)行。Hadoop-0.20.2-examples.jar。

Wordcount輸入輸出(提交一個作業(yè),這里要注意輸入輸出是一組任務(wù),下次執(zhí)行word count程序,新目錄intput1和output1不能和輸入輸出同名)6。Maven安裝6.1,下載Maven解壓tar VxZF Apache-Maven-3 . 0 . 2-bin . tar . gzmv。

Apach: $ { path } 6.3先注銷,然后登錄查看maven版本,看mvn -version7是否安裝成功。參見:

、hadoop集群實現(xiàn)集群算法8.1數(shù)據(jù)準備CD/root/Hadoop wg _ control/synthetic _

。/hadoop fs -mkdir testdata。/hadoop fs -put synthetic_

測試數(shù)據(jù)。/Hadoop fs-LSR test data bin/Hadoop jar/root/mahout/mahout-examples-0.4-job . jar

檢查結(jié)果,bin/mahout向量轉(zhuǎn)儲-seq file/user/root/output/data/part-r-00000。這將在控制臺上直接顯示結(jié)果。走吧。9.hadoop集群實現(xiàn)推薦算法分布式bin/Hadoop jar/root/trunk/mahout-distribution-0.4/mahout-core-0.4-job . jar。

-Dmapred.output.diroutput2偽分布式bin/Hadoop jar/root/trunk/mahout-distribution-0.4/mahout-core-0.4-job . jar。

-推薦者類名

-dmapred . output . dir output _ w10 wan 10,其他離開安全模式:hadoop dfsadmin -safemode離開。