亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Apache Hadoop 入門教程第三章

發布時間:2020-07-19 19:34:02 來源:網絡 閱讀:340 作者:哈斗篷 欄目:大數據

免密碼 ssh 設置

現在確認能否不輸入口令就用 ssh 登錄 localhost:

$ ssh localhost
1
如果不輸入口令就無法用 ssh 登陸 localhost,執行下面的命令:

$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ chmod 0600 ~/.ssh/authorized_keys
1
2
3
執行

下面演示本地運行一個 MapReduce 的 job,以下是運行步驟。

(1)格式化一個新的分布式文件系統:

$ bin/hdfs namenode -format
1
(2)啟動 NameNode 守護進程和 DataNode 守護進程:

$ sbin/start-dfs.sh
1
Hadoop 守護進程的日志寫入到 $HADOOP_LOG_DIR目錄(默認是 $HADOOP_HOME/logs)

(3)瀏覽 NameNode 的網絡接口,它們的地址默認為:

NameNode - http://localhost:50070/
1
(4)創建 HDFS 目錄來執行 MapReduce 的 job:

$ bin/hdfs dfs -mkdir /user
$ bin/hdfs dfs -mkdir /user/<username>
1
2
(5)將輸入文件拷貝到分布式文件系統:

$ bin/hdfs dfs -put etc/hadoop input
1
(6)運行發行版提供的示例程序:

$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar grep input output 'dfs[a-z.]+'
1
(7)查看輸出文件

將輸出文件從分布式文件系統拷貝到本地文件系統查看:

$ bin/hdfs dfs -get output output
$ cat output/*****
1
2
或者,在分布式文件系統上查看輸出文件:

$ bin/hdfs dfs -cat output/*
1
(8)完成全部操作后,停止守護進程:

$ sbin/stop-dfs.sh
**需要學習的可以繼續看下一章。**

很多人都知道我有大數據培訓資料,都天真的以為我有全套的大數據開發、hadoop、spark等視頻學習資料。我想說你們是對的,我的確有大數據開發、hadoop、spark的全套視頻資料。
如果你對大數據開發感興趣可以加口群領取免費學習資料: 763835121

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

青海省| 阿拉善盟| 奉节县| 龙山县| 德钦县| 同心县| 犍为县| 海盐县| 泰来县| 拉萨市| 霍邱县| 龙陵县| 宁海县| 绥宁县| 同德县| 怀来县| 响水县| 青川县| 韩城市| 宁晋县| 鄂伦春自治旗| 长汀县| 滕州市| 安丘市| 板桥市| 大同县| 东乡族自治县| 甘肃省| 应城市| 安达市| 察隅县| 福清市| 青海省| 鄂伦春自治旗| 彩票| 随州市| 长治市| 陆丰市| 新营市| 珠海市| 洛浦县|