亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么從Hadoop URL讀取數據

發布時間:2021-08-12 09:45:29 來源:億速云 閱讀:114 作者:chen 欄目:云計算

本篇內容主要講解“怎么從Hadoop URL讀取數據”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“怎么從Hadoop URL讀取數據”吧!

1,編寫代碼

import java.io.*;
import java.net.URL;

import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.io.IOUtils;

public class URLCat {
    static {
        URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
    }
    
    public static void main(String[] args) throws Exception {
        InputStream in = null;
        try {
            in = new URL(args[0]).openStream();
            IOUtils.copyBytes(in, System.out, 4096, false);
        } finally {
            IOUtils.closeStream(in);
        }
    }
}
 


2,編譯Java代碼

  1. $ Hadoopcom.sun.tools.javac.Mian -d classes URLCat.java  

  2. // then the class files will be generated in the directory of classes  

3,打包成jar包

  1. jar cf URLCat.jar classes/URLCat.class   

  2. // then we will get the URLCat.jar, the source is from classes/URLCat.class  


4,運行jar包

hadoop jar URLCat.jar URLCat hdfs://10.10.12.171/input/WordCount/file1  

Result:

  1. hadoop  ok  

  2. hadoop  fail  

  3. hadoop  2.3  

可見hdfs://10.10.12.171/input/WordCount/file1的內容就輸出到了標準輸出了。

到此,相信大家對“怎么從Hadoop URL讀取數據”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

浙江省| 丹江口市| 方正县| 睢宁县| 安徽省| 阿拉善右旗| 陆良县| 衡阳市| 德昌县| 鄂托克旗| 普格县| 南木林县| 新建县| 遂宁市| 白水县| 湾仔区| 黎城县| 辛集市| 哈密市| 博客| 南郑县| 南岸区| 东兴市| 宾川县| 大渡口区| 石门县| 南昌市| 财经| 高州市| 泰兴市| 堆龙德庆县| 布拖县| 垦利县| 北辰区| 乐清市| 萨迦县| 蛟河市| 苍梧县| 加查县| 山阳县| 海原县|