亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

HIVE作業管理分析及解決方案是什么

發布時間:2021-12-06 14:04:11 來源:億速云 閱讀:192 作者:柒染 欄目:云計算

HIVE作業管理分析及解決方案是什么,相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。

hive任務管理

對于hive任務展示的時候需要把id和mr id關聯, 殺死任務的時候需要把所有屬于這個hive語句的任務都殺死。


一 相關知識

1.1 基礎知識

Hive是基于Hadoop的一個數據倉庫工具,可以將結構化的數據文件映射為一張數據庫表,并提供類SQL查詢功能。 本質是將SQL轉換為MapReduce程序 HIVE作業管理分析及解決方案是什么

1.2 Thrift服務

thrift是facebook開發的一個軟件框架,它用來進行可擴展且跨語言的服務的開發,hive集成了該服務,能讓不同的編程語言調用hive的接口。

1.3 hiveServer/HiveServer2

兩者都允許遠程客戶端使用多種編程語言,通過HiveServer或者HiveServer2,客戶端可以在不啟動CLI的情況下對Hive中的數據進行操作, 允許遠程客戶端使用多種編程語言如java,python等向hive提交請求,取回結果(從hive0.15起就不再支持hiveserver了)。

HiveServer或者HiveServer2都是基于Thrift的,但HiveSever有時被稱為Thrift server,而HiveServer2卻不會。

既然已經存在HiveServer,為什么還需要HiveServer2呢?

這是因為==HiveServer不能處理多于一個客戶端的并發請求==,這是由于HiveServer使用的Thrift接口所導致的限制,不能通過修改HiveServer的代碼修正。因此在Hive-0.11.0版本中重寫了HiveServer代碼得到了HiveServer2,進而解決了該問題。

HiveServer2支持多客戶端的并發和認證,為開放API客戶端如JDBC、ODBC提供更好的支持。

1.4 執行原理

HIVE作業管理分析及解決方案是什么

1.5 用戶接口

Hive 命令行模式(CLI)

命令行接口,CLI可以以兩種模式運行,一種是單純的客戶端,直接連接driver;還有一種是連接hiveserver1;hiveserver1已經被hiveserver2取代,并在1.0.0版本去掉。因為安全性等原因,官方希望用beeline替代cli;或者直接修改cli的底層實現來達到無縫修改。 https://issues.apache.org/jira/browse/HIVE-10511 https://cwiki.apache.org/confluence/display/Hive/Replacing+the+Implementation+of+Hive+CLI+Using+Beeline

Hive 的 Web 模式(WUI)

hive客戶端提供了一種通過網頁的方式訪問hive所提供的服務。這個接口對應hive的hwi組件(hive web interface),使用前要啟動hwi服務。 ==hwi因為使用較少,2.2版本后被移除。==

Hive 的遠程服務(Client)

通過Thrift協議與某個單獨的HiveServer2進程進行連接通信。

beeline

HiveServer2提供了一個新的命令行工具Beeline,它是基于SQLLine CLI的JDBC客戶端。

Beeline工作模式有兩種,即本地嵌入模式和遠程模式。嵌入模式情況下,它返回一個嵌入式的Hive(類似于Hive CLI)。而遠程模式則是通過Thrift協議與某個單獨的HiveServer2進程進行連接通信。

二 開源方案

2.1 hive falcon

在開發工作當中,提交 Hadoop 任務,任務的運行詳情,這是我們所關心的,當業務并不復雜的時候,我們可以使用 Hadoop 提供的命令工具去管理 YARN 中的任務。在編寫 Hive SQL 的時候,需要在 Hive 終端,編寫 SQL 語句,來觀察 MapReduce 的運行情況,長此以往,感覺非常的不便。另外隨著業務的復雜化,任務的數量增加,此時我們在使用這套流程,已預感到力不從心,這時候 Hive 的監控系統此刻便尤為顯得重要,我們需要觀察 Hive SQL 的 MapReduce 運行詳情以及在 YARN 中的相關狀態。

Hive Falcon 用于監控 Hadoop 集群中被提交的任務,以及其運行的狀態詳情。其中 Yarn 中任務詳情包含任務 ID,提交者,任務類型,完成狀態等信息。另外,還可以編寫 Hive SQL,并運 SQL,查看 SQL 運行詳情。也可以查看 Hive 倉庫中所存在的表及其表結構等信息。

==不能將HIVE的查詢和yarn任務關聯在一起,不滿足需求。==

2.2 zepplin

待確認

2.3 ambari

待確認

2.4 hue

采用thrift方式實現。具體可以下載hue源代碼,apps/beeswax, 使用python實現。

此實現方式只能管理通過hue界面執行的查詢,其他客戶端的查詢無法管理。 查詢和mapreduce的關聯關系是通過分析日志實現的,thrift沒有對應的接口。 https://groups.google.com/a/cloudera.org/forum/#!topic/hue-user/wSDcTnZJqTg

日志

2017-04-26 13:54:24,068 INFO  ql.Driver (Driver.java:compile(411)) - Compiling command(queryId=hadoop_20170426135454_41352e71-5685-48e5-9e4d-c25819669666): select count(*) from t_function
2017-04-26 13:54:26,891 INFO  HiveMetaStore.audit (HiveMetaStore.java:logAuditEvent(388)) - ugi=hadoop  ip=unknown-ip-addr      cmd=get_table : db=default tbl=t_function       
2017-04-26 13:54:37,444 INFO  ql.Driver (Driver.java:compile(463)) - Semantic Analysis Completed
2017-04-26 13:54:37,677 INFO  ql.Driver (Driver.java:getSchema(245)) - Returning Hive schema: Schema(fieldSchemas:[FieldSchema(name:_c0, type:bigint, comment:null)], properties:null)
2017-04-26 13:54:38,331 INFO  ql.Driver (Driver.java:compile(541)) - Completed compiling command(queryId=hadoop_20170426135454_41352e71-5685-48e5-9e4d-c25819669666); Time taken: 14.712 second
s
2017-04-26 13:54:38,332 INFO  ql.Driver (Driver.java:execute(1448)) - Executing command(queryId=hadoop_20170426135454_41352e71-5685-48e5-9e4d-c25819669666): select count(*) from t_function
2017-04-26 13:54:38,334 INFO  ql.Driver (SessionState.java:printInfo(927)) - Query ID = hadoop_20170426135454_41352e71-5685-48e5-9e4d-c25819669666
2017-04-26 13:54:38,335 INFO  ql.Driver (SessionState.java:printInfo(927)) - Total jobs = 1
2017-04-26 13:54:38,516 INFO  ql.Driver (SessionState.java:printInfo(927)) - Launching Job 1 out of 1

2017-04-26 13:55:24,615 INFO  exec.Task (SessionState.java:printInfo(927)) - Starting Job = job_1493083994846_0010, Tracking URL = http://T-163:23188/proxy/application_1493083994846_0010/
2017-04-26 13:55:24,860 INFO  exec.Task (SessionState.java:printInfo(927)) - Kill Command = /opt/beh/core/hadoop/bin/hadoop job  -kill job_1493083994846_0010

三 其他方案

未發現完全實現該功能的開源方案,接下來需要看看有沒有其他人干過類似的事,并發了相關文章。

3.1 Hive SQL運行狀態監控

目前數據平臺使用Hadoop構建,為了方便數據分析師的工作,使用Hive對Hadoop MapReduce任務進行封裝,我們面對的不再是一個個的MR任務,而是一條條的SQL語句。數據平臺內部通過類似JDBC的接口與HiveServer進行交互,僅僅能夠感知到一條SQL的開始與結束,而中間的這個過程通常是漫長的(兩個因素:數據量、SQL復雜度),某些場景下用戶需要了解這條SQL語句的執行進度,從而為我們引入以下幾個問題:

(1)通過JDBC接口執行一條SQL語句時,這條SQL語句被轉換成幾個MR任務,每個MR任務的JobId是多少,如何維護這條SQL語句與MR任務的對應關系?

(2)如何獲取MR任務的運行狀態,通過JobClient?

(3)通過HiveServer是否可以獲取到上述信息?

http://www.cnblogs.com/yurunmiao/p/4224137.html

四 匯總分析

通過之前的調研發現,不管是開源項目還是其他網絡資料,大多數需求只實現了特定情況下的hive查詢與yarn任務之間的對應, 多數還是在log上做文章,通過分析hive產生的日志來獲得查詢和yarn任務的關系。

種種跡象表明,情況不太樂觀,遇到硬茬了;想做一種兼容所有執行方式的查詢管理工具,有比較大的難度,需要深入到源代碼去了解。

所有查詢方式

graph LR
Hue-->Thrift
Thrift-->Driver
CLI-->Driver
HWI-->Driver
Beeline-->Driver
Beeline-->Thrift
  • HWI方式官方將在2.2版本后去掉,且使用率不高,暫不支持。

  • Thrift方式支持多客戶端的并發和認證,官方建議采用這種方式,故Beeline只支持Thrift使用方式。

  • CLI雖然不通過Thrift,但因為現在的項目用的比較多,考慮支持。

    通過以上分析,我們要支持的訪問方式如下。

支持查詢方式

graph LR
Hue-->Thrift
Thrift-->Driver
CLI-->Driver
Beeline-->Thrift

五 源碼分析

通過上述分析,我們得出我們的研究方向,并確定了研究方案。 主要分兩部分,CLI模式任務管理和Thrift模式任務管理。

6.1 CLI模式任務管理

我們知道,cli模式下,我們一次只能執行一條查詢,查詢執行過程中,我們可以通過ctrl+c來終止查詢。 ctrl+c是給進程發送sig_int中斷信號。

通過閱讀源碼我們發現,中斷信號的處理在processLine函數中觸發,該函數為處理單條命令。 http://blog.csdn.net/lpxuan151009/article/details/7956518 注: 源碼為hive1.1分支,其中hive-cli工程即為CLI的對應工程。 入口類為org.apache.hadoop.hive.cli.CliDriver。

 if (allowInterrupting) {
      // Remember all threads that were running at the time we started line processing.
      // Hook up the custom Ctrl+C handler while processing this line
      interruptSignal = new Signal("INT");
      oldSignal = Signal.handle(interruptSignal, new SignalHandler() {
        private final Thread cliThread = Thread.currentThread();
        private boolean interruptRequested;

        @Override
        public void handle(Signal signal) {
          boolean initialRequest = !interruptRequested;
          interruptRequested = true;

          // Kill the VM on second ctrl+c
          if (!initialRequest) {
            console.printInfo("Exiting the JVM");
            System.exit(127);
          }

          // Interrupt the CLI thread to stop the current statement and return
          // to prompt
          console.printInfo("Interrupting... Be patient, this might take some time.");
          console.printInfo("Press Ctrl+C again to kill JVM");

          // First, kill any running MR jobs
          HadoopJobExecHelper.killRunningJobs();
          TezJobExecHelper.killRunningJobs();
          HiveInterruptUtils.interrupt();
        }
      });
    }

至此,CLI查詢的終止操作我們已經通過進程和源代碼兩種方式獲取到, 此種任務管理的任務解決方案見六。

執行流程

graph LR
processCmd-->processLocalCmd
processLine-->processCmd
executeDriver-->processLine
run-->executeDriver
main-->run

processLocalCmd

            Driver qp = (Driver) proc;
            PrintStream out = ss.out;
            long start = System.currentTimeMillis();
            if (ss.getIsVerbose()) {
              out.println(cmd);
            }

            qp.setTryCount(tryCount);
            ret = qp.run(cmd).getResponseCode();
            if (ret != 0) {
              qp.close();
              return ret;
            }

查詢實際執行的地方,可以在此處將執行相關信息輸出,輸出方式可選擇log方式或者數據庫,也可選擇rpc(rpc方式)

6.2 Thrift模式任務管理

相比較而言,CLI的任務管理相對簡單,因為每個CLI只能執行一個查詢; 而Thrift模式則支持并發,這里的Thrift模式我們指的是hiveserver2的實現方式。 通過Thrift模式,Hue,Beeline,Ambari等等客戶端均可以連接到hive執行查詢任務, 需要把這些查詢任務都統一管理起來。

Thrift連接

graph LR
Hue-->hiveserver2
Beeline-->hiveserver2
Ambari-->hiveserver2
other-->hiveserver2

我們發現,官方提供的thrift包主要實現的是一個連接所對應的各種操作, 但并不包括連接間的信息;即連接間的信息并未提供外部接口。

下面為一段Thrift示例代碼,主要功能為建立一個連接后查詢hive的數據數據。

thrift示例代碼

        TSocket tSocket = new TSocket("T-162", 10000);
        tSocket.setTimeout(20000);
        TTransport transport = tSocket;

        TBinaryProtocol protocol = new TBinaryProtocol(transport);
        TCLIService.Client client = new TCLIService.Client(protocol);

        transport.open();
        TOpenSessionReq openReq = new TOpenSessionReq();
        TOpenSessionResp openResp = client.OpenSession(openReq);
        TSessionHandle sessHandle = openResp.getSessionHandle();

        TExecuteStatementReq execReq = new TExecuteStatementReq(sessHandle, "show databases");
        TExecuteStatementResp execResp = client.ExecuteStatement(execReq);
        TOperationHandle stmtHandle = execResp.getOperationHandle();

        TFetchResultsReq fetchReq = new TFetchResultsReq(stmtHandle, TFetchOrientation.FETCH_FIRST, 100);
        TFetchResultsResp resultsResp = client.FetchResults(fetchReq);
        List<TColumn> res=resultsResp.getResults().getColumns();
        for(TColumn tCol: res){
            Iterator<String> it = tCol.getStringVal().getValuesIterator();
            while (it.hasNext()){
                System.out.println(it.next());
            }
        }

        TCloseOperationReq closeReq = new TCloseOperationReq();
        closeReq.setOperationHandle(stmtHandle);
        client.CloseOperation(closeReq);
        TCloseSessionReq closeConnectionReq = new TCloseSessionReq(sessHandle);
        client.CloseSession(closeConnectionReq);

        transport.close();

通過查看源代碼我們發現, 注: 源碼為hive1.1分支,其中hive-service工程即為hiveserver2的對應工程。 Thrift類主要在org.apache.hive.service.cli.thrift包下。

session&operation管理

graph LR
HiveServer2-->CLIService
CLIService-->SessionManager
SessionManager-->handleToSession
SessionManager-->OperationManager
OperationManager-->handleToOperation

SessionManager

  private final Map<SessionHandle, HiveSession> handleToSession =
      new ConcurrentHashMap<SessionHandle, HiveSession>();
  private final OperationManager operationManager = new OperationManager();

OperationManager

    private final Map<OperationHandle, Operation> handleToOperation =
      new HashMap<OperationHandle, Operation>();

CLIService.cancelOperation

  @Override
  public void cancelOperation(OperationHandle opHandle)
      throws HiveSQLException {
    sessionManager.getOperationManager().getOperation(opHandle)
    .getParentSession().cancelOperation(opHandle);
    LOG.debug(opHandle + ": cancelOperation()");
  }

通過上述接口可知,只需要找到對應操作的OperationHandle, 然后調用CLIService.cancelOperation即可。

operation&handler

graph LR
SQLOperation-->ExecuteStatementOperation
ExecuteStatementOperation-->Operation
OperationHandle-->Handle
public abstract class Handle {

  private final HandleIdentifier handleId;

  public Handle() {
    handleId = new HandleIdentifier();
  }

  public Handle(HandleIdentifier handleId) {
    this.handleId = handleId;
  }

  public Handle(THandleIdentifier tHandleIdentifier) {
    this.handleId = new HandleIdentifier(tHandleIdentifier);
  }

  public HandleIdentifier getHandleIdentifier() {
    return handleId;
  }

  @Override
  public int hashCode() {
    final int prime = 31;
    int result = 1;
    result = prime * result + ((handleId == null) ? 0 : handleId.hashCode());
    return result;
  }

  @Override
  public boolean equals(Object obj) {
    if (this == obj) {
      return true;
    }
    if (obj == null) {
      return false;
    }
    if (!(obj instanceof Handle)) {
      return false;
    }
    Handle other = (Handle) obj;
    if (handleId == null) {
      if (other.handleId != null) {
        return false;
      }
    } else if (!handleId.equals(other.handleId)) {
      return false;
    }
    return true;
  }

  @Override
  public abstract String toString();

}

可以通過handle id 進行查找。 需要通過thrift接口放出根據handle id停止operation的接口。

// CancelOperation()
//
// Cancels processing on the specified operation handle and
// frees any resources which were allocated.
struct TCancelOperationReq {
  // Operation to cancel
  1: required TOperationHandle op_handle
}

thrift cancle接口已有; 現在需要thrift的獲取所有operation的接口;用于展示 現在需要thrift的獲取所有session的接口;用于展示

六 最終解決方案

6.1 CLI方式

cli程序沒有通信模塊,如果增加通信模塊修改較大,選擇定位進程并對進程發送中斷信號的方式取消查詢。

通過修改配置,將查詢log根據進程號進行細分,這樣就可以獲得查詢和進程號的關系。

當想要殺死一個進程是,通過ssh給對應主機的指定進程發送中斷信息即可。不能通過發送中斷信號來執行,因為執行查詢的用戶可能有很多,==只有root才能保證中斷發送成功==, 但是使用root權限會有安全問題,所有此處只能采用rpc方式進行。

具體rpc方案目前可選的為hadoop rpc形式或者thrift方式,輪詢心跳方式或者cs合集模式。

暫定輪詢心跳方式,IPC定時查詢命令,心跳間隔1分鐘。

工作量: 4-8工作日

因為cli方案的問題,所以最佳方案可能還是修改driver層。

日志格式

hive-hadoop-hive-T-162.log.2621@T-162
hive-hadoop-hive-T-162.log.28632@T-162
hive-hadoop-hive-T-162.log.362@T-162
hive-hadoop-hive-T-162.log.5762@T-162

6.2 THRIFT方式

增加thrift的獲取所有operation的接口,展示所有查詢;調用取消查詢接口殺死查詢。

工作量:4-8工作日

6.3 DRIVER one for all

因為不管cli還是thrift方式,最終都要經過driver層,所以在driver層修改,可以一站式解決所有問題。 但和上面兩種不同的是,上面兩種都只是在原有代碼上加了一層殼,基本沒有動核心代碼; 而driver層,則需要改動一定程度邏輯的代碼,難度有所增加。

看完上述內容,你們掌握HIVE作業管理分析及解決方案是什么的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

铅山县| 玛沁县| 黄陵县| 随州市| 沁阳市| 北碚区| 德昌县| 日土县| 双牌县| 贵阳市| 洪雅县| 富宁县| 滁州市| 南开区| 昆明市| 利津县| 陈巴尔虎旗| 城口县| 乌海市| 青河县| 县级市| 莱州市| 昭苏县| 淮北市| 开江县| 盖州市| 定南县| 聂荣县| 武宣县| 开远市| 专栏| 普兰店市| 若羌县| 达尔| 吉木萨尔县| 大渡口区| 荔浦县| 衡东县| 宣汉县| 静宁县| 麻城市|