亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

elasticsearch數據長期保存的方案

發布時間:2020-06-01 17:56:57 來源:網絡 閱讀:6790 作者:irow10 欄目:web開發

Elasticsearch的數據就存儲在硬盤中。當我們的訪問日志非常大時,kabana繪制圖形的時候會非常緩慢。而且硬盤空間有限,不可能保存所有的日志文件。如果我們想獲取站點每天的重要數據信息,比如每天的訪問量并希望能圖像化的形式顯示該如何做呢?

一、具體操作方法

獲取數據之前你要知道你想要什么樣的數據。比如我想獲取每小時網站訪問的PV,在kibana中肯定能獲取到

elasticsearch數據長期保存的方案

這是在kibana中查詢的每小時的pv,然后我們把他的查詢json復制出來

elasticsearch數據長期保存的方案

把上述json粘貼到test文件中 然后使用如下語句即可查詢上圖顯示的查詢結果

curl -POST 'http://192.168.10.49:9200/_search' -d '@test'

{"took":940,"timed_out":false,"_shards":{"total":211,"successful":211,"failed":0},"hits"......

然后把返回的結果中的數據獲取存入data數組中,這是你可以存入數據庫也可以轉換成json直接插入es

這種方法主要是通過elasticsearch的查詢語句把數據查詢出來在傳參給其他地方。你輸入固定的查詢json它返回的json數據也是固定格式的,這樣很方面就能從中挖掘出我們想要的數據!


二、php代碼實現上述操作

class.php

<?php
#從ES中導出數據
#兩個參數:
#url為從ES導出數據的訪問路徑,不同的數據路徑不一樣
#post_data為json格式,是request body。
 function export($url,$post_data){
        $ch = curl_init ();
        curl_setopt ( $ch, CURLOPT_URL, $url );
        curl_setopt ( $ch, CURLOPT_CUSTOMREQUEST,"POST");
        curl_setopt ( $ch, CURLOPT_HEADER, 0 );
        curl_setopt ( $ch, CURLOPT_RETURNTRANSFER, 1 );
        curl_setopt ( $ch, CURLOPT_POSTFIELDS, $post_data);
        $arr=curl_exec($ch);
        curl_close($ch);
        return json_decode($arr,'assoc');;
}
#把數組數據導入ES
#兩個參數:
#$url為導入數據的具體位置 如:http://IP:9200/索引/類型/ID(ID最好根據時間確定,需要唯一ID) 
#post_data 導入ES的數據數組
function import($url,$post_data)
 {
  $json=json_encode($post_data);
    $ci = curl_init();
    curl_setopt($ci, CURLOPT_PORT, 9200);
    curl_setopt($ci, CURLOPT_TIMEOUT, 2000);
    curl_setopt($ci, CURLOPT_RETURNTRANSFER, 1);
    curl_setopt($ci, CURLOPT_FORBID_REUSE, 0);
    curl_setopt($ci, CURLOPT_CUSTOMREQUEST, 'PUT');
    curl_setopt($ci, CURLOPT_URL, $url);
    curl_setopt($ci, CURLOPT_POSTFIELDS, $json);
    $response = curl_exec($ci);
    unset($post_data);//銷毀數組    
    unset($json);//銷毀數據    
    curl_close($ci);
 }
 ?>

vim access_info.php (index_name和type_name自己根據實際情況命名)

<?php
include("class.php");
#導出數據的ES路徑
$url="http://192.168.10.49:9200/_search";
#查詢數據的開始時間
$begin=date("Y-m-d",strtotime("-16 day"));
#開始時間的格式轉換
$start_time=strtotime($begin." 00:00:00");
#查詢數據的結束時間及當時時間,并轉換時間格式
$end_time=strtotime(date("Y-m-d H:i:s",time()));
#替換查詢json中開始及結束時間的,文件是./lib/下的同名txt文件
$post_data=str_replace('end_time',$end_time,str_replace('start_time',$start_time,file_get_contents('lib/'.str_replace('.php','.txt',basename($_SERVER['PHP_SELF'])).'')));
#查詢ES中的數據,返回數組數據
$arr=export($url,$post_data);
#從數組中獲取你想要的數據,然后在組合成一個新的數組
$array=$arr['aggregations']['2']['buckets'];
foreach($array as $key => $value){
    $data['@timestamp']=$value['key_as_string'];
    $data['request_PV']=$value['doc_count'];
    $data['request_IP']=$value['3']['value'];
    #Time為導入ES中的ID,具有唯一性。(不同tpye的可以相同)
    $Time=strtotime($data['@timestamp']);
    $urls="http://192.168.2.243:9200/index_name/tpye_name/$Time"
      #調用函數import導入數據 
    import($urls,$data);
}
?>


下面這個文件是存放./lib文件下的,和執行的php文件必須同名。

vim lib/access_info.txt

{
  "size": 0,
  "aggs": {
    "2": {
      "date_histogram": {
        "field": "@timestamp",
        "interval": "1h",  
        "time_zone": "Asia/Shanghai" 
        #保留時區獲取的信息會準確但是在kibana或ganafa顯示的時候會加8個小時
        "min_doc_count": 1,
        "extended_bounds": {
          "min": start_time, #start_time會被換成具體的時間
          "max": end_time
        }
      },
      "aggs": {
        "3": {
          "cardinality": {
            "field": "geoip.ip"
          }
        }
      }
    }
  },
    
  "highlight": {
    "pre_tags": [
      "@kibana-highlighted-field@"
    ],
    "post_tags": [
      "@/kibana-highlighted-field@"
    ],
    "fields": {
      "*": {}
    },
    "require_field_match": false,
    "fragment_size": 2147483647
  },
    "query": {
    "filtered": {
      "query": {
        "query_string": {
          "query": "*",
          "analyze_wildcard": true
        }
      },
      "filter": {
        "bool": {
          "must": [
            {
              "range": {
                "@timestamp": {
                  "gte": start_time,
                  "lte": end_time,
                  "format": "epoch_second"  #由毫秒換成秒
                }
              }
            }
          ],
          "must_not": []
        }
      }
    }
  }
}

根據上面的代碼,我們可以定期獲取ES中的重要數據。這樣獲取的數據只是結果數據,不是很精確,但能反應網站的趨勢,而且查詢非常快速!如果想要長時間保存重要的數據,可以使用這個方法。而且數據也可以存入數據庫。

以上是個人對能長期保存ES結果數據的做法,如果有更好的方法,希望能一起討論!

elasticsearch數據長期保存的方案

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

阿勒泰市| 华容县| 永德县| 清河县| 东阿县| 静海县| 洛隆县| 禄丰县| 许昌县| 綦江县| 虹口区| 罗江县| 溧水县| 安顺市| 汝阳县| 十堰市| 江津市| 黔西县| 师宗县| 彝良县| 都江堰市| 霍林郭勒市| 新野县| 陇西县| 台北市| 城步| 五家渠市| 台东县| 蒲江县| 栖霞市| 新沂市| 黄大仙区| 丹棱县| 河南省| 镇宁| 新泰市| 三江| 明溪县| 嘉黎县| 陆川县| 罗城|