亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

logstash過濾器插件filter介紹

發布時間:2020-05-23 16:00:15 來源:億速云 閱讀:288 作者:鴿子 欄目:系統運維

1、logstash過濾器插件filter

1.1、grok正則捕獲

grok是一個十分強大的logstash filter插件,他可以通過正則解析任意文本,將非結構化日志數據弄成結構化和方便查詢的結構。他是目前logstash 中解析非結構化日志數據最好的方式

grok的語法規則是:

%{語法:語義}

“語法”指的是匹配的模式。例如使用NUMBER模式可以匹配出數字,IP模式則會匹配出127.0.0.1這樣的IP地址。

例如:

我們的試驗數據是:

172.16.213.132 [07/Feb/2018:16:24:19 +0800] "GET /HTTP/1.1" 403 5039

1)我們舉個例子來講解過濾IP

input {
        stdin {
        }
}
filter{
        grok{
                match => {"message" => "%{IPV4:ip}"}        }
}
output {
                stdout {
                }
}

現在啟動一下:

[root@:172.31.22.29 /etc/logstash/conf.d]#/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/l2.conf
Sending Logstash logs to /var/log/logstash which is now configured via log4j2.properties172.16.213.132 [07/Feb/2018:16:24:19 +0800]"GET /HTTP/1.1" 403 5039      #手動輸入此行信息{
       "message" => "172.16.213.132 [07/Feb/2018:16:24:19 +0800]\"GET /HTTP/1.1\" 403 5039",            "ip" => "172.16.213.132",
      "@version" => "1",
          "host" => "ip-172-31-22-29.ec2.internal",
    "@timestamp" => 2019-01-22T09:48:15.354Z
}

2)舉個例子來講解過濾時間戳

input與output字段信息這里省略不寫了。

filter{
        grok{
                match => {"message" => "%{IPV4:ip}\ \[%{HTTPDATE:timestamp}\]"}        }
}

 接下來我們過濾一下:

[root@:172.31.22.29 /etc/logstash/conf.d]#/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/l2.conf
Sending Logstash logs to /var/log/logstash which is now configured via log4j2.properties172.16.213.132 [07/Feb/2018:16:24:19 +0800]"GET /HTTP/1.1" 403 5039    手動輸入此行信息{      "@version" => "1",
     "timestamp" => "07/Feb/2018:16:24:19 +0800",
    "@timestamp" => 2019-01-22T10:16:14.205Z,
       "message" => "172.16.213.132 [07/Feb/2018:16:24:19 +0800]\"GET /HTTP/1.1\" 403 5039",
            "ip" => "172.16.213.132",
          "host" => "ip-172-31-22-29.ec2.internal"}

可以看到我們已經過濾成功了,在配置文件中grok其實是使用正則表達式來進行過濾的。我們做個小實驗,比如我現在在例子中的數據ip后面添加兩個“-”。如圖所示:

172.16.213.132 - - [07/Feb/2018:16:24:19 +0800] "GET /HTTP/1.1" 403 5039

那么此時在配置文件中我就需要這樣子來寫:

filter{
        grok{
                match => {"message" => "%{IPV4:ip}\ -\ -\ \[%{HTTPDATE:timestamp}\]"}        }
}

那么此時在match行我就要匹配兩個“-”,否則grok就不能正確匹配數據,從而不能解析數據。

啟動一下來查看一下結果:

[root@:172.31.22.29 /etc/logstash/conf.d]#/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/l2.conf
Sending Logstash logs to /var/log/logstash which is now configured via log4j2.properties172.16.213.132 - - [07/Feb/2018:16:24:19 +0800] "GET /HTTP/1.1" 403 5039      #手動輸入此行內容,然后按下enter鍵。{
    "@timestamp" => 2019-01-22T10:25:46.687Z,
            "ip" => "172.16.213.132",
       "message" => "172.16.213.132 - - [07/Feb/2018:16:24:19 +0800] \"GET /HTTP/1.1\" 403 5039",
     "timestamp" => "07/Feb/2018:16:24:19 +0800",
      "@version" => "1",
          "host" => "ip-172-31-22-29.ec2.internal"
}

這時候我們就得到了信息,我這里是匹配IP和時間,當然你也可以直接匹配時間即可:

filter{
        grok{
                match => {"message" => "\ -\ -\ \[%{HTTPDATE:timestamp}\]"}        }
}

這個時候我們更加能理解grok使用正則匹配數據了。

需要注意的是:正則中,匹配空格和中括號要加上轉義符。

3)過濾出報文頭信息

首先來寫匹配的正則模式

filter{
        grok{
                match => {"message" => "\ %{QS:referrer}\ "}        }
}

啟動一下看看結果:

[root@:172.31.22.29 /etc/logstash/conf.d]#/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/l2.conf
Sending Logstash logs to /var/log/logstash which is now configured via log4j2.properties172.16.213.132 - - [07/Feb/2018:16:24:19 +0800] "GET /HTTP/1.1" 403 5039{    "@timestamp" => 2019-01-22T10:47:37.127Z,
       "message" => "172.16.213.132 - - [07/Feb/2018:16:24:19 +0800] \"GET /HTTP/1.1\" 403 5039",
      "@version" => "1",
          "host" => "ip-172-31-22-29.ec2.internal",
      "referrer" => "\"GET /HTTP/1.1\""}

4)舉一反三,我們嘗試輸出一下/var/log/message字段的時間信息。

例子的數據:

Jan 20 11:33:03 ip-172-31-22-29 systemd: Removed slice User Slice of root.

我們的目的是輸出時間,也就是前三列而已。

這個時候我們可以去找匹配的正則有哪些,要去這個路徑下找:/usr/share/logstash/vendor/bundle/jruby/2.3.0/gems/logstash-patterns-core-4.1.2/patterns目錄下的grok-patterns這個文件,我們發現了這個:

logstash過濾器插件filter介紹

正好非常符合上面輸出的信息。

首先寫好配置文件

filter{
        grok{
                match => {"message" => "%{SYSLOGTIMESTAMP:time}"}
                remove_field => ["message"]        }
}

啟動一下看看情況:

[root@:172.31.22.29 /etc/logstash/conf.d]#/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/l4.conf
Sending Logstash logs to /var/log/logstash which is now configured via log4j2.propertiesJan 20 11:33:03 ip-172-31-22-29 systemd: Removed slice User Slice of root.      #手動輸入此行信息。{
    "@timestamp" => 2019-01-22T11:54:26.646Z,
          "host" => "ip-172-31-22-29.ec2.internal",
      "@version" => "1",          "time" => "Jan 20 11:33:03"}

看到結果已經轉換成功了,非常好用的工具。

1.2、date插件

在上面我們有個例子是講解timestamp字段,表示取出日志中的時間。但是在顯示的時候除了顯示你指定的timestamp外,還有一行是@timestamp信息,這兩個時間是不一樣的,@timestamp表示系統當前時間。兩個時間并不是一回事,在ELK的日志處理系統中,@timestamp字段會被elasticsearch用到,用來標注日志的生產時間,如此一來,日志生成時間就會發生混亂,要解決這個問題,需要用到另一個插件,即date插件,這個時間插件用來轉換日志記錄中的時間字符串,變成Logstash::Timestamp對象,然后轉存到@timestamp字段里面

接下來我們在配置文件中配置一下:

filter{
        grok{
                match => {"message" => "\ -\ -\ \[%{HTTPDATE:timestamp}\]"}
        }        date{                match => ["timestamp","dd/MMM/yyyy:HH:mm:ss Z"]
        }
}

注意:時區偏移量需要用一個字母Z來轉換。還有這里的“dd/MMM/yyyy”,你發現中間是三個大寫的M,沒錯,這里確實是三個大寫的M,我嘗試只寫兩個M的話,轉換失敗

啟動一下我們看看效果:

[root@:172.31.22.29 /etc/logstash/conf.d]#/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/l2.conf
Sending Logstash logs to /var/log/logstash which is now configured via log4j2.properties172.16.213.132 - - [07/Feb/2018:16:24:19 +0800] "GET /HTTP/1.1" 403 5039        #手動輸入此行信息{
          "host" => "ip-172-31-22-29.ec2.internal",
     "timestamp" => "07/Feb/2018:16:24:19 +0800",
    "@timestamp" => 2018-02-07T08:24:19.000Z,
       "message" => "172.16.213.132 - - [07/Feb/2018:16:24:19 +0800] \"GET /HTTP/1.1\" 403 5039",
      "@version" => "1"
}

會發現@timestamp時間轉換成功,因為我寫這篇博客是在2019年1月22日寫的。還有一點就是在時間少8個小時,你發現了嗎?繼續往下看

1.2、remove_field的用法

remove_field的用法也是很常見的,他的作用就是去重,在前面的例子中你也看到了,不管是我們要輸出什么樣子的信息,都是有兩份數據,即message里面是一份,HTTPDATE或者IP里面也有一份,這樣子就造成了重復,過濾的目的就是篩選出有用的信息,重復的不要,因此我們看看如何去重呢?

1)我們還是以輸出IP為例:

filter{
        grok{
                match => {"message" => "%{IP:ip_address}"}
                remove_field => ["message"]        }
        
}

啟動服務查看一下:

[root@:172.31.22.29 /etc/logstash/conf.d]#/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/l5.conf
Sending Logstash logs to /var/log/logstash which is now configured via log4j2.properties172.16.213.132 - - [07/Feb/2018:16:24:19 +0800] "GET /HTTP/1.1" 403 5039      #手動輸入此行內容并按enter鍵{    "ip_address" => "172.16.213.132",
          "host" => "ip-172-31-22-29.ec2.internal",
      "@version" => "1",
    "@timestamp" => 2019-01-22T12:16:58.918Z
}

這時候你會發現沒有之前顯示的那個message的那一行信息了。因為我們使用remove_field把他移除了,這樣的好處顯而易見,我們只需要日志中特定的信息而已。

 2)在上面的幾個例子中我們是把message一行的信息一個一個分開演示了,現在我想在一個logstash中全部顯示出來。

我們先在配置文件中配置一下:

filter{
        grok{
            match => {"message" => "%{IP:ip_address}\ -\ -\ \[%{HTTPDATE:timestamp}\]\ %{QS:referrer}\ %{NUMBER:status}\ %{NUMBER:bytes}"}        }        date{
            match => ["timestamp","dd/MMM/yyyy:HH:mm:ss Z"]        }
        
}

啟動一下,看看情況:

[root@. /etc/logstash/conf.d]#/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/l5.conf
Sending Logstash logs to /var/log/logstash which  now configured via log4j2.properties

{
"status" => "403",
"bytes" => "5039",
"message" => "172.16.213.132 - - [07/Feb/2018:16:24:19 +0800] \"GET /HTTP/1.1\" 403 5039",
"ip_address" => "172.16.213.132",
"timestamp" => "07/Feb/2018:16:24:19 +0800",
"@timestamp" => 2018-02-07T08:24:19.000Z,
"referrer" => "\"GET /HTTP/1.1\"",
"@version" => "1",
"host" => "ip-172-31-22-29.ec2.internal"
}

在這個例子中,你能感受到輸出內容的臃腫,相當于輸出了兩份的內容,因此我們很有必要將原始內容message的這一行給去掉。

3)使用remove_field去掉message這一行的信息。

首先我們修改一下配置文件:

filter{
        grok{
            match => {"message" => "%{IP:ip_address}\ -\ -\ \[%{HTTPDATE:timestamp}\]\ %{QS:referrer}\ %{NUMBER:status}\ %{NUMBER:bytes}"}        }        date{
            match => ["timestamp","dd/MMM/yyyy:HH:mm:ss Z"]        }
        mutate{
            remove_field => ["message","timestamp"]        }

啟動一下看看:

[root@:. /etc/logstash/conf.d]#/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/l5.conf
Sending Logstash logs to /var/log/logstash which  now configured via log4j2.properties

 看到了嗎這就是我們想要的最終結果

1.3、時間處理(date)

上面有幾個例子已經講到了date的用法。date插件對于排序事件和回填舊數據尤其重要,它可以用來轉換日志記錄中的時間字段,變成Logstash::timestamp對象,然后轉存到@timestamp字段里面。

為什么要使用這個插件呢?

  1、一方面由于Logstash會給收集到的每條日志自動打上時間戳(即@timestamp),但是這個時間戳記錄的是input接收數據的時間,而不是日志生成的時間(因為日志生成時間與input接收的時間肯定不同),這樣就可能導致搜索數據時產生混亂。

  2、另一方面,在上面那段rubydebug編碼格式的輸出中,@timestamp字段雖然已經獲取了timestamp字段的時間,但是仍然比北京時間晚了8個小時,這是因為在Elasticsearch內部,對時間類型字段都是統一采用UTC時間,而日志統一采用UTC時間存儲,是國際安全、運維界的一個共識。其實這并不影響什么,因為ELK已經給出了解決方案,那就是在Kibana平臺上,程序會自動讀取瀏覽器的當前時區,然后在web頁面自動將UTC時間轉換為當前時區的時間。

 

如果你要解析你的時間,你要使用字符來代替,用于解析日期和時間文本的語法使用字母來指示時間(年、月、日、時、分等)的類型。以及重復的字母來表示該值的形式。在上面看到的"dd/MMM/yyy:HH:mm:ss Z",他就是使用這種形式,我們列出字符的含義:

logstash過濾器插件filter介紹

那我們是依據什么寫出“dd/MMM/yyy:HH:mm:ss Z”這樣子的形式的呢?

這一點不好理解,給大家盡量說清楚。比如上面的試驗數據是

172.16.213.132 - - [07/Feb/2018:16:24:19 +0800] "GET /HTTP/1.1" 403 5039

現在我們想轉換時間,那就要寫出"dd/MMM/yyy:HH:mm:ss Z",你發現中間有三個M,你要是寫出兩個就不行了,因為我們查表發現兩個大寫的M表示兩位數字的月份,可是我們要解析的文本中,月份則是使用簡寫的英文,所以只能去找三個M。還有最后為什么要加上個大寫字母Z,因為要解析的文本中含有“+0800”時區偏移,因此我們要加上去,否則filter就不能正確解析文本數據,從而轉換時間戳失敗。

 

1.4、數據修改mutate插件

mutate插件是logstash另一個非常重要的插件,它提供了豐富的基礎類型數據處理能力,包括重命名、刪除、替換、修改日志事件中的字段。我們這里舉幾個常用的mutate插件:字段類型轉換功能covert、正則表達式替換字段功能gsub、分隔符分隔字符串為數值功能split、重命名字段功能rename、刪除字段功能remove_field

1)字段類型轉換convert

先修改配置文件:

filter{
        grok{
                match => {"message" => "%{IPV4:ip}"}
                remove_field => ["message"]        }
        mutate{
                convert => ["ip","string"]        }
}

或者這樣子寫也行,寫法區別較小:

filter{
        grok{
                match => {"message" => "%{IPV4:ip}"}
                remove_field => ["message"]        }
        mutate{
                convert => {                        "ip" => "string"                }
        }
}

現在我們啟動服務查看一下效果:

[root@:172.31.22.29 /etc/logstash/conf.d]#/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/l6.conf
Sending Logstash logs to /var/log/logstash which is now configured via log4j2.properties172.16.213.132 - - [07/Feb/2018:16:24:9 +0800] "GET /HTTP/1.1" 403 5039{
    "@timestamp" => 2019-01-23T04:13:55.261Z,
            "ip" => "172.16.213.132",
          "host" => "ip-172-31-22-29.ec2.internal",
      "@version" => "1"
}

在這里的ip行中,效果可能不太明顯,但是確實是已經轉化成string模式了。

2)正則表達式替換匹配字段

gsub可以通過正則表達式替換字段中匹配到的值,但是這本身只對字符串字段有效

首先把修改配置文件看看

filter{
        grok{
                match => {"message" => "%{QS:referrer}"}
                remove_field => ["message"]        }
        mutate{
                gsub => ["referrer","/","-"]        }
}

啟動一下看看效果:

172.16.213.132 - - [07/Feb/2018:16:24:9 +0800] "GET /HTTP/1.1" 403 5039{
          "host" => "ip-172-31-22-29.ec2.internal",
    "@timestamp" => 2019-01-23T05:51:30.786Z,
      "@version" => "1",
      "referrer" => "\"GET -HTTP-1.1\""
}

很不錯,確實對QS的部分的分隔符換做橫杠了

 3)分隔符分隔字符串為數組

split可以通過指定的分隔符分隔字段中的字符串為數組。

首先配置文件

filter{
        mutate{
                split => ["message","-"]
                add_field => ["A is lower case :","%{[message][0]}"]        }
}

這里的意思是對一個字段按照“-”進行分隔為數組

啟動一下:

a-b-c-d-e-f-g            #手動輸入此行內容,并按下enter鍵。{    "A is lower case :" => "a",
              "message" => [
        [0] "a",
        [1] "b",
        [2] "c",
        [3] "d",
        [4] "e",
        [5] "f",
        [6] "g"
    ],
                 "host" => "ip-172-31-22-29.ec2.internal",
             "@version" => "1",
           "@timestamp" => 2019-01-23T06:07:18.062Z
}

4)重命名字段

rename可以實現重命名某個字段的功能。

filter{
        grok{
                match => {"message" => "%{IPV4:ip}"}
                remove_field => ["message"]        }
        mutate{
                convert => {                        "ip" => "string"                }
                rename => {                        "ip"=>"IP"                }
        }
}

rename字段使用大括號{}括起來,其實我們也可以使用中括號達到同樣的目的

mutate{
                convert => {                        "ip" => "string"                }
                rename => ["ip","IP"]
        }

啟動后檢查一下:

172.16.213.132 - - [07/Feb/2018:16:24:9 +0800] "GET /HTTP/1.1" 403 5039      #手動輸入此內容{      "@version" => "1",
    "@timestamp" => 2019-01-23T06:20:21.423Z,
          "host" => "ip-172-31-22-29.ec2.internal",
            "IP" => "172.16.213.132"}

5)刪除字段,這個不多說,我們上面已經有例子了。

6)添加字段add_field。

添加字段多用于split分隔中,主要是對split分隔后的字段中指定格式輸出。

filter {
  mutate {
    split => [
      add_field => {

添加字段后,該字段會與@timestamp一樣同等格式顯示出來。

1.5、geoip地址查詢歸類

geoip是常見的免費的IP地址歸類查詢庫,geoip可以根據IP地址提供對應的地域信息,包括國別,省市,經緯度等等,此插件對于可視化地圖和區域統計非常有用。

首先我們修改一下配置文件來看看

filter{
        grok {
                match => {                        "message" => "%{IP:ip}"                }
                remove_field => ["message"]        }
        geoip {
                source => "ip"        }
}

  中間match的部分也可以替換成下圖例子:

grok {
             match => ["message","%{IP:ip}"]
             remove_field => ["message"]
      }

啟動一下看看效果:

[root@:172.31.22.29 /etc/logstash/conf.d]#/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/l7.conf
Sending Logstash logs to /var/log/logstash which is now configured via log4j2.properties114.55.68.111 - - [07/Feb/2018:16:24:9 +0800] "GET /HTTP/1.1" 403 5039      #手動輸入此行信息{
            "ip" => "114.55.68.111",
         "geoip" => {
             "city_name" => "Hangzhou",
           "region_code" => "33",
              "location" => {
            "lat" => 30.2936,
            "lon" => 120.1614
        },
             "longitude" => 120.1614,
              "latitude" => 30.2936,
         "country_code2" => "CN",
              "timezone" => "Asia/Shanghai",
                    "ip" => "114.55.68.111",
         "country_code3" => "CN",
        "continent_code" => "AS",
          "country_name" => "China",
           "region_name" => "Zhejiang"
    },
          "host" => "ip-172-31-22-29.ec2.internal",
      "@version" => "1",
    "@timestamp" => 2019-01-23T06:47:51.200Z
}

成功了。

但是上面的內容并不是每個都是我們想要的,因此我們可以選擇性的輸出。

繼續修改內容如下:

filter{
        grok {
                match => ["message","%{IP:ip}"]
                remove_field => ["message"]        }
        geoip {
                source => ["ip"]
                target => ["geoip"]
                fields => ["city_name","region_name","country_name","ip"]        }
}

啟動一下看看:

114.55.68.111 - - [07/Feb/2018:16:24:9 +0800] "GET /HTTP/1.1" 403 5039      #手動輸入此行信息{    "@timestamp" => 2019-01-23T06:57:29.955Z,
            "ip" => "114.55.68.111",
         "geoip" => {
           "city_name" => "Hangzhou",
                  "ip" => "114.55.68.111",
        "country_name" => "China",
         "region_name" => "Zhejiang"    },      "@version" => "1",
          "host" => "ip-172-31-22-29.ec2.internal"}

發現輸出的內容果然變少了,我們想輸出什么他就輸出什么內容。

 

1.6、filter插件綜合應用。

我們的業務例子如下所示:

112.195.209.90 - - [20/Feb/2018:12:12:14 +0800] "GET / HTTP/1.1" 200 190 "-" "Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Mobile Safari/537.36" "-"

日志中的雙引號、單引號、中括號等不能被正則解析的都要加上轉義符號,詳情可見這里:https://www.cnblogs.com/ysk123/p/9858387.html

現在我們修改配置文件進行匹配

filter{
        grok {
                match => ["message","%{IPORHOST:client_ip}\ -\ -\ \[%{HTTPDATE:timestamp}\]\ %{QS:referrer}\ %{NUMBER:status}\ %{NUMBER:bytes}\ \"-\"\ \"%{DATA:browser_info}\ %{GREEDYDATA:extra_info}\"\ \"-\""]        }
        geoip {
                source => ["client_ip"]
                target => ["geoip"]
                fields => ["city_name","region_name","country_name","ip"]        }        date {
                match => ["timestamp","dd/MMM/yyyy:HH:mm:ss Z"]        }
        mutate {
                remove_field => ["message","timestamp"]        }
}

然后啟動一下看看效果:

[root@:vg_adn_tidbCkhsTest:23.22.172.65:172.31.22.29 /etc/logstash/conf.d]#/usr/share/logstash/bin/logstash -f /etc/logstash/conf.d/l9.conf
Sending Logstash logs to /var/log/logstash which is now configured via log4j2.properties112.195.209.90 - - [20/Feb/2018:12:12:14 +0800] "GET / HTTP/1.1" 200 190 "-" "Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Mobile Safari/537.36" "-"{
        "referrer" => "\"GET / HTTP/1.1\"",
           "bytes" => "190",
       "client_ip" => "112.195.209.90",
      "@timestamp" => 2018-02-20T04:12:14.000Z,
    "browser_info" => "Mozilla/5.0",
      "extra_info" => "(Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Mobile Safari/537.36",
          "status" => "200",
            "host" => "ip-172-31-22-29.ec2.internal",
        "@version" => "1",
           "geoip" => {
           "city_name" => "Chengdu",
         "region_name" => "Sichuan",
        "country_name" => "China",
                  "ip" => "112.195.209.90"
    }
}

上面紅色字體的是我們手動輸入進去的內容,下面金色字體是系統反饋給我們的信息。

通過信息我們可以查看信息已經過濾成功了。非常好。

注意:有一點需要注意:在匹配信息的時候,GREEDYDATA與DATA匹配的機制是不一樣的,GREEDYDATA是貪婪模式,而DATA則是能少匹配一點就少匹配一點。通過上面的例子大家再體會一下

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

晋江市| 临汾市| 巴青县| 鹤岗市| 卢湾区| 体育| 英山县| 绩溪县| 武乡县| 碌曲县| 惠来县| 翼城县| 阿坝县| 沿河| 蛟河市| 广东省| 泸西县| 迁安市| 南昌市| 耒阳市| 渝中区| 大城县| 灌云县| 安义县| 卢湾区| 通化市| 阳城县| 高平市| 云林县| 四川省| 六盘水市| 松潘县| 吴江市| 鲜城| 佛冈县| 清远市| 合肥市| 长沙县| 通化县| 惠水县| 勃利县|