亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

為什么Kafka這么厲害

發布時間:2021-10-19 15:11:56 來源:億速云 閱讀:132 作者:iii 欄目:開發技術

這篇文章主要講解了“為什么Kafka這么厲害”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“為什么Kafka這么厲害”吧!

1 Kafka 簡介

1.1 Kafka 概述

為什么Kafka這么厲害

Kafka架構

Kafka 是一個分布式的基于發布/訂閱模式的消息隊列,依靠其強悍的吞吐量,Kafka  主要應用于大數據實時處理領域。在數據采集、傳輸、存儲的過程中發揮著舉足輕重的作用。

  1. 鴻蒙官方戰略合作共建——HarmonyOS技術社區

  2. Apache Kafka 由 Scala  寫成,是由Apache軟件基金會開發的一個開源消息系統項目。該項目的目標是為處理實時數據提供一個統一、高通量、低等待的平臺。

  3. Kafka 是一個分布式消息隊列,Kafka 對消息保存時根據 Topic 進行歸類,Kafka 集群有多個 Kafka實例組成,每個實例 Server  稱為 broker。

  4. 無論是 Kafka 集群還是 Consumer 都依賴于 ZooKeeper 集群保存一些 meta 信息,來保證系統可用性

1.2 Kafka 優點

  1. 支持多個生產者和消費者。

  2. 支持broker的橫向拓展。

  3. 副本集機制,實現數據冗余,保證數據不丟失。

  4. 通過 topic 將數據進行分類。

  5. 通過分批發送壓縮數據的方式,減少數據傳輸開銷,提高吞高量。

  6. 支持多種模式的消息,消息是基于磁盤實現數據的持久化。

  7. 高性能的處理信息,在大數據的情況下,可以保證亞秒級的消息延遲。

  8. 一個消費者可以支持多種 topic 的消息。

  9. 對CPU、內存、網絡的消耗比較小。

  10. 支持跨數據中心的數據復制跟鏡像集群。

1.3 Kafka 缺點

  1. 鴻蒙官方戰略合作共建——HarmonyOS技術社區

  2. 由于是批量發送,所以數據達不到真正的實時。

  3. 只能支持統一分區內消息有序,無法實現全局消息有序。

  4. 監控不完善,需要安裝插件。

  5. 會丟失數據,并且不支持事務。

  6. 可能會重復消費數據,消息會亂序,可用保證一個固定的partition內部的消息是有序的,但是一個topic有多個partition的話,就不能保證有序了,需要zookeeper的支持,topic一般需要人工創建,部署和維護一般都比mq高。

1.4 Kafka 架構

為什么Kafka這么厲害

  1. Broker:一臺 kafka 服務器就是一個broker。一個集群由多個broker組成。一個broker可以容納多個topic。

  2. Producer :消息生產者,就是向 Kafka broker 發消息的客戶端。

  3. Consumer :消息消費者,向 Kafka broker 拉取消息來消費。可以根據 Consumer 的消費能力以適當的速率消費消息。

  4. Topic :可以理解為一個隊列,生產者和消費者面向的都是一個topic。

  5. Partition:為了實現擴展性,一個非常大的 topic 可以分布到多個broker上,一個 topic 可以分為多個partition,每個  partition 是一個有序的隊列,有點平衡分攤生產者機制。

  6. Replication:為保證集群中的某個節點發生故障時,該節點上的partition數據不丟失,且kafka仍然能夠繼續工作,kafka提供了副本機制,一個topic的每個分區都有若干個副本,一個leader和若干個follower。

  7. leader:一個分區有一個Leader,生產者發送數據的對象,以及消費者消費數據的對象都是leader。

  8. follower:一個分區有一個Follower,實時從 leader 中同步數據,保持和 leader 數據的同步。leader 發生故障時,某個  follower 會成為新的 follower。注意Kafka中 副本數不能超過Broker數!

  9. Consumer Group :消費者組由多個 consumer  組成。組內每個消費者負責消費不同分區的數據,一個分區只能由一個組內消費者消費;消費者組之間互不影響。所有的消費者都屬于某個消費者組,即消費者組是邏輯上的一個訂閱者。

  10. offset:消費者在具體消費某個 topic 中的消息時,可以指定起始偏移量。

1.5 ZooKeeper 作用

ZooKeeper 在 Kafka 中有舉足輕重的地位,一般提供如下功能:

1.5.1 Broker 注冊

Broker 是分布式部署并且相互之間相互獨立,但是需要有一個注冊系統能夠將整個集群中的Broker管理起來,比如用ZooKeeper。

1.5.2 Topic注冊

在 Kafka 中同一個 Topic 的消息會被分成多個 Partition 并將其分布在多個 Broker 上,這些 Partition 信息及與  Broker 的對應關系也都是由 Zookeeper 在維護,由專門的節點來記錄。

1.5.3 生產者負載均衡

同一個Topic消息會被分區并將其分布在多個Broker上,因此,生產者需要將消息合理地發送到這些分布式的Broker上。

老式的四層負載均衡,根據生產者的IP地址和端口來為其確定一個相關聯的Broker。一般一個生產者只會對應單個Broker,但實際系統中的每個生產者產生的消息量及每個Broker的消息存儲量都是不一樣的。

使用 Zookeeper  進行負載均衡,由于每個Broker啟動時,都會完成Broker注冊過程,生產者會通過該節點的變化來動態地感知到Broker服務器列表的變更,這樣就可以實現動態的負載均衡機制。

1.5.4 消費者負載均衡

Kafka 中的消費者同樣需要進行負載均衡來實現多個消費者合理地從對應的 Broker  服務器上接收消息,每個消費者分組包含若干消費者,每條消息都只會發送給分組中的一個消費者,不同的消費者分組消費自己特定的Topic下面的消息,互不干擾。

1.5.5 分區 與 消費者 的關系

Kafka 會為每個 Consumer Group 分配個全局唯一 Group ID,Group 內的 Consumer 共享該 ID,Kafka規定  每個partition信息只能被同組的一個Consumer 消費,在Zk中記錄partition 跟  Consumer關系,每個消費者一旦確定了對一個消息分區的消費權力,需要將其Consumer ID 寫入到 Zookeeper  對應消息分區的臨時節點上。

1.5.6 消息消費進度 Offset 記錄

Consumer 對指定消息分區進行消費的過程中,需要定時地將分區消息的消費進度 Offset 記錄到 Zookeeper 上,以便在該 Consumer  進行重啟或者其他 Consumer 重新接管該消息分區的消息消費后,能夠從之前的進度開始繼續進行消息消費。

1.5 7 消費者注冊

為讓同一個 Topic 下不同分區的消息盡量均衡地被多個 Consumer 消費而進行 Consumer 與消息分區分配的過程。

Consumer 啟動后在ZK下創建個節點,并且每個 Consumer 會對 Consumer Group 中的 Consumer  的變化注冊監聽,目的是為了保證 Consumer 負載均衡。

Consumer 會對Broker列表監聽,發生變化會進行 Consumer 負載均衡。

2 Kafka 生成過程

2.1 寫入方式

producer采用 push 模式將消息發布到 broker,每條消息都被 append 到 patition 中,屬于 順序寫磁盤  ,順序寫比隨機寫要起碼提速3個數量級!

2.2 分區 Partition

2.2.1 Partition 簡介

消息發送時都被發送到一個topic,其本質就是一個目錄,而topic是由一些 分區日志 Partition Logs 組成,其組織結構如下圖所示:

為什么Kafka這么厲害

Partition發生

可以看到每個 Partition 中的消息都是有序的,生產的消息被不斷追加到 Partition log 上,其中的每一個消息都被賦予了一個唯一的  offset 值。

為什么Kafka這么厲害

消費者

通過分區可以 方便在集群中擴展,可以提高并發。

形象理解:

Kafka  的設計源自生活,好比為公路運輸,不同的起始點和目的地需要修不同高速公路(主題),高速公路上可以提供多條車道(分區),流量大的公路(主題)多修幾條車道(分區)保證暢通,流量小的公路少修幾條車道避免浪費。收費站好比消費者,車多的時候多開幾個一起收費避免堵在路上,車少的時候開幾個讓汽車并道就好了。

2.2.2 分區原則

我們需要將producer發送的數據封裝成一個ProducerRecord對象。

為什么Kafka這么厲害

數據封裝

  1. 指明 partition 的情況下,直接將指明的值直接作為 partiton 值。

  2. 沒有指明 partition 值但有 key 的情況下,將 key 的 hash 值與 topic 的 partition 數進行取余得到  partition 值。

  3. 既沒有 partition 值又沒有 key 值的情況下,第一次調用時隨機生成一個整數(后面每次調用在這個整數上自增),將這個值與 topic 可用的  partition 總數取余得到 partition 值,也就是常說的 round-robin 算法。

2.3 Kafka 文件存儲機制

為什么Kafka這么厲害

Kafka存儲結構

  1. Kafka 中消息是以 topic 進行分類的,生產者跟消費者都是面向 topic 的,topic 只是邏輯上的概念,而 Partition  是物理上的概念,每個 Partition 對應個 log 文件,每個分區用  .index`存放數據索引,`.log存儲數據。index文件中的元數據指向對應log文件中Message的物理偏移地址(參考  kaldi、Neo4j)。

  2. 為防止 log 文件過大導致數據定位效率低下,Kafka采取了分片和索引機制,將每個partition分為多個segment。每個 segment  對應.index`跟`.log。這些文件位于一個文件夾下,該文件夾的命名規則為:topic名稱 + 分區序號。例如 first 這個 topic  有三個分區,則其對應的文件夾為first-0、first-1、first-2。

100000000000000000000.index 200000000000000000000.log 300000000000000170410.index 400000000000000170410.log 500000000000000239430.index 600000000000000239430.log

注意:index 和 log 文件以當前segment的第一條消息的 offset 命名。

為什么Kafka這么厲害

數據查找過程

2.4 如何保證消息順序執行

2.4.1 順序錯亂

Kafka 一個 topic,一個 partition,一個 Consumer,但是 Consumer  內部進行多線程消費,這樣數據也會出現順序錯亂問題。

為什么Kafka這么厲害

多線程消費

數據有順序的數據寫入到了不同的 partition 里面,不同的消費者去消費,但是每個 Consumer 的執行時間是不固定的,無法保證先讀到消息的  Consumer 一定先完成操作,這樣就會出現消息并沒有按照順序執行,造成數據順序錯誤。

為什么Kafka這么厲害

多個消費者

2.4.2 解決辦法

確保同一個消息發送到同一個 partition,一個topic,一個partition,一個consumer,內部單線程消費。

  • 寫入同一個Partition的信息一定有序。

  • 給信息指定一個key,key相同則一定寫入同一個partition。

  • 從同一個Partition讀取信息一定有序。

為什么Kafka這么厲害

單線程消費

在1的基礎上,在一個 Consumer 上根據信息ID映射到不同隊列,以此加速消費。

為什么Kafka這么厲害

內存隊列

4 數據可靠性

4.1 消息傳遞語義

消息傳遞語義 message delivery semantic ,Kafka 為確保消息在 producer 和 consumer  之間傳輸。有以下三種傳輸保障(delivery guarantee):

  1. at most once:最多一次,消息可能會丟,但絕不會重復傳輸。

  2. at least once:至少一次,消息絕不會丟,但可能會重復傳輸。

  3. exactly once:精確傳遞一次。消息被處理且只會被處理一次。不丟失不重復就一次。

理想情況下肯定希望系統的消息傳遞是嚴格 exactly once,但很難做到。接下來會按照 消息的傳播流程大致說下。

4.2 信息從生產者到 Broker

4.2.1 生產者信息發送至Broker

大致步驟如下:

  1. producer 從 ZK 找到目標 Partition 的 Leader 元數據。

  2. producer 發送消息給 Leader。

  3. Leader 接受消息持久化,然后根據acks配置選擇如何同步Follower。

  4. Followder 按照前面說的同步數據后給Leader回復ack。

  5. Leader 跟 Follower 同步完畢后 Leader 給 producer 回復 ack。

對于Leader回復 ack,Kafka 為用戶提供了三種可靠性級別,用戶根據對可靠性和延遲的要求進行權衡。

  • request.required.acks = 0

producer不等待 broker 的ack,提供了一個最低的延遲,broker接收到還沒有寫入磁盤就已經返回,當broker故障時有可能丟失數據,對應  At Most Once 模式。

但凡沒落盤成功信息就丟失了,一般生產不用。

  • request.required.acks = 1

此乃默認值,producer 等待 broker 的 ack,partition  的leader落盤成功后返回ack,如果在follower同步成功之前leader故障,那么將會丟失數據;認為leader返回 信息就成功了。

  • request.required.acks = -1 / all

producer 等待 broker 的 ack,partition 的 leader 和 follower (ISR中的)全部落盤成功后才返回  ack。

但如果在 leader 收到信息返回ok,follower 收到信息但是發送 ack 時 leader 故障,此時生產者會重新給follower  發送個信息。

對應 At Least Once 模式。

4.2.2 如何保證冪等性

如果業務需要數據 Exactly Once,在早期的 Kafka 版本中  只能在下游去重,現在引入了個冪等性,意思就是無論生產者發送多少個重復消息,Server端只會持久化一條數據,

At Least Once + 冪等性 = Exactly Once

啟動冪等性,在生產者參數中 enable.idompotence=  true,開啟冪等性的生產者在初始化時候會被分配一個PID,發送同一個Partition的消息會附帶Sequence  Number,Broker會對做緩存,以此來判斷唯一性。但是如果PID重啟就會發生變化,同時不同partition也具有不同的主鍵,冪等性無法保證跨分區會話的  Exactly Once。

4.3 Kafka Broker 信息落磁盤

為什么Kafka這么厲害

數據落盤過程

Kafka Broker 收到信息后,如何落盤是通過 producer.type 來設定的,一般兩個值。

sync,默認模式,數據必須最終落盤才算OK。

async,異步模式,數據刷新到OS的 Page Cache就返回,此時如果機器突然出問題,信息就丟失了。

4.4 消費者從 Kafka Broker 消費數據

為什么Kafka這么厲害

消費數據

Consumer 是以 Consumer Group  消費者組的方式工作,由一個或者多個消費者組成一個組,共同消費一個topic。每個分區在同一時間只能由group中的一個消費者讀取,但是多個group可以同時消費這個partition。如果一個消費者失敗了,那么其他的  group 成員會自動負載均衡讀取之前失敗的消費者讀取的分區。Consumer Group 從 Broker 拉取消息來消費主要分為兩個階段:

獲得數據,提交 Offset。

開始處理數據。

如果你先提交 offset 再處理數據可能在處理數據時出現異常導致數據丟失。而如果你先處理數據再提交 offset, 如果提交 offset  失敗可能導致信息重復消費。

PS:

pull 模式不足之處是,如果 kafka 沒有數據,消費者可能會陷入循環中,一直返回空數據。針對這一點,Kafka的消費者在消費數據時會傳入一個時長參數  timeout,如果當前沒有數據可供消費,consumer會等待一段時間之后再返回,這段時長即為 timeout。

5 Kafka 分區分配策略

同一個 group.id 中的消費者,對于一個 topic 中的多個 partition 中的消息消費,存在著一定的分區分配策略。

在 Kafka 中存在著兩種分區分配策略,通過 partition.assignment.strategy 來設置。

  • RangeAssignor 范圍分區策略,也是默認模式。

  • RoundRobinAssignor 分配策略,輪詢分區模式。

5.1 RangeAssignor 范圍分區策略

Range 范圍分區策略是對每個 topic 而言的。首先對同一個 topic 里面的分區按照序號進行排序,并對消費者按照字母順序進行排序。假如現在有  10 個分區,3 個消費者,排序后的分區將會是p0~p9。消費者排序完之后將會是C1-0、C2-0、C3-0。通過 Partitions數 /  Consumer數 來決定每個消費者應該消費幾個分區。如果除不盡,那么前面幾個消費者將會多消費 1 個分區。

消費者消費的分區
C1-0消費 p0、1、2、3分區
C2-0消費 4、5、6分區
C3-0消費 7、8、9分區

Range 范圍分區的弊端:

如上只是針對 1 個 topic 而言,C1-0 消費者多消費1個分區影響不是很大。如果有 N 多個 topic,那么針對每個 topic,消費者  C1-0 都將多消費 1 個分區,topic越多,C1-0 消費的分區會比其他消費者明顯多消費 N 個分區。這就是 Range  范圍分區的一個很明顯的弊端了.

5.2 RoundRobinAssignor 輪詢分區策略

RoundRobin 輪詢分區策略是把所有的 partition 和所有的 consumer 都列出來,然后按照 hascode  進行排序,最后通過輪詢算法來分配 partition 給到各個消費者。輪詢分區分為如下兩種情況:

  • 同一個 Consumer Group 內 Consumer 訂閱信息相同

  • 同一個 Consumer Group 內 Consumer 訂閱信息不相同

5.2.1 Consumer Group 內 Consumer 訂閱信息相同

如果同一消費組內,所有的消費者訂閱的消息都是相同的,那么 RoundRobin 策略的分區分配會是均勻的。

例如同一消費者組中,有 3 個消費者C0、C1和C2,都訂閱了 2 個主題 t0 和 t1,并且每個主題都有 3  個分區(p0、p1、p2),那么所訂閱的所以分區可以標識為t0p0、t0p1、t0p2、t1p0、t1p1、t1p2。最終分區分配結果如下:

消費者消費的分區
C0消費 t0p0、t1p0 分區
C1消費 t0p1、t1p1 分區
C2消費 t0p2、t1p2 分區

5.2.1 Consumer Group 內 Consumer 訂閱信息不相同

同一消費者組內,所訂閱的消息是不相同的,那么分區分配就不是完全的輪詢分配,有可能會導致分區分配的不均勻。如果某個消費者沒有訂閱消費組內的某個  topic,那么在分配分區的時候,此消費者將不會分配到這個 topic 的任何分區。

例如同一消費者組中有3個消費者C0、C1、C2,他們共訂閱了 3 個主題t0、t1、t2,這 3 個主題分別有 1、2、3  個分區(即t0有1個分區(p0),t1有2個分區(p0、p1),t2有3個分區(p0、p1、p2)),即整個消費者所訂閱的所有分區可以標識為  t0p0、t1p0、t1p1、t2p0、t2p1、t2p2。然后消費者 C0  訂閱的是主題t0,消費者C1訂閱的是主題t0和t1,消費者C2訂閱的是主題t0、t1和t2,最終分區分配結果如下:

消費者消費的分區
C0消費 t0p0 分區
C1消費 t1p0 分區
C2消費 t1p1、 t2p0、 t2p1、 t2p2 分區

6 Kafka 高效讀寫

Kafka 可支持百萬 TPS 跟如下幾個特性有關。

6.1 順序讀寫數據

信息存儲在硬盤中,硬盤由很多盤片組成,顯微鏡觀察盤片會看見盤片表面凹凸不平,凸起的地方被磁化代表數字1,凹的地方是沒有被磁化代表數字0,因此硬盤可以以二進制來存儲表示文字、圖片等信息。

為什么Kafka這么厲害

磁盤平面圖

上圖是硬盤的實際圖,可能無法理解內部構造,我們來看個形象的圖:

為什么Kafka這么厲害

磁盤內部圖

  1. 系統通過磁頭從盤面讀取數據,磁頭在盤面上的飛行高度只是人類頭發直徑的千分之一。

  2. 硬盤里的盤片跟CD光盤的長相類似,一個盤片有上下兩個盤面,每個盤面都可以存儲數據。

  3. 每個盤面會被劃分出超級多的同心圓磁道,同心圓的半徑是不同的。

  4. 所有磁盤上的同一磁道構成一個柱面,相同磁道的同一個扇區被稱為簇。數據的讀寫按照柱面從上到下進行,一個柱面寫滿后,才移到下一個扇區開始寫數據。

  5. 一個磁道是被劃分成一段段的圓弧(扇區),每個扇區用來存儲 512個字節跟其他信息。由于同心圓的扇區弧度相同而半徑不同所以外圈線速度比內圈線速度大。

  6. 系統每次讀取一個扇區效率太低,所以操作系統是按照block來進行讀取數據的,一個block(塊)一般有多個扇區組成。在每塊的大小是 4~64KB。

  7. 頁page,默認4KB,操作系統經常與內存和硬盤這兩種存儲設備進行通信,類似于塊的概念,都需要一種虛擬的基本單位。所以與內存操作,是虛擬一個頁的概念來作為最小單位。與硬盤打交道,就是以塊為最小單位。

扇區:硬盤的最小讀寫單元

塊/簇:是操作系統針對硬盤讀寫的最小單元

page:是內存與操作系統之間操作的最小單元。

一次訪盤的讀/寫請求完成過程由三個動作組成:

  1. 尋道:磁頭從開始移動到數據所在磁道所需要的時間,平均10ms左右。

  2. 旋轉延遲:盤片旋轉將請求數據所在扇區移至讀寫磁頭下方所需要的時間,旋轉延遲取決于磁盤轉速。如果是 5400 轉每分鐘的磁盤,平均大概為 5 ms。

  3. 數據傳輸:磁頭位從目標扇區第一個位置,到訪問完所有數據的耗時。假如5400轉的磁道有400個扇區,我只訪問一個則耗時 0.0278ms。

可以發現讀取主要耗時是在前兩個,如果我順序讀取則尋道跟旋轉延遲只用一次即可。而如果隨機讀取呢則可能經歷多次尋道跟旋轉延遲,兩者相差幾乎  3個數量級。

為什么Kafka這么厲害

隨機跟順序讀寫在磁盤跟內存中

6.2 Memory Mapped Files 內存映射文件

  1. 虛擬內存系統 通過將虛擬內存分割為稱作虛擬頁(Virtual  Page,VP)大小固定的塊,一般情況下,每個虛擬頁的大小默認是4KB。同樣的,物理內存也被分割為物理頁(Physical  Page,PP),也為4KB。

  2. 服務器可直接用 操作系統的 Page  來實現物理內存到文件的映射,用戶操作讀寫數據會直接到Page中,操作系統會根據映射自動的將對物理內存的操作同步到硬盤上。實現類似順序讀寫內存的功能。

  3. 缺點在Broker信息落盤時候也說了,落的不是真正磁盤可能導致數據丟失。

為什么Kafka這么厲害

內存映射

6.3 Zero Copy

6.3.1 直接內存存取 DMA

CPU 發出指令操作 IO 來進行讀寫操作,大部分情況下其實只是把數據讀取到內存,然后從內存傳到IO即可,所以數據其實可以不經過CPU的。

Direct Memory Access 的出現就是為批量數據的輸入/輸出而提速的。DMA  是指外部設備不通過CPU而直接與系統內存交換數據的接口技術。這樣數據的傳送速度就取決于存儲器和外設的工作速度。

如果數據傳輸的時候只用到了 DMA 傳輸而沒經過 CPU 復制數據,則我們稱之為零拷貝 Zero Copy。用了 Zero Copy  技術耗時性能起碼減半。

6.3.2 Kafka 讀寫對比

為什么Kafka這么厲害

零拷貝

如上黑色流程是沒用 Zero Copy 技術流程:

  1. DMA傳輸,磁盤讀取數據到操作系統內存 Page Cache 區。

  2. CPU搬運,數據從 Page Cache 區數據復制到用戶內存區。

  3. CPU搬運,數據從用戶內存區到 Socket Cache 區。

  4. DMA傳輸,數據從 Socket Cache 區傳輸到 NIC網卡緩存區。

紅色流程是用 Zero Copy 技術流程:

  1. DMA傳輸,磁盤讀取數據到操作系統內存 Page Cache 區。

  2. DMA傳輸,數據從 系統內存 Page Cache 區傳輸到 NIC網卡緩存區。

6.4 Batch Deal

消費者拉取數據的時候,Kafka  不是一個一個的來送數據的,而是批量發送來處理的,這樣可以節省網絡傳輸,增大系統的TPS,不過也有個缺點就是,我們的數據不是真正的實時處理的,而真正的實時還是要看  Flink。

感謝各位的閱讀,以上就是“為什么Kafka這么厲害”的內容了,經過本文的學習后,相信大家對為什么Kafka這么厲害這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

花莲县| 鄂托克旗| 北京市| 鱼台县| 台山市| 永仁县| 绍兴县| 天等县| 微山县| 文水县| 宁河县| 浪卡子县| 惠水县| 福建省| 达拉特旗| 昆明市| 黑龙江省| 平谷区| 都昌县| 德钦县| 上虞市| 龙州县| 噶尔县| 新源县| 原平市| 万载县| 确山县| 丰顺县| 保山市| 宾川县| 石门县| 湖南省| 闽侯县| 汉沽区| 隆子县| 茶陵县| 宝应县| 石柱| 凯里市| 金华市| 新宾|