亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

輕量級可嵌入多維分析后臺

發布時間:2020-07-13 12:44:35 來源:網絡 閱讀:176 作者:raqsoft 欄目:大數據

問題的提出

多維分析(BI)系統后臺數據源通常有三種選擇。一、普通數據庫;二、專業數據倉庫;三、BI 系統自帶的數據源。

但是,這三種選擇都有各自的問題。普通數據庫一般都是行式存儲,很難獲得多維分析希望的高性能,只適用較小數據量。專業數據倉庫有不少是列式存儲的,性能問題不大,但是價格都比較昂貴,建設、擴展和維護成本也都非常高。BI 系統自帶的數據源都比較封閉,只能為自家的 BI 前端提供支持,無法為多個不同廠家的前端提供數據服務。

解決思路與過程

集算器可以獨立承擔輕量級多維分析后臺的作用,相當于中小型數據倉庫或者數據集市。結構圖如下:
輕量級可嵌入多維分析后臺
集算器可以將多維分析的數據事先以列存形式存儲到二進制文件中,稱為組表。多維分析前端應用拖拽生成 SQL,通過集算器 JDBC 提交。集算器對組表執行 SQL 查詢,將結果返回給多維分析前端。組表文件也可由集算器從各種異構數據源采集數據并計算而來。

和普通數據庫方案相比,集算器列存的二進制文件能夠直接提升性能。而對于昂貴的專業數據庫和相對封閉的 BI 自帶數據源,集算器可以提供更加經濟、簡便的解決方案,并能夠從各種異構數據源采集數據。

集算器有三種部署方式:1、集成在前端應用中;2、獨立服務器;3、集群熱備。下面介紹具體方法。

案例場景說明

在下面的案例中,多維分析系統要針對訂單數據做自助分析。為了簡化起見,多維分析系統前臺用 tomcat 服務器中的 jdbc.jsp 來模擬。Tomcat 安裝在 windows 操作系統的 C:\tomcat6。

集算器 JDBC 集成在多維分析應用中。jdbc.jsp 模仿多維分析應用系統,產生符合集算器規范的 SQL,通過集算器 JDBC 提交給集算器 SPL 腳本處理。

多維分析系統的數據來自于生產數據庫 demo 中的 ORDERS 表,生產庫是 ORACLE 數據庫。多維分析系統不能直接連 demo 數據庫實現分析,以免給生產數據庫帶來過多的壓力。ORDERS 訂單表是全量數據,集算器 ETL 每天將當天的最新數據同步到組表文件中。日期以訂購日期 ORDERDATE 為準,假設當前的日期是 2015-07-18。

后臺數據初始化

用下面的 ordersAll.sql 文件在 ORACLE 數據庫中完成 ORDERS 表的建表和數據初始化。

ordersAll

數據截止到 2017 年 7 月 17 日。

多維分析系統后臺上線初始化的時候,要將 ORDERS 表中的歷史數據同步到集算器的二進制文件中。這是上線前一次性執行的準備工作,上線運行后就不需要執行了。

在集算器中,新建一個數據源 orcl,連接 ORACLE 數據庫。用 SPL 語言腳本 etlAll.dfx 將全部數據讀取到集算器組表文件 orders.ctx 中。SPL 腳本如下:


AB
1=connect(“orcl”)=A1.cursor@d(“select ORDERDATE,CUSTOMERID,EMPLOYEEID,ORDERID,AMOUNT from ORDERS order by ORDERDATE,CUSTOMERID,EMPLOYEEID,ORDERID”)
2=file(“C:/tomcat6/webapps/DW/WEB-INF/data/orders.ctx”)
3=A2.create(#ORDERDATE,#CUSTOMERID,#EMPLOYEEID,#ORDERID,AMOUNT)
4=A3.append(B1)>A1.close()

Orders.ctx 是組表文件,默認是采用列式存儲的,支持任意分段的并行計算,可以有效提升查詢速度。生成組表的時候,要注意數據預先排序和合理定義維字段。本例中,按照經常過濾、分組的字段,將維字段確定為:ORDERDATE,CUSTOMERID,EMPLOYEEID, ORDERID。

從 ORACLE 中取得數據的時候,要按照維字段排序。因為 ORDERDATE,CUSTOMERID,EMPLOYEEID 對應的重復數據多,所以放在前面排序;ORDERID 對應的重復數據少,所以放在后面排序。

B1 單元格中數據庫游標的 @d 選項,表示從 ORACLE 數據庫中取數的時候將 numeric 型數據轉換成 double 型,精度對于金額這樣的常見數值完全足夠了。如果沒有這個選項就會默認轉換成 big decimal 型數據,計算性能會受到較大影響。

ETL 過程

多維分析系統上線之后,要每天晚上定時同步當天最新的數據。我們假設當天日期是 2015-07-18。用下面的 ordersUpdate.sql 文件在 ORACLE 數據庫給 ORDERS 表增加當天的數據,模擬數據的增量。

ordersUpdate

用 SPL 語言腳本 etlUpdate1.dfx 將當天數據增量補充到集算器組表文件 orders.ctx 中。SPL 腳本如下:


ABC
1=connect(“orcl”)

2=A1.cursor@d(“select ORDERDATE,CUSTOMERID,EMPLOYEEID,ORDERID,AMOUNT from ORDERS where ORDERDATE=? order by ORDERDATE,CUSTOMERID,EMPLOYEEID,ORDERID”,etlDate)

3=file(“C:/tomcat6/webapps/DW/WEB-INF/data/orders.ctx”)

4=A3.create()=A4.append(A2)=A3.rollback()
5>A1.close()

etlUpdate.dfx 的輸入參數是 etlDate,也就是需要新增的當天日期。

B4 單元格直接將新數據追加到組表文件中。因為第一個排序字段是 orderdate,所以追加新數據不會影響排序。如果第一個排序字段不是 orderdate,就要重新排序。

C4 中的 rollback 是回滾函數,若 B4 執行 append 過程中,出現錯誤,那么將執行回滾操作,恢復到 append 操作之前的組表狀態。正常執行完畢,則不會回滾。

etlUpdate1.dfx 腳本可以用 windows 或者 linux 命令行的方式執行,結合定時任務,可以定時執行。也可以用 ETL 工具來定時調用。

windows 命令行的調用方式是:

C:\\Program Files\\raqsoft\\esProc\\bin>esprocx.exe C: \\etlUpdate1.dfx

linux 命令是:

/raqsoft/esProc/bin/esprocx.sh /esproc/ etlUpdate1.dfx

應用結構一:應用集成計算

集算器 JDBC 集成在多維分析的應用中,接收到 SQL 后查本地文件 orders.ctx 返回結果。

1、下面壓縮文件中的 DW 目錄復制到 tomcat 的應用目錄。

DW

目錄結構如下圖:
輕量級可嵌入多維分析后臺
配置文件在 classes 中,在官網上獲取的授權文件也要放在 classes 目錄中。集算器的 Jar 包要放在 lib 目錄中(需要哪些 jar 請參照集算器教程)。

修改 raqsoftConfig.xml 中的主目錄配置:

<mainPath>C:\\tomcat6\\webapps\\DW\\WEB-INF\\data</mainPath>

配置好主目錄后,orders.ctx 就可以不寫全路徑名,直接寫 from orders.ctx 即可。

2、編輯 DW 目錄中的 jdbc.jsp,模擬前臺界面提交 sql 展現結果。

<%@ page language=”java” import=”java.util.*” pageEncoding=”utf-8″%>

<%@ page import=”java.sql.*” %>

<body>

<%

String driver = “com.esproc.jdbc.InternalDriver”;

String url = “jdbc:esproc:local://”;

try {

Class.forName(driver);

Connection conn = DriverManager.getConnection(url);

Statement statement = conn.createStatement();

String sql =”select top 10 ORDERID,CUSTOMERID,EMPLOYEEID,ORDERDATE,AMOUNT from ORDERS.ctx where ORDERDATE=date(‘2015-07-18’) and AMOUNT>100″;

out.println(“Test page v1<br><br><br><pre>”);

out.println(“訂單ID”+”\\t”+”客戶ID”+”\\t”+”雇員ID”+”\\t”+”訂購日期”+”\\t”+”訂單金額”+”<br>”);

ResultSet rs = statement.executeQuery(sql);

int f1,f6;

String f2,f3,f4;

float f5;

while (rs.next()) {

f1 = rs.getInt(“ORDERID”);

f2 = rs.getString(“CUSTOMERID”);

f3 = rs.getString(“EMPLOYEEID”);

f4 = rs.getString(“ORDERDATE”);

f5 = rs.getFloat(“AMOUNT”);

out.println(f1+”\\t”+f2+”\\t”+f3+”\\t”+f4+”\\t”+f5+”\\t”+”<br>”);

}

out.println(“</pre>”);

rs.close();

conn.close();

} catch (ClassNotFoundException e) {

System.out.println(“Sorry,can`t find the Driver!”);

e.printStackTrace();

} catch (SQLException e) {

e.printStackTrace();

} catch (Exception e) {

e.printStackTrace();

}

%>

</body><%@ page language=”java” import=”java.util.*” pageEncoding=”utf-8″%><%@ page import=”java.sql.*” %><body><%String driver = “com.e
sproc.jdbc.InternalDriver”;String url = “jdbc:esproc:local://”;try {Class.forName(driver);Connection conn = DriverManager.getConnection(url);S
tatement statement = conn.createStatement();String sql =”select top 10 ORDERID,CUSTOMERID,EMPLOYEEID,ORDERDATE,AMOUNT from ORDERS.ctx where ORD
ERDATE=date(‘2015-07-18’) and AMOUNT>100″;

out.println(“Test page v1<br><br><br><pre>”);

out.println(“訂單ID”+”\\t”+”客戶ID”+”\\t”+”雇員ID”+”\\t”+”訂購日期”+”\\t”+”訂單金額”+”<br>”);

ResultSet rs = statement.executeQuery(sql);

int f1,f6;

String f2,f3,f4;

float f5;

while (rs.next()) {

f1 = rs.getInt(“ORDERID”);

f2 = rs.getString(“CUSTOMERID”);

f3 = rs.getString(“EMPLOYEEID”);

f4 = rs.getString(“ORDERDATE”);

f5 = rs.getFloat(“AMOUNT”);

out.println(f1+”\\t”+f2+”\\t”+f3+”\\t”+f4+”\\t”+f5+”\\t”+”<br>”);

}

out.println(“</pre>”);

rs.close();

conn.close();

} catch (ClassNotFoundException e) {

System.out.println(“Sorry,can`t find the Driver!”);

e.printStackTrace();

} catch (SQLException e) {

e.printStackTrace();

} catch (Exception e) {

e.printStackTrace();

}

%></body>

可以看到,jsp 中先連接集算器的 JDBC,然后提交執行 SQL。步驟和一般的數據庫完全一樣,具有很高的兼容性和通用性。對于多維分析工具來說,雖然是界面操作來連接 JDBC 和提交 SQL,但是基本原理和 jsp 完全一樣。

3、啟動 tomcat,在瀏覽器中訪問 http://localhost:8080/DW/jdbc.jsp,查看結果。
輕量級可嵌入多維分析后臺
還可以繼續測試如下情況:

1、分組匯總

sql ="select CUSTOMERID,EMPLOYEEID,sum(AMOUNT) 訂單總額,count(1) 訂單數量 from ORDERS.ctx where ORDERDATE=date(‘2015-07-18’)  group by CUSTOMERID,EMPLOYEEID";

2、并行查詢

sql="select /*+ parallel (4) */

top 10 ORDERID,CUSTOMERID,EMPLOYEEID,ORDERDATE,AMOUNT from ORDERS.ctx where ORDERDATE=date(‘2015-07-18’) and AMOUNT>100"sql="select /*+ parall
el (4) */top 10 ORDERID,CUSTOMERID,EMPLOYEEID,ORDERDATE,AMOUNT from ORDERS.ctx where ORDERDATE=date(‘2015-07-18’) and AMOUNT>100"

和 ORACLE 類似,集算器簡單 SQL 也支持 /*+ parallel (4) */ 這樣的并行查詢。

應用結構二:獨立服務器

第一種解決辦法是利用應用服務器的資源。在并發量很大,或者數據量很大的情況下,應用服務器會出現較大壓力。這種情況下,推薦用獨立的節點服務器進行數據計算。

集算器 JDBC 接收到 SQL 后,轉給 DW.dfx 程序處理。DW.dfx 調用節點服務器上的 DWServer.dfx 進行計算。DWServer.dfx 把表名換成文件名,查本地文件 orders.ctx 返回結果。

下面的 DWServer 目錄復制到需要的目錄。集算器的節點服務器具備跨平臺的特性,可以運行在任何支持 Java 的操作系統上,部署方法參見集算器教程。這里假設放到 windows 操作系統的 C 盤根目錄。

DWServer

1、系統上線之前執行初始化 dfx,將 orders.ctx 文件放到 C:/DWServer/data 目錄中。測試的時候可以直接將已經生成好的 orders.ctx 復制過去。

2、修改前面的 dfx,將 A1 改為 =file(“C:/DWServer/data/orders.ctx”),另存為 etlUpdate2.dfx。修改好的 etlUpdate2.dfx 在 c:\DWServer 目錄。

3、打開應用服務器中的 C:\\tomcat6\\webapps\\DW\\WEB-INF\\dfx\\DW.dfx,觀察理解 SPL 代碼。參數 sql 是傳入的 SQL 語句。


AB
1=callx(“DWServer.dfx”,[sql];[“127.0.0.1:8281”])
2return A1.ifn()

A1:調用節點機上的 DWServer.dfx。參數是 [sql],中括號表示序列,此時是只有一個成員的序列。[“127.0.0.1:8281”] 是節點機的序列,采用 IP: 端口號的方式。

A2:返回 A1 調用的結果。因為調用結果是序列,所以要用 ifn 函數找到序列中第一個不為空的成員,就是 SQL 對應的返回結果。

修改 C:\\tomcat6\\webapps\\DW\\WEB-INF\\classes\\raqsoftConfig.xml 中的如下配置:

<mainPath>C:\\tomcat6\\webapps\\DW\\WEB-INF\\dfx</mainPath>

<JDBC>

<load>Runtime,Server</load>

<gateway>DW.dfx</gateway>

</JDBC><mainPath>C:\\tomcat6\\webapps\\DW\\WEB-INF\\dfx</mainPath><JDBC><load>Runtime,Server</load><gateway>DW.dfx</gateway></JDBC>

這里標簽的內容就是 JDBC 網關 dfx 文件。在 BI 系統中調用集算器 JDBC 時,所執行的 SQL 都將交由網關文件處理。如果不配置這個標簽,JDBC 提交的語句會被集算器當作腳本直接解析運算。

4、啟動節點服務器。

運行 esprocs.exe, 如下圖:
輕量級可嵌入多維分析后臺
輕量級可嵌入多維分析后臺
點擊配置按鈕,配置相關參數:
輕量級可嵌入多維分析后臺
點擊確定后,返回主界面,點擊啟動按鈕。

5、打開 C:\DWServer\dfx\DWServer.dfx,觀察理解 SPL 代碼。


ABC
1=filename=”C:/DWServer/data/orders.ctx”

2=sql=replace(sql,”from ORDERS.ctx”,”from  “+filename)

3=connect()=A3.cursor@x(A2)return B3

A1:定義集算器集文件的絕對路徑。

A2:將文件名替換為絕對路徑。

A3-C3:連接文件系統。執行 SQL 得到游標并返回。

服務器方式也可以和“應用結構一”中一樣配置主目錄,A2 就不用寫絕對路徑了。路徑寫在這里的 SPL 中,好處是同一個服務器可以給多套數據表(文件)提供服務。如果很多文件都在主目錄下,會不方便管理。

6、重啟 tomcat,在瀏覽器中訪問 http://localhost:8080/DW/jdbc.jsp,查看結果。

應用結構三:集群熱備

在并發量不斷增大,或者數據量不斷增加的情況下,節點服務器可以進行橫向擴展,應對大并發或大數據量計算的壓力。

1、在另一臺 window 的機器上再部署一套集算器節點,部署方法和解決方法二略有不同,需要配置一下數據分區。兩臺服務器的 IP 地址是 168.0.122 和 192.168.0.176。方法二中的 c:\\DWServer 目錄也要復制到另一臺服務器上。

圖中數據分區名稱配置為 0,路徑是 c:/DWServer/data。注意,兩個服務器都要配置。

2、改寫 168.0.122 上的 c:/DWServer/dfx/etlUpdate2.dfx,另存為 etlUpdate3.dfx。


ABC
1=connect(“orcl”)

2=A1.cursor@d(“select ORDERDATE,CUSTOMERID,EMPLOYEEID,ORDERID,AMOUNT from ORDERS where ORDERDATE=? order by ORDERDATE,CUSTOMERID,EMPLOYEEID,ORDERID”,etlDate)

3=file(“C:/ DWServer/data/orders.ctx”)

4=A3.create()=A4.append(A2)=A3.rollback()
5>A1.close()

6=sync([“192.168.0.176:8281″]:”192.168.0.122:8281”;0)

A6 單元格是將更新之后的 orders.ctx 同步到 192.168.0.176 的 0 分區,也就是 C:/ DWServer/data 目錄。[“192.168.0.176:8281”] 是指需要同步的節點機列表,如果有更多的節點機需要同步,可以寫作:[“IP1:PORT1″,”IP2:PORT2″,”IP3:PORT3”]。

因為這里有同步的代碼,所以只需要在 192.168.0.122 上執行定時任務 etlUpdate3.dfx 就可以了。

3、打開應用服務器中的 C:\tomcat6\webapps\DW\WEB-INF\dfx\DW.dfx,修改如下:


AB
1=callx(“DWServer.dfx”,[sql];[“192.168.0.122:8281″,”192.168.0.176:8281”])
2return A1.ifn()

A1:調用節點機上的 DWServer.dfx。參數是 [sql],中括號表示序列,此時是只有一個成員的序列。因為節點機是集群,所以有兩個 IP 地址。在多并發時 callx 會隨機訪問兩個節點。

4、重啟 tomcat,在瀏覽器中訪問 http://localhost:8080/DW/jdbc.jsp,查看結果。

集算器優勢總結

開放的輕量級數據倉庫 / 數據集市

集算器是專業的數據計算中間件(DCM),具備獨立計算的能力,可以脫離數據庫、數據倉庫為多維分析系統前端提供數據源服務。

集算器采用列存數據,具備專業數據倉庫的查詢性能,千萬級別的數據量,可以達到秒級的明細查詢速度。普通數據庫一般都是行存,無法達到多維分析的性能要求。同時,和專業數據倉庫不同,集算器價格都較低,建設、擴展和維護成本都比較小。

集算器是開放的,對多維分析系統前端提供標準的 JDBC 服務。可以形成平臺式的后臺數據源,為多個不同廠家的前端同時提供數據服務。

組表列存 / 有序壓縮存儲

先進的數據存儲方式,是數據計算中間件(DCM)成功實施的重要保障。

集算器組表采用列存方式存儲數據,對于字段特別多的寬表查詢,性能提升特別明顯。組表采用的列存機制和常規列存是不同的。常規列存(比如 parquet 格式),只能分塊之后,再在塊內列存,在做并行計算的時候是受限的。組表的可并行壓縮列存機制,采用倍增分段技術,允許任意分段的并行計算,可以利用多 CPU 核的計算能力把硬盤的 IO 發揮到極致。

組表生成的時候,要指定維字段,數據本身是按照維字段有序存放的,常用的條件過濾計算不依賴索引也能保證高性能。文件采用壓縮存儲,減小在硬盤上占用的空間,讀取更快。由于采用了合適的壓縮比,解壓縮占用的 CPU 時間可以忽略不計。

組表也可以采取行存和全內存存儲數據,支持內存數據庫方式運行。

集群功能

敏捷的集群能力可以保證數據計算中間件(DCM)的高性能和高可用性。

集算器節點服務器是獨立進程,可以接受集算器 JDBC 的計算請求并返回結果。對于并發訪問的情況,可以發給多個服務器同時計算,提高并發容量。對于單個大計算任務的情況,可以分成多個小任務,發給多個服務器同時計算,起到大數據并行計算的作用。

集算器集群計算方案,具備敏捷的橫向擴展能力,并發量或者數據量大時可以通過快速增加節點來解決。集算器集群也具備容錯能力,即有個別節點失效時還能確保整個集群能工作,計算任務能繼續執行完畢,起到多機熱備和保證高可用性的作用。

應用推廣

作為數據計算中間件(DCM),集算器提供的后臺數據源可以支持各種前端應用,不僅僅限于前端是多維分析的情況。例如:大屏展示、管理駕駛艙、實時報表、大數據量清單報表、報表批量訂閱等等。

集算器形成的后臺數據源也可以和數據庫、數據倉庫配合使用。集算器實現的數據計算網關和路由,可以在集算器緩存數據和數據倉庫之間智能切換,解決數據倉庫無法滿足性能要求的問題。例如:冷熱數據分開計算的場景。具體做法參見《集算器實現計算路由優化 BI 后臺性能》。



向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

孟州市| 岑巩县| 马边| 繁峙县| 嘉兴市| 罗城| 梁平县| 双辽市| 手机| 合川市| 宁安市| 长顺县| 房产| 定陶县| 邻水| 皮山县| 家居| 安庆市| 弋阳县| 会宁县| 常熟市| 黎平县| 开封市| 方城县| 临清市| 孙吴县| 桂东县| 凤山市| 越西县| 兴宁市| 宝应县| 阿鲁科尔沁旗| 临猗县| 老河口市| 吴旗县| 江油市| 宁国市| 昭苏县| 滕州市| 乐都县| 萨迦县|