您好,登錄后才能下訂單哦!
這篇文章主要介紹“SpringBoot怎么整合dataworks”的相關知識,小編通過實際案例向大家展示操作過程,操作方法簡單快捷,實用性強,希望這篇“SpringBoot怎么整合dataworks”文章能幫助大家解決問題。
這里測試主要是調用拉取dataworks上拉取的腳本,并存儲到本地。
腳本包含兩部分
1、開發的odps腳本(通過OpenApi獲取)2、建表語句腳本(通過dataworks信息去連接maxCompute獲取建立語句)
阿里云Dataworks的openApi分頁查詢限制,一次最多查詢100條。我們拉取腳本需要分多頁查詢
該項目使用到了MaxCompute的SDK/JDBC方式連接,SpringBoot操作MaxCompute SDK/JDBC連接
實現主要是編寫工具類,如果需要則可以配置成SpringBean,注入容器即可使用
<properties> <java.version>1.8</java.version> <!--maxCompute-sdk-版本號--> <max-compute-sdk.version>0.40.8-public</max-compute-sdk.version> <!--maxCompute-jdbc-版本號--> <max-compute-jdbc.version>3.0.1</max-compute-jdbc.version> <!--dataworks版本號--> <dataworks-sdk.version>3.4.2</dataworks-sdk.version> <aliyun-java-sdk.version>4.5.20</aliyun-java-sdk.version> </properties> <dependencies> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId> </dependency> <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-configuration-processor</artifactId> <optional>true</optional> </dependency> <dependency> <groupId>org.projectlombok</groupId> <artifactId>lombok</artifactId> <optional>true</optional> </dependency> <!--max compute sdk--> <dependency> <groupId>com.aliyun.odps</groupId> <artifactId>odps-sdk-core</artifactId> <version>${max-compute-sdk.version}</version> </dependency> <!--max compute jdbc--> <dependency> <groupId>com.aliyun.odps</groupId> <artifactId>odps-jdbc</artifactId> <version>${max-compute-jdbc.version}</version> <classifier>jar-with-dependencies</classifier> </dependency> <!--dataworks需要引入aliyun-sdk和dataworks本身--> <dependency> <groupId>com.aliyun</groupId> <artifactId>aliyun-java-sdk-core</artifactId> <version>${aliyun-java-sdk.version}</version> </dependency> <dependency> <groupId>com.aliyun</groupId> <artifactId>aliyun-java-sdk-dataworks-public</artifactId> <version>${dataworks-sdk.version}</version> </dependency> </dependencies>
/** * @Description * @Author itdl * @Date 2022/08/09 15:12 */ @Data public class DataWorksOpenApiConnParam { /** * 區域 eg. cn-shanghai */ private String region; /** * 訪問keyId */ private String aliyunAccessId; /** * 密鑰 */ private String aliyunAccessKey; /** * 訪問端點 就是API的URL前綴 */ private String endPoint; /** * 數據庫類型 如odps */ private String datasourceType; /** * 所屬項目 */ private String project; /** * 項目環境 dev prod */ private String projectEnv; }
基礎類準備,拉取腳本之后的回調函數
為什么需要回調函數,因為拉取的是所有腳本,如果合并每次分頁結果的話,會導致內存溢出,而使用回調函數只是每次循環增加處理函數
/** * @Description * @Author itdl * @Date 2022/08/09 15:12 */ @Data public class DataWorksOpenApiConnParam { /** * 區域 eg. cn-shanghai */ private String region; /** * 訪問keyId */ private String aliyunAccessId; /** * 密鑰 */ private String aliyunAccessKey; /** * 訪問端點 就是API的URL前綴 */ private String endPoint; /** * 數據庫類型 如odps */ private String datasourceType; /** * 所屬項目 */ private String project; /** * 項目環境 dev prod */ private String projectEnv; }
主要是實例化dataworks openApi接口的客戶端信息,maxCompute連接的工具類初始化(包括JDBC,SDK方式)
private static final String MAX_COMPUTE_JDBC_URL_FORMAT = "http://service.%s.maxcompute.aliyun.com/api"; /**默認的odps接口地址 在Odps中也可以看到該變量*/ private static final String defaultEndpoint = "http://service.odps.aliyun.com/api"; /** * dataworks連接參數 * */ private final DataWorksOpenApiConnParam connParam; /** * 可以使用dataworks去連接maxCompute 如果連接的引擎是maxCompute的話 */ private final MaxComputeJdbcUtil maxComputeJdbcUtil; private final MaxComputeSdkUtil maxComputeSdkUtil; private final boolean odpsSdk; /** * 客戶端 */ private final IAcsClient client; public DataWorksOpenApiUtil(DataWorksOpenApiConnParam connParam, boolean odpsSdk) { this.connParam = connParam; this.client = buildClient(); this.odpsSdk = odpsSdk; if (odpsSdk){ this.maxComputeJdbcUtil = null; this.maxComputeSdkUtil = buildMaxComputeSdkUtil(); }else { this.maxComputeJdbcUtil = buildMaxComputeJdbcUtil(); this.maxComputeSdkUtil = null; } } private MaxComputeSdkUtil buildMaxComputeSdkUtil() { final MaxComputeSdkConnParam param = new MaxComputeSdkConnParam(); // 設置賬號密碼 param.setAliyunAccessId(connParam.getAliyunAccessId()); param.setAliyunAccessKey(connParam.getAliyunAccessKey()); // 設置endpoint param.setMaxComputeEndpoint(defaultEndpoint); // 目前只處理odps的引擎 final String datasourceType = connParam.getDatasourceType(); if (!"odps".equals(datasourceType)){ throw new BizException(ResultCode.DATA_WORKS_ENGINE_SUPPORT_ERR); } // 獲取項目環境,根據項目環境連接不同的maxCompute final String projectEnv = connParam.getProjectEnv(); if ("dev".equals(projectEnv)){ // 開發環境dataworks + _dev就是maxCompute的項目名 param.setProjectName(String.join("_", connParam.getProject(), projectEnv)); }else { // 生產環境dataworks的項目名和maxCompute一致 param.setProjectName(connParam.getProject()); } return new MaxComputeSdkUtil(param); } private MaxComputeJdbcUtil buildMaxComputeJdbcUtil() { final MaxComputeJdbcConnParam param = new MaxComputeJdbcConnParam(); // 設置賬號密碼 param.setAliyunAccessId(connParam.getAliyunAccessId()); param.setAliyunAccessKey(connParam.getAliyunAccessKey()); // 設置endpoint param.setEndpoint(String.format(MAX_COMPUTE_JDBC_URL_FORMAT, connParam.getRegion())); // 目前只處理odps的引擎 final String datasourceType = connParam.getDatasourceType(); if (!"odps".equals(datasourceType)){ throw new BizException(ResultCode.DATA_WORKS_ENGINE_SUPPORT_ERR); } // 獲取項目環境,根據項目環境連接不同的maxCompute final String projectEnv = connParam.getProjectEnv(); if ("dev".equals(projectEnv)){ // 開發環境dataworks + _dev就是maxCompute的項目名 param.setProjectName(String.join("_", connParam.getProject(), projectEnv)); }else { // 生產環境dataworks的項目名和maxCompute一致 param.setProjectName(connParam.getProject()); } return new MaxComputeJdbcUtil(param); }
調用OpenApi拉取所有腳本
/** * 根據文件夾路徑分頁查詢該路徑下的文件(腳本) * @param pageSize 每頁查詢多少數據 * @param folderPath 文件所在目錄 * @param userType 文件所屬功能模塊 可不傳 * @param fileTypes 設置文件代碼類型 逗號分割 可不傳 */ public void listAllFiles(Integer pageSize, String folderPath, String userType, String fileTypes, CallBack.FileCallBack callBack) throws ClientException { pageSize = setPageSize(pageSize); // 創建請求 final ListFilesRequest request = new ListFilesRequest(); // 設置分頁參數 request.setPageNumber(1); request.setPageSize(pageSize); // 設置上級文件夾 request.setFileFolderPath(folderPath); // 設置區域和項目名稱 request.setSysRegionId(connParam.getRegion()); request.setProjectIdentifier(connParam.getProject()); // 設置文件所屬功能模塊 if (!ObjectUtils.isEmpty(userType)){ request.setUseType(userType); } // 設置文件代碼類型 if (!ObjectUtils.isEmpty(fileTypes)){ request.setFileTypes(fileTypes); } // 發起請求 ListFilesResponse res = client.getAcsResponse(request); // 獲取分頁總數 final Integer totalCount = res.getData().getTotalCount(); // 返回結果 final List<ListFilesResponse.Data.File> resultList = res.getData().getFiles(); // 計算能分幾頁 long pages = totalCount % pageSize == 0 ? (totalCount / pageSize) : (totalCount / pageSize) + 1; // 只有1頁 直接返回 if (pages <= 1){ callBack.handle(resultList); return; } // 第一頁執行回調 callBack.handle(resultList); // 分頁數據 從第二頁開始查詢 同步拉取,可以優化為多線程拉取 for (int i = 2; i <= pages; i++) { //第1頁 request.setPageNumber(i); //每頁大小 request.setPageSize(pageSize); // 發起請求 res = client.getAcsResponse(request); final List<ListFilesResponse.Data.File> tableEntityList = res.getData().getFiles(); if (!ObjectUtils.isEmpty(tableEntityList)){ // 執行回調函數 callBack.handle(tableEntityList); } } }
內部連接MaxCompute拉取所有DDL腳本內容
DataWorks工具類代碼,通過回調函數處理
/** * 獲取所有的DDL腳本 * @param callBack 回調處理函數 */ public void listAllDdl(CallBack.DdlCallBack callBack){ if (odpsSdk){ final List<TableMetaInfo> tableInfos = maxComputeSdkUtil.getTableInfos(); for (TableMetaInfo tableInfo : tableInfos) { final String tableName = tableInfo.getTableName(); final String sqlCreateDesc = maxComputeSdkUtil.getSqlCreateDesc(tableName); callBack.handle(tableName, sqlCreateDesc); } } }
MaxCompute工具類代碼,根據表名獲取建表語句, 以SDK為例, JDBC直接執行show create table即可拿到建表語句
/** * 根據表名獲取建表語句 * @param tableName 表名 * @return */ public String getSqlCreateDesc(String tableName) { final Table table = odps.tables().get(tableName); // 建表語句 StringBuilder mssqlDDL = new StringBuilder(); // 獲取表結構 TableSchema tableSchema = table.getSchema(); // 獲取表名表注釋 String tableComment = table.getComment(); //獲取列名列注釋 List<Column> columns = tableSchema.getColumns(); /*組裝成mssql的DDL*/ // 表名 mssqlDDL.append("CREATE TABLE IF NOT EXISTS "); mssqlDDL.append(tableName).append("\n"); mssqlDDL.append(" (\n"); //列字段 int index = 1; for (Column column : columns) { mssqlDDL.append(" ").append(column.getName()).append("\t\t").append(column.getTypeInfo().getTypeName()); if (!ObjectUtils.isEmpty(column.getComment())) { mssqlDDL.append(" COMMENT '").append(column.getComment()).append("'"); } if (index == columns.size()) { mssqlDDL.append("\n"); } else { mssqlDDL.append(",\n"); } index++; } mssqlDDL.append(" )\n"); //獲取分區 List<Column> partitionColumns = tableSchema.getPartitionColumns(); int partitionIndex = 1; if (!ObjectUtils.isEmpty(partitionColumns)) { mssqlDDL.append("PARTITIONED BY ("); } for (Column partitionColumn : partitionColumns) { final String format = String.format("%s %s COMMENT '%s'", partitionColumn.getName(), partitionColumn.getTypeInfo().getTypeName(), partitionColumn.getComment()); mssqlDDL.append(format); if (partitionIndex == partitionColumns.size()) { mssqlDDL.append("\n"); } else { mssqlDDL.append(",\n"); } partitionIndex++; } if (!ObjectUtils.isEmpty(partitionColumns)) { mssqlDDL.append(")\n"); } // mssqlDDL.append("STORED AS ALIORC \n"); // mssqlDDL.append("TBLPROPERTIES ('comment'='").append(tableComment).append("');"); mssqlDDL.append(";"); return mssqlDDL.toString(); }
public static void main(String[] args) throws ClientException { final DataWorksOpenApiConnParam connParam = new DataWorksOpenApiConnParam(); connParam.setAliyunAccessId("您的阿里云賬號accessId"); connParam.setAliyunAccessKey("您的阿里云賬號accessKey"); // dataworks所在區域 connParam.setRegion("cn-chengdu"); // dataworks所屬項目 connParam.setProject("dataworks所屬項目"); // dataworks所屬項目環境 如果不分環境的話設置為生產即可 connParam.setProjectEnv("dev"); // 數據引擎類型 odps connParam.setDatasourceType("odps"); // ddataworks接口地址 connParam.setEndPoint("dataworks.cn-chengdu.aliyuncs.com"); final DataWorksOpenApiUtil dataWorksOpenApiUtil = new DataWorksOpenApiUtil(connParam, true); // 拉取所有ODPS腳本 dataWorksOpenApiUtil.listAllFiles(100, "", "", "10", files -> { // 處理文件 for (ListFilesResponse.Data.File file : files) { final String fileName = file.getFileName(); System.out.println(fileName); } }); // 拉取所有表的建表語句 dataWorksOpenApiUtil.listAllDdl((tableName, tableDdlContent) -> { System.out.println("======================================="); System.out.println("表名:" + tableName + "內容如下:\n"); System.out.println(tableDdlContent); System.out.println("======================================="); }); }
test_001腳本
test_002腳本
test_003腳本
test_004腳本
test_005腳本
=======================================
表名:test_abc_info內容如下:CREATE TABLE IF NOT EXISTS test_abc_info
(
test_abc1 STRING COMMENT '字段1',
test_abc2 STRING COMMENT '字段2',
test_abc3 STRING COMMENT '字段3',
test_abc4 STRING COMMENT '字段4',
test_abc5 STRING COMMENT '字段5',
test_abc6 STRING COMMENT '字段6',
test_abc7 STRING COMMENT '字段7',
test_abc8 STRING COMMENT '字段8'
)
PARTITIONED BY (p_date STRING COMMENT '數據日期'
)
;
=======================================
Disconnected from the target VM, address: '127.0.0.1:59509', transport: 'socket'
關于“SpringBoot怎么整合dataworks”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識,可以關注億速云行業資訊頻道,小編每天都會為大家更新不同的知識點。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。