您好,登錄后才能下訂單哦!
這篇文章主要介紹“如何在spark集群環境下使用hanlp進行中文分詞”,在日常操作中,相信很多人在如何在spark集群環境下使用hanlp進行中文分詞問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”如何在spark集群環境下使用hanlp進行中文分詞”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
1、將下載的hanlp-portable-1.6.2.jar復制到集群spark/jar文件夾下面
2、啟動spark集群
spark/bin/spark-shell --executor-memory 6g --driver-memory 1g --executor-cores 2 --num-executors 2 --master spark://master:7077 --jars ansj_seg-5.1.6.jar hanlp-portable-1.6.2.jar
3,執行如下指令:
import com.hankcs.hanlp.tokenizer.StandardTokenizer
val data = sc.textFile("hdfs://master:8020/clob.txt")
val splits = data.filter(line => !line.contains("BODY")).map(line => line.replace("【","")).map(line => line.replace("】","")).map(line=>StandardTokenizer.segment(line.toString()))
splits.first
提示結果沒有序列化:
18/04/06 09:08:25 ERROR TaskSetManager: Task 0.0 in stage 0.0 (TID 0) had a not serializable result: com.hankcs.hanlp.seg.common.Term
Serialization stack:
- object not serializable (class: com.hankcs.hanlp.seg.common.Term, value: 監/ng)
- writeObject data (class: java.util.ArrayList)
- object (class java.util.ArrayList, [監/ng, 所/u, 每日/r, 動態/n, 濟南市/ns, 公安局/n, 監管/vn, 支隊/n, 秘書處/n, /w, 2012/m, 年/q, 9/m, 月/q, 11/m, 日/j, 情況/n, 統計/v, 今天/t, ,/w, 全市/n, 看守所/n, 新/a, 收押/v, 14/m, 人/n, ,/w, 出/v, 所/u, 14/m, 人/n, ,/w, 在押/v, 人員/n, 總數/n, 2596/m, 人/n, (/w, 其中/r, 包括/v, 死刑犯/n, 27/m, 人/n, ,/w, 死緩/j, 犯/v, 14/m, 人/n, ,/w, 無期徒刑/l, 犯/v, 8/m, 人/n, ,/w, 法/j, 輪功/nr, 人員/n, 1/m, 人/n, )/w, 。/w, 全市/n, 拘留所/n, 新/a, 收押/v, 47/m, 人/n, ,/w, 出/v, 所/u, 20/m, 人/n, ,/w, 在/p, 所/u, 人員/n, 總數/n, 213/m, 人/n, 。/w, 項目/n, 單位/n, 被/p, 監管/vn, 人員/n, 情況/n, 在押/v, 總數/n, 新/a, 收/v, 出/v, 所/u, 未決犯/n, 法/j, 輪功/nr, 重點/n, 人員/n, 病號/n, 市/n, 看守所/n, 164179144117873/m, 歷城/ns, 看守所/n, 302502550143/m, 章丘/ns, 看守所/n, 24220227066/m, 長/a, 清/a, 看守所/n, 1050292050/m, 平/v, 陰/a, 看守所/n, 860169022/m, 濟陽/ns, 看守所/n, 14401113091/m, 商/n, 河/n, 看守所/n, 760162020/m, 合計/v, 25961414962121685/m, 市/n, 拘留所/n, 1273315/m, 長/a, 清/a, 拘留所/n, 2420/m, 章丘/ns, 拘留所/n, 2332/m, 平/v, 陰/a, 拘留所/n, 1600/m, 濟陽/ns, 拘留所/n, 2033/m, 商/n, 河/n, 拘留所/n, 1160/m, 合計/v, 2214720/m, 收/v, 教/v, 所/u, 30001/m])
- element of array (index: 0)
- array (class [Ljava.util.List;, size 1); not retrying
到此,關于“如何在spark集群環境下使用hanlp進行中文分詞”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。