加入收藏 | 设为首页 | 会员中心 | 我要投稿 温州站长网 (https://www.0577zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长学院 > MySql教程 > 正文

spark集群如何运用hanlp进行分布式分词

发布时间:2022-01-19 00:35:34 所属栏目:MySql教程 来源:互联网
导读:这篇文章主要介绍spark集群如何使用hanlp进行分布式分词,在日常操作中,相信很多人在spark集群如何使用hanlp进行分布式分词问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答spark集群如何使用hanlp进行分布式分词的疑惑有
          这篇文章主要介绍“spark集群如何使用hanlp进行分布式分词”,在日常操作中,相信很多人在spark集群如何使用hanlp进行分布式分词问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”spark集群如何使用hanlp进行分布式分词”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!
  
分两步:
 
第一步:实现hankcs.hanlp/corpus.io.IIOAdapter
 
1.  public class HadoopFileIoAdapter implements IIOAdapter {
 
2.
 
3.   @Override
 
4.    public InputStream open(String path) throws IOException {
 
5.        Configuration conf = new Configuration();
 
6.       FileSystem fs = FileSystem.get(URI.create(path), conf);
 
7.        return fs.open(new Path(path));
 
8.    }
 
9.
 
10.    @Override
 
11.   public OutputStream create(String path) throws IOException {
 
12.        Configuration conf = new Configuration();
 
13.        FileSystem fs = FileSystem.get(URI.create(path), conf);
 
14.        OutputStream out = fs.create(new Path(path));
 
15.        return out;
 
16.    }
 
17.  }
 
第二步:修改配置文件。root为hdfs上的数据包,把IOAdapter改为咱们上面实现的类
  
ok,这样你就能在分布式集群上使用hanlp进行分词了。
 
到此,关于“spark集群如何使用hanlp进行分布式分词”的学习就结束了,希望能够解决大家的疑惑。

(编辑:温州站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读