资讯

精准传达 • 有效沟通

从品牌网站建设到网络营销策划,从策略到执行的一站式服务

Hadoop和Spark中怎么设置用户访问hdfs

本篇文章为大家展示了Hadoop和Spark中怎么设置用户访问hdfs,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。

创新互联公司-专业网站定制、快速模板网站建设、高性价比玉山网站开发、企业建站全套包干低至880元,成熟完善的模板库,直接使用。一站式玉山网站制作公司更省心,省钱,快速模板网站建设找我们,业务覆盖玉山地区。费用合理售后完善,十余年实体公司更值得信赖。


1.对于hadoop而言
如果hadoop没有启Kerberos或者从Kerberos获取的用户为null,那么获取HADOOP_USER_NAME环境变量,并将它的值作为Hadoop执行用户。如果我们没有设置HADOOP_USER_NAME环境变量,那么程序将调用whoami来获取当前用户,并用groups来获取用户所在组。

所以可以设置环境变量:

export HADOOP_USER_NAME=hdfs
1
或者在程序中设置:

System.setProperty("HADOOP_USER_NAME", "hdfs");
1
2.对于Spark
Spark默认将用户程序运行所在系统的当前登录用户作为用户程序的关联用户。
所以可以采用一下两种方法:
1.修改当前用户名为: hdfs
2.代码中添加:

System.setProperty("user.name", "hdfs");

上述内容就是Hadoop和Spark中怎么设置用户访问hdfs,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注创新互联行业资讯频道。


本文名称:Hadoop和Spark中怎么设置用户访问hdfs
分享URL:http://cdkjz.cn/article/ieoeeh.html
多年建站经验

多一份参考,总有益处

联系快上网,免费获得专属《策划方案》及报价

咨询相关问题或预约面谈,可以通过以下方式与我们联系

大客户专线   成都:13518219792   座机:028-86922220