Kettle 7.1 连接Hadoop集群

栏目: 编程工具 · 发布时间: 6年前

内容简介:在Tools -> Hadoop Distribution 中选择 “HortonWorks HDP 2.5.x”。复制 Hadoop 环境下的的 core-site.xml 文件到 kettle 安装目录下的 “plugins/pentaho-big-data-plugin/hadoop-configurations/hdp25” 目录下。做完上面两步后,重新启动 Kettle。

设置Hadoop环境

在Tools -> Hadoop Distribution 中选择 “HortonWorks HDP 2.5.x”。

复制core-site.xml文件

复制 Hadoop 环境下的的 core-site.xml 文件到 kettle 安装目录下的 “plugins/pentaho-big-data-plugin/hadoop-configurations/hdp25” 目录下。

做完上面两步后,重新启动 Kettle。

测试Hadoop集群连接

  • 添加一个Transformations。
  • 在 View -> Transformations -> Hadoop clusters 添加一个新的 Hadoop 集群。配置大致如下:(修改后可以测试一下)
    Cluster Name: myhdfs
    Storage: HDFS
    HDFS: (可以参考core-site.xml文件)
      Hostname: <ip>
      Port: 8020
      Username: <user>
      Password: <password>
    JobTracker:
      Hostname: <ip>
      Port: 8032
    Zookeeper:
      Hostname: <ip>
      Port: 2181
  • 在工作区,拖拽一个 “Hadoop File Input” 和 “Hadoop File Output”,并建立关联。
  • 修改“Hadoop File Input”
    Environment: myhdfs
    File/Folder: /tmp/users.dat
  • 修改“Hadoop File Output”
    Hadoop cluster: myhdfs
    Folder/File: /tmp/users_new.dat
  • 运行Transformations,然后检查结果。

以上所述就是小编给大家介绍的《Kettle 7.1 连接Hadoop集群》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Web性能权威指南

Web性能权威指南

Ilya Grigorik / 李松峰 / 人民邮电出版社 / 2013-9 / 69

本书是谷歌公司高性能团队核心成员的权威之作,堪称实战经验与规范解读完美结合的产物。本书目标是涵盖Web 开发者技术体系中应该掌握的所有网络及性能优化知识。全书以性能优化为主线,从TCP、UDP 和TLS 协议讲起,解释了如何针对这几种协议和基础设施来优化应用。然后深入探讨了无线和移动网络的工作机制。最后,揭示了HTTP 协议的底层细节,同时详细介绍了HTTP 2.0、 XHR、SSE、WebSoc......一起来看看 《Web性能权威指南》 这本书的介绍吧!

SHA 加密
SHA 加密

SHA 加密工具

XML 在线格式化
XML 在线格式化

在线 XML 格式化压缩工具

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具