Professional Documents
Culture Documents
服务器登录
服务器 IP:10.46.225.241
用户名:root
密码:Fj#c$.9r
Kettle 安装目录:/usr/local/kettle
tomcat 安装目录:/usr/local/tomcat
jdk 安装目录:/usr/local/java
一.kettle 的安装
(一)安装 jdk
咱们这个服务器是 Redhat7 64 位 Linux 系统,所以对应的 jdk 版本要下载 64 位的;
网上下载 64 位的 jdk
二.Kettle 使用:
(一) Kitichen 服务
通过 CRT 连接服务器通过命令: cd usr/local/kettle/data-integration 进到 data-integration 目录,
在 当 前 目 录 下 通 过 命 令 : ./kitchen.sh, 启 动 kitchen 服 务 , 出 现
(二) Pan 服务
通过 CRT 连接服务器通过命令: cd usr/local/kettle/data-integration 进到 data-integration 目录,
在当前目录下通过命令: ./pan.sh,启动 kitchen 服务,出现
服务启动成功
b. 在 主 对 象 树 中 设 置 转 换 步 骤 : 转 换 1 右 键 >> 设 置
c. DB 连接右键>>新建
配置连接信息并测试连接:
d. 在 核 心 对 象 中 直接拖入右边控制框:
,在输出中 直接拖入右边控制框中并连接(按住 shift 键鼠标
连接’’Excel 输入’’和’’表输出’’)如图:
表示执行成功;
(一)连接前的准备
B .hdfs.xml 文件
C .mapred-site.xml 文件
D.yarn-site.xml 文件
F .修改 D:\卓望资料\kettle\data-integration\plugins\pentaho-big-data-plugin(就是 kettle 安装目
录 ) 目 录 下 的 plugin.properties 文 件
(二)测试连接
1.文件>新建>作业,在主对象树的选择 Hadoop clusters(右键新建 cluster),填写 Hadoop clusters
的信息
点击测试显示连接成功()
2.在作业的核心对象中选择通用>START,BigData>Hadoop Copy Files
保存作业,点击执行控制台显示任务执行成功
浏览器查看 Hadoop:http://10.46.225.225:50070/explorer.html#/test
hdfs://hadoop:jkfj2017@10.46.225.225:9000