前言
首先,Hive MySQL Hadoop 要确保没问题,若有小伙伴对这个有疑问,可以在评论区提问
- 其次在Hive中要有一组数据来完成这一次的数据导入
下面我们进入实操环节
叮叮叮叮叮叮~
-
先启动Hadoop集群,为之后获取Hive数据表做准备
-
现在进入Hive
INSERT OVERWRITE DIRECTORY '/home/hadoop/hd' ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n' SELECT * FROM user_action
以上需要注意的是
目录可以根据实际情况进行修改,下面的表名“user_action"同理;
-
现在可以进入浏览器Hadoop的web页面查看 数据表 是否导入到 “/home/hadoop/hd” 这个目录下
-
接下来把它下载下来,并使用
sudo cp 文件名位置 /var/lib/mysql-files
将这个文件放在这里之后接下来进行最关键的一步:
-
使用
LOAD DATA INFILE '/var/lib/mysql-files/000000_0' INTO TABLE user_action FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n';
将刚刚从hive导出的数据表加载导”Mysql“中
结果如图所示:
查询一下,就发现导入成功了!
猜你喜欢
网友评论
- 搜索
- 最新文章
- 热门文章