Sqoop导入数据到Hive上
1 | flume收集日志:主动的和被动的 |
1.node1节点上已经安装了mysql,并允许远程连接:
1 | [root@node1 ~]# service mysql start |

2.将数据导入到HDFS中去
2.1.解压sqoop压缩文件到Linux主机上的指定目录
1 | [root@node1 software]# tar -zxf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C /opt/modules |

2.2.在window上的Mysql客户端远程连接node1,并创建表

2.3.创建option1选项文件
1 | [root@node1 sqoop-1.4.6]# vi option1 |

1 | HIVE_HOME,如果配置了,在选项文件中就可以不用配置 |

1 | 官网有配置的详细解释 |

2.4.上传mysql驱动包到sqoop的lib目录下

2.5.执行选项文件
1 | [root@node1 sqoop-1.4.6]# ./bin/sqoop --options-file option1 |


3.在Hive中的查看数据是否导入
1 | hive> desc tm_test; |

4.在option1选项文件中增加执行条件
1 | [root@node1 sqoop-1.4.6]# vi option1 |

4.1.再次执行option1选项文件
1 | [root@node1 sqoop-1.4.6]# ./bin/sqoop --options-file option1 |

1 | hive> select * from tm_test; |

1 | Sqoop现在只支持从HDFS导出数据 |
5.编辑option3
1 | [root@node1 sqoop-1.4.6]# vi option3 |
5.1.增加执行条件
1 | import |

5.2.执行选项文件
1 | [root@node1 sqoop-1.4.6]# ./bin/sqoop --options-file option3 |

5.3.在hive中查询tmt_test表,数据是否导入
1 | hive> select * from tmt_test; |

6.编辑option4选项文件
1 | [root@node1 sqoop-1.4.6]# vi option4 |
6.1.增加执行条件
1 | import |

6.2.执行选项文件
1 | [root@node1 sqoop-1.4.6]# ./bin/sqoop --options-file option4 |

6.3.在hive中查询tmt_test表,数据是否导入
1 | hive> select * from tmt_tests; |

本文作者 : Matrix
原文链接 : https://matrixsparse.github.io/2016/01/12/Sqoop导入数据到Hive/
版权声明 : 本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明出处!
知识 & 情怀 | 二者兼得