Heim > Datenbank > MySQL-Tutorial > 集群间 Hive 数据 迁移 问题

集群间 Hive 数据 迁移 问题

WBOY
Freigeben: 2016-06-07 15:22:13
Original
1166 Leute haben es durchsucht

1、 从hive中导出数据至本地目录 insert overwrite local directory /export/tmp select * from test1 where create_time = 2013-11-25; 列数据之间默认以^A隔开。 2、将本地数据上传另一个集群的hdfs /home/q/hadoop-2.2.0/bin/hdfs dfs -put /export/tmp hd

1、 从hive中导出数据至本地目录 insert overwrite local directory '/export/tmp' select * from test1 where create_time = '2013-11-25'; 列数据之间默认以^A隔开。 2、将本地数据上传另一个集群的hdfs /home/q/hadoop-2.2.0/bin/hdfs dfs -put /export/tmp hdfs://host:port/tmp 3、将hdfs中的数据文件导入hive表中 hive -e "load data inpath '/tmp' into table test1;" 但某些表创建时,设置的以 '\t' 分割数据,在读取不到 '\t' 时,会将整行数据都导入第一列。 如果是hive-0.11.0版本,可以这样导出:
                hive> insert overwrite local directory '/export/tmp'
                hive> row format delimited
                hive> fields terminated by '\t'
                hive> select * from test1 where create_time = '2013-11-25';
Nach dem Login kopieren
Nach dem Login kopieren
         如果是低版本的hive,只好将导出的数据文件中的^A,替换为'\t':
Nach dem Login kopieren
               sed -i 's/^A/\t/g' filename
Nach dem Login kopieren
         同时需要将隐藏的.filename.crc校验文件删除掉,不然在上传的过程中,Hadoop将通过FSInputChecker判断需要上传的文件是否存在进行校验的crc文件,即.filename.crc,如果存在crc文件,将会对其内容一致性进行校验,如果校验 失败,会报fs.FSInputChecker: Found checksum error,停止上传该文件,最终导致整个MR任务无法执行。
Nach dem Login kopieren
Verwandte Etiketten:
Quelle:php.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage