hive中重建新表插入报错

栏目: 服务器 · 发布时间: 6年前

在hive中,会有这样一种情形:

1、创建一个分区外部表A(比如A表有5个字段),并且向A表里指定的分区(比如20160928这个分区)里插入数据

2、发现A表缺少一些字段,因为存在元数据不实时更新的问题,不想更新元数据,就进行删表重新建表B(表B与表A除了多了几个字段外,别的都一样)

3、再执行hql脚本,把最新的字段样式的数据插入到20160928这个分区里

会出现如下的报错:

Failed with exception java.io.IOException: rename for src path: hdfs://bdc/are_wek/date=20160928/
.hive-staging_hive_xxxxxx-1/-ext-10000/000000_0 to dest path:hdfs://bdc/are_wek/date=20160928/000000_0 returned false
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.MoveTask. java.io.IOException: rename for src path: hd
fs://bdc/are_wek/date=20160928/.hive-staging_hive_xxxxxxx-1/-
ext-10000/000000_0 to dest path:hdfs://bdc/are_wek/date=20160928/000000_0 returned false

这个错误是指hadoop在把hql执行结果从临时文件挪到对应的表所在的目录时出错;

出现这个问题的原因是:

1、我只是drop了表,其实只是删除了表的元数据,但是表对应的数据文件依然还在hdfs上;

2、hive在把临时文件挪移到正式目录时,会先对hdfs上的文件做一个判断,如果文件夹不存在那就创建,如果存在那就直接把文件挪移过去,这样就等于把临时文件夹里的000000_0文件挪到正式目录下,这时候正式目录已经有了一个叫000000_0的文件,所以就会报如上的错误

解决办法:

hadoop fs -rmr/bdc/are_wek/date=20160928/*

把对应的数据文件删除即可


以上所述就是小编给大家介绍的《hive中重建新表插入报错》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Java程序设计

Java程序设计

宋中山 严千钧 等编 / 清华大学出版社 / 2005-8 / 27.00元

本书全面、系统地介绍了Java语言的基本概念、基本语法和编程方法。主要内容包括:Java语言概述、数据类型与运算符、流程控制语句、类与对象、继承与多态、异常处理、工具类和算法、Applet小应用程序、图形用户界面、输入和输出、Java多线程以及Java高级编程。每章后面附有习题,读者可参考使用。 本书内容丰富,结构合理,语言简洁,深入浅出,通俗易懂。基础知识与程序实例相结合,示例典型......一起来看看 《Java程序设计》 这本书的介绍吧!

HTML 压缩/解压工具
HTML 压缩/解压工具

在线压缩/解压 HTML 代码

CSS 压缩/解压工具
CSS 压缩/解压工具

在线压缩/解压 CSS 代码

Base64 编码/解码
Base64 编码/解码

Base64 编码/解码