1.背景:
hive 做 insert overwrite select * from table 操作
出现异常:
[Fatal Error] total number of created files now is 100028, which exceeds 100000. Killing the job.
2.实际默认限制:
hive> set hive.exec.max.created.files;
hive.exec.max.created.files=100000
3.解决方案:
加上: DISTRIBUTE BY
其他问题:因为会多一次shuffer 速度变慢,还可能分区不均匀导致问题
参考:
https://confusedcoders.com/data-engineering/etl/hive/hive-dynamix-partition-error-fatal-error-total-number-of-created-files-now-is-100000-which-exceeds-100000-killing-the-job
https://sungang-1120.iteye.com/blog/2262234
以上所述就是小编给大家介绍的《异常-hsql 小文件过多》,希望对大家有所帮助,如果大家有任何疑问请给我留言,小编会及时回复大家的。在此也非常感谢大家对 码农网 的支持!
猜你喜欢:- 如何优化资源文件过多导致的安装变慢?
- 解决Hive创建文件数过多的问题
- 你见过多菜的安卓工程师?
- 利用策略模式优化过多 if else 代码
- 网站用户同时访问过多咋办?搭建Nginx解决
- HBase漫谈 | HBase分区过多影响&合理分区数量
本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们。