Hadoop 不需认证导致数据泄漏

栏目: 编程工具 · 发布时间: 7年前

内容简介:Hadoop 不需认证导致数据泄漏

Hadoop 不需认证导致数据泄漏

最近,有报导指全球Hadoop 服务器因配置不安全导致大量数据泄漏,涉及使用 Hadoop 分布式文件系统(HDFS)的近 4500 台服务器,数据量高达 5120 TB (5.12 PB),经分析,这批数据泄漏的近 4500 台 HDFS 服务器中以美国和中国为主。

互联网上暴露的 Hadoop 服务器如果没有配置认证均可能受影响,攻击者针对 HDFS 的攻击删除了大多数目录,并会添加一个名为「NODATA 4U_SECUREYOURSHIT」的新目录和「PLEASE_README」的目录,攻击者可能备份业务数据后在服务器上删除这部分数据,然后直接发送勒索邮件并索要勒索赎金。

该问题产生是由于管理员在配置失误所致,由于直接在云端上开放了 Hadoop 机器 HDFS 的 50070 web 端口及部分预设服务端口,骇客可以通过命令行操作多个目录下的数据,如进行删除操作,安全风险高。

用户可以透过人手方式检测端口是否开放到了公网。

Hadoop2.3-HA高可用集群环境搭建 http://www.linuxidc.com/Linux/2017-03/142155.htm

Hadoop项目之基于CentOS7的Cloudera 5.10.1(CDH)的安装部署  http://www.linuxidc.com/Linux/2017-04/143095.htm

Hadoop2.7.2集群搭建详解(高可用) http://www.linuxidc.com/Linux/2017-03/142052.htm

使用Ambari来部署Hadoop集群(搭建内网HDP源) http://www.linuxidc.com/Linux/2017-03/142136.htm

Ubuntu 14.04下Hadoop集群安装  http://www.linuxidc.com/Linux/2017-02/140783.htm

假如真的发生问题,可以进行以下修復措施:

  • 安装完 Hadoop 集群后,进行安全加固:
  • 按照安全最小化原则,禁止公网对这部分端口存取,如果因业务需要必须对外开放,请使用 ECS 提供的安全组策略指定存取 IP 存取端口业务,如无必要,关闭 Hadoop Web 管理页面;
  • 开启服务级别身份验证,如 Kerberos 认证;
  • 部署 Knox、Nginx 之类的反向代理系统,防止未经授权用户存取;
  • 使用交换机或防火墙策略配置访问控制策略 (ACL),将 Hadoop 预设开放的多个端口对公网全部禁止或限制可信任的 IP 地址才能存取包括 50070 以及 WebUI 等相关端口。

更多Hadoop相关信息见 Hadoop 专题页面 http://www.linuxidc.com/topicnews.aspx?tid=13

本文永久更新链接地址 http://www.linuxidc.com/Linux/2017-06/144855.htm


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

Effective STL中文版

Effective STL中文版

[美]Scott Meyers / 潘爱民、陈铭、邹开红 / 清华大学出版社 / 2006-1 / 30.00元

STL是C++标准库的一部分。本书是针对STL的经验总结,书中列出了50个条款,绝大多数条款都解释了在使用STL时应该注意的某一个方面的问题,并且详尽地分析了问题的来源、解决方案的优劣。一起来看看 《Effective STL中文版》 这本书的介绍吧!

JSON 在线解析
JSON 在线解析

在线 JSON 格式化工具

RGB HSV 转换
RGB HSV 转换

RGB HSV 互转工具

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具