从安全角度来管理大数据的基本措施

当从严格的安全角度谈论大数据时,人们必须注意两个主要问题。第一是确保公司和该公司所持有的有关客户信息。第二个是如何正确使用大数据技术在安全风险来临之前进行分解和分析。

大数据

保护大数据

大多数企业已经在使用大数据进行研究和营销实践。不幸的是,其中一些企业不了解基本原则,即安全性。与其他每一个开发和发布的新技术一样,安全性是一个简单的事后考虑,但这却是一个重大问题。

随着越来越多的企业开始使用先进技术,需要更加强调在线业务安全。否则,人们将面临大数据泄露失控,对许多企业造成严重的法律后果,并且他们的声誉遭受重大损害。

一个主要的大数据问题是缺乏组织。随着业务所有者开始寻找其他方法来对从客户获得的信息进行分类,可以实施高级安全措施来帮助保护敏感数据。

部署大数据的安全措施

在日志系统上,管理传统安全信息和事件管理(SIEM)系统的开销所需的输出需求对于许多IT部门来说太多了。因此,大数据通常被视为某种节约,因为它可以用于帮助欺诈检测和其他主要问题。但大数据本身不是答案,企业必须能够始终保护自己的系统和信息。这是一个入侵检测系统(IDS)像Snort发挥作用。通过跟踪系统中的弱点并查看可疑活动,入侵检测系统可以帮助加强企业的安全防御,并在问题变成高级安全风险之前解决问题。

风险和技术

像任何新技术或实践一样,都会面临风险。这些风险需要被识别和理解。一旦企业了解这些风险,就可以采取措施来防止或克服这些风险。这里有一些应该注意的风险。

•开源代码-大数据实现通常包括某种类型的开源代码。这允许以前无法识别的后门进入系统。

•新的和未知的漏洞-大数据是许多企业所有者的一个新概念,因此,企业不知道他们在他们的系统中引入了额外的漏洞。

•身份验证问题-来自各个位置的用户身份验证和数据访问可能会受到正确监控和控制的问题。

•监管要求-未受培训的企业主很容易无法满足这些要求。在首先进入大数据解决方案之前,请适当地培训自己和员工。

•恒定监控-集群中的节点表面可能未得到正确审查,并在网络中留下软件点以用于入侵。

如果企业花时间研究大数据,就不可避免地要去了解Hadoop。Hadoop设计用于快速处理极大量的数据,而不管其结构如何。

Hadoop使用Google公司提供的MapReduce框架来解决生成网络搜索索引和日志的问题。MapReduce通过多个节点委派信息,消除了数据文件太大而无法在单个机器上存储和处理的问题。将此技术与当前的Linux服务器合并为大规模计算阵列提供了具有成本效益的解决方案。

Hadoop分布式文件系统允许集群中的服务器失败,并且不中止计算过程。这通过确保跨群集复制数据来完成。HDFS对其可以存储的数据没有限制。

专业技能

大数据是关于处理技术和输出,那么它是关于数据本身的大小。这意味着需要特定的技能集才能正确使用大数据。大数据分析专家目前供不应求,特别是在使用一些较旧的技术平台时。

随着Hadoop相关技术的不断发展,对于一个企业的需求,雇佣一名优秀的IT人员,这些非常具体的技能是至关重要的。数据挖掘,预测建模,内容分析,文本分析,多变量统计分析和社交网络分析等专家都非常需求。这些科学家和分析师与非结构化和结构化数据一起工作,为企业带来新的见解和智慧。还需要高需求的平台管理专家来启动Hadoop集群,以及管理,保护和优化它们。

在决定采用大数据之前,请确定自己清楚地了解所期望的内容,并预先了解人员和其他资源。通过制定明确的计划和目标,可以帮助扩展自己业务的信息安全的边界。对大数据了解的越多,实际上可能就是可怕的。这里要记住的重要事情是,大数据可以控制,就像火一样,既能为人提供方便,也有能力毁灭,需要得到人们的尊重。大数据就是如此,在可以利用其力量来改善业务之前,必须知道它能做什么和不能做什么。必须学会如何正确使用它,否则,可能会为企业业务带来更大的损害。