欢迎来到 wabc.cc 官方网站!

在郑州大数据培训的日子 朝着目标而奋勇前进

来源:推荐文章 / 时间:2025-12-21

  经过在千锋郑州大数据培训班这些日子的阶段性学习,自己完成了对Hadoop生态圈的学习,对于Linux的操作也越发的熟练,也有了一些自己的感悟。学习一个新的知识对目录结构的了解是十分重要的,以下是我对常用目录的总结。

wpsAC00_tmp.png

  1、sbin目录:存放启动或停止hadoop相关服务的脚本

  2、bin目录:存放对hadoop相关服务(HDFS,YARN)进行操作的脚本

  3、etc目录:hadoop的配置文件目录,存放hadoop的配置文件

  4、share目录:存放hadoop的依赖jar包和文档,文档可以被删除掉

  5、lib目录:存放hadoop的本地库(对数据进行压缩解压缩功能)

  6、conf目录:主要存放配置文件

  想要学好Hadoop文件系统,你首先要了解以下三个问题:

  1、什么是分布式文件系统?

  管理网络中跨多台计算机存储的文件系统称为分布式文件系统。

  2、为什么需要分布式文件系统了?

  原因很简单,当数据集的大小超过一台独立物理计算机的存储能力时候,就有必要对它进行分区并存储到若干台单独计算机上。

  3、分布式系统比传统的文件的系统更加复杂

  因为分布式文件系统架构在网络之上,因此分布式系统引入了网络编程的复杂性,所以分布式文件系统比普通文件系统更加复杂。

  4、Hadoop的文件系统

  很多同学会把hdfs等价于hadoop的文件系统,其实hadoop是一个综合文件系统抽象,而hdfs是hadoop旗舰级文件系统,hadoop除了hdfs还能集成其他文件系统。Hadoop的这个特点充分体现了hadoop的优良的可扩展性。

  Hadoop基础知识学完之后,我们还要学习Hadoop的一系列工具,每个工具都在大数据处理中有特定的功能,可以帮助我们更快更高效的解决问题,我们必须要熟练的掌握他们。

  有多少付出就有多少回报,在千锋郑州大数据培训班,我可能比别的同学少了一些基础,那我就要努力补回来!现在的日子虽然每天学习压力非常大,但我绝对不会放弃,要朝着自己的目标奋勇前进!

相关产品

在线客服
微信联系
客服
扫码加微信(手机同号)
电话咨询
返回顶部