上海古都建筑设计集团,上海办公室装修设计公司,上海装修公司高质量的内容分享社区,上海装修公司我们不是内容生产者,我们只是上海办公室装修设计公司内容的搬运工平台

Hadoop的基础操作

guduadmin21天前

Hadoop的基础操作

  • HDFS是Hadoop的分布式文件框架,它的实际目标是能够在普通的硬件上运行,并且能够处理大量的数据。
  • HDFS采用主从架构,其中由一个NameNode和多个DataNode
    • NameNode负责管理文件系统的命名空间和客户端的访问
    • DataNode负责存储实际的数据块

      HDFS的基本操作包括文件的上传,下载,删除,重命名等

      文件操作

      Hadoop的基础操作,[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-lM0WhMnI-1684976584539)(E:\Java笔记\大数据\Hadoop\Hadoop的基础操作\Hadoop的基础操作.assets\image-20230522092333144.png)],第1张

      Hadoop的基础操作,[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-EOfiOqXm-1684976584540)(E:\Java笔记\大数据\Hadoop\Hadoop的基础操作\Hadoop的基础操作.assets\image-20230522092349584.png)],第2张

      手动创建文件夹:

      语法:

      hadoop fs -mkdir 
      

      示例:

      # 创建文件夹(根目录创建名为input的文件夹)
      [root@master ~]# hadoop fs -mkdir /input
      # 创建文件夹(根目录创建名为user的文件夹)
      [root@master ~]# hdfs dfs -mkdir /user
      # 创建多级目录
      [root@master ~]# hdfs dfs -mkdir -p /user/resource/example
      

      手动上传文件

      语法:

      hadoop fs -put <本地文件路径> 
      

      示例:

      # 将本地/usr/text.txt 文件上传到input文件下
      [root@master ~]# hadoop fs -put /usr/text.txt /input
      # 将本地/usr/text.txt 文件上传到input文件下。-copyFromLocal:本地复制
      [root@master ~]# hdfs dfs -copyFromLocal /usr/text.txt /user
      # 将本地/usr/text.txt 文件上传到input文件下
      [root@master ~]# hdfs dfs -put /usr/text.txt /input
      # 将本地/usr/text.txt 文件上传到input文件下。-moveFromLocal:本地迁移
      [root@master ~]# hdfs dfs -moveFromLocal /usr/text.txt /user
      

      Hadoop的基础操作,[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-9osLRhW3-1684976584541)(E:\Java笔记\大数据\Hadoop\Hadoop的基础操作\Hadoop的基础操作.assets\image-20230522094753675.png)],第3张

      查看文件

      [root@master ~]# hadoop fs -ls /
      [root@master ~]# hdfs dfs -ls /
      

      下载文件

      语法:

      hadoop fs -get  <本地路径>
      hadoop fs -copyToLocal  <本地路径>
      

      示例:

      # 将user/text.txt文件下载到本地/usr/local/下      -copyToLocal:复制到本地
      [root@master ~]# hadoop fs -copyToLocal /user/text.txt /usr/local/
      [root@master ~]# cd /usr/local/
      [root@master local]# ll
      -rw-r--r--.  1 root   root           0 5月  22 09:51 text.txt
      [root@master ~]# hdfs dfs -copyToLocal /user/text.txt /usr/local/
      [root@master ~]# cd /usr/local/
      [root@master local]# ll
      -rw-r--r--.  1 root   root           0 5月  22 09:51 text.txt
      # 将user/text.txt文件下载到本地/usr/local/下
      [root@master local]# hadoop fs -get /user/resource/text.txt /usr/local
      [root@master local]# ll
      -rw-r--r--.  1 root   root           0 5月  22 09:54 text.txt
      # 将user/text.txt文件下载到本地/usr/local/下
      [root@master local]# hdfs dfs -get /user/resource/text.txt /usr/local
      [root@master local]# ll
      -rw-r--r--.  1 root   root           0 5月  22 09:54 text.txt
      

      查看文件内容

      语法:

      hdfs dfs -cat 
      

      示例:

      [root@master local]# hdfs dfs -cat /input/text.txt
      hello ,hadoop
      [root@master local]# hdfs dfs -tail /input/text.txt
      hello ,hadoop
      

      删除文件

      语法:

      hadoop fs -rm 
      

      示例:

      # 删除文件夹
      [root@master ~]# hdfs dfs -mkdir /user/resource
      [root@master ~]# hdfs dfs -rmdir /user/resource
      [root@master ~]# hadoop fs -rm -f /user/resource
      # 删除文件
      [root@master ~]# hdfs dfs -rm /user/resoure/text.txt
      [root@master ~]# hadoop fs -rm -r /user/resource/text.txt
      

      文件重命名

      语法:

      hadoop fs -mv  
      

      示例:

      [root@master ~]# hadoop fs -mv /input/test.txt /input/demo.txt
      

      查看集群的基本信息

      [root@master ~]# hdfs fsck /
      Connecting to namenode via http://192.168.184.130:50070/fsck?ugi=root&path=%2F
      FSCK started by root (auth:SIMPLE) from /192.168.184.130 for path / at Tue May 23 10:42:27 CST 2023
      /input/text.txt:  Under replicated BP-399935676-192.168.184.130-1684307575827:blk_1073741825_1001. Target Replicas is 3 but found 1 live replica(s), 0 decommissioned replica(s), 0 decommissioning replica(s).
      Status: HEALTHY
       Number of data-nodes:  1
       Number of racks:               1
       Total dirs:                    6
       Total symlinks:                0
      Replicated Blocks:
       Total size:    13 B
       Total files:   3
       Total blocks (validated):      1 (avg. block size 13 B)
       Minimally replicated blocks:   1 (100.0 %)
       Over-replicated blocks:        0 (0.0 %)
       Under-replicated blocks:       1 (100.0 %)
       Mis-replicated blocks:         0 (0.0 %)
       Default replication factor:    3
       Average block replication:     1.0
       Missing blocks:                0
       Corrupt blocks:                0
       Missing replicas:              2 (66.666664 %)
       Blocks queued for replication: 0
      Erasure Coded Block Groups:
       Total size:    0 B
       Total files:   0
       Total block groups (validated):        0
       Minimally erasure-coded block groups:  0
       Over-erasure-coded block groups:       0
       Under-erasure-coded block groups:      0
       Unsatisfactory placement block groups: 0
       Average block group size:      0.0
       Missing block groups:          0
       Corrupt block groups:          0
       Missing internal blocks:       0
       Blocks queued for replication: 0
      FSCK ended at Tue May 23 10:42:27 CST 2023 in 18 milliseconds
      The filesystem under path '/' is HEALTHY
      

      在Hadoop的集群的基本信息主要包含分布式文件系统HDFS和分布式资源管理YARN

      分布式文件系统HDFS主要包含文件系统的状态,是否有块丢失,备份丢失等,同时包含集群节点状态等。

      分布式资源管理YARN主要包含集群节点状态,节点资源(内存,CPU等),队列状态等

      Hadoop安全模式

      • 安全模式是保证系统保密性,完整性及可使用性的一种机制,一定程度上可以防止系统里的资源遭到破坏,更改和泄露,使得整个系统持续,可靠的正常运行。

      • Hadoop集群也有安全模式,在安全模式下可保证Hadoop集群中数据块的安全性。对Hadoop集群可以进行查看安全模式,解除和开启安全模式的操作,

        查看namenode是否处于安全模式

        Hadoop的基础操作,[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-XDZd0DrY-1684976584541)(E:\Java笔记\大数据\Hadoop\Hadoop的基础操作\Hadoop的基础操作.assets\image-20230523105942500.png)],第4张

        [root@master ~]# hdfs dfsadmin -safemode get
        Safe mode is OFF
        

        进入安装模式

        [root@master ~]# hdfs dfsadmin -safemode enter
        Safe mode is ON
        

        解除安全模式

        [root@master ~]# hdfs dfsadmin -safemode leave
        Safe mode is OFF
        

        执行MapReduce任务

        语法:

        hadoop jar   <输入路径> <输出路径>
        

        示例:

        [root@master ~]# hadoop jar wordcount.jar WordCount /user/hadoop/input /user/hadoop/output
        

        启动集群

        启动hadoop集群需要先启动NameNode和DataNode

        start-dfs.sh
        start-yarn.sh
        

        停止集群

        停止hadoop集群需要先停止YARN和HDFS

        stop-dfs.sh
        start-yarn.sh
        

        官方文档

        Hadoop文档 (apache.org)

网友评论

搜索
最新文章
热门文章
热门标签