欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

linux_HDFS節(jié)點(diǎn)缺失問(wèn)題及解析

 更新時(shí)間:2023年12月05日 09:26:17   作者:12級(jí)龍卷風(fēng)  
這篇文章主要介紹了linux_HDFS節(jié)點(diǎn)缺失問(wèn)題及解析,具有很好的參考價(jià)值,希望對(duì)大家有所幫助,如有錯(cuò)誤或未考慮完全的地方,望不吝賜教

一、背景介紹

現(xiàn)在虛擬機(jī)node1,node2,node3

使用:start-dfs.sh  一鍵啟動(dòng)HDFS集群

二、現(xiàn)象描述

1.查看node1的進(jìn)程啟動(dòng)情況

[root@node1 ~]#start-dfs.sh
[root@node1 ~]# jps
4145 Jps
2102 NameNode
2247 DataNode
[root@node1 ~]# 

2.查看node2的進(jìn)程啟動(dòng)情況

[root@node2 logs]# jps
3828 Jps
1800 DataNode
[root@node2 logs]#

3.查看node3的進(jìn)程啟動(dòng)情況

[root@node3 ~]# jps
3428 Jps
[root@node3 ~]# 

發(fā)現(xiàn)問(wèn)題:node3的datanode從節(jié)點(diǎn)沒(méi)有啟動(dòng)

三、問(wèn)題分析

1.一鍵啟動(dòng)配置是否出現(xiàn)問(wèn)題

一般系統(tǒng)配置不會(huì)出錯(cuò),第一次啟動(dòng)成功就說(shuō)明是好的。

2.異常:從節(jié)點(diǎn)自動(dòng)關(guān)閉或掉線(xiàn)

2.1.通過(guò)查看node3日志去排查問(wèn)題

日志路徑:/export/server/hadoop-3.3.0/logs/索要查看的日志文件

[root@node3 ~]# cd /export/server/hadoop-3.3.0/logs
[root@node3 logs]# cat hadoop-root-datanode-node3.itcast.cn.log
2023-06-06 07:24:31,896 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: RECEIVED SIGNAL 1: SIGHUP
2023-06-06 07:24:31,907 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: RECEIVED SIGNAL 15: SIGTERM
2023-06-06 07:24:31,914 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down DataNode at node3.itcast.cn/192.168.88.153
************************************************************/
[root@node3 logs]# 

注意:在查看日志的時(shí)候,上述方式會(huì)顯示從第一天啟動(dòng)開(kāi)始到現(xiàn)在的日志,這是一個(gè)很龐大的數(shù)據(jù)過(guò)程。

所以通過(guò)如下方式去查看node3的日志:

  • ①vim 進(jìn)入到日志文件
  • ②命令模式:通過(guò)/關(guān)鍵時(shí)間定位到固定日志查看

[root@node3 logs]# ll
total 7020
-rw-r--r-- 1 root root 6950235 Jun  6 11:31 hadoop-root-datanode-node3.itcast.cn.log
-rw-r--r-- 1 root root     692 Jun  6 11:26 hadoop-root-datanode-node3.itcast.cn.out
-rw-r--r-- 1 root root     692 Jun  5 21:33 hadoop-root-datanode-node3.itcast.cn.out.1
-rw-r--r-- 1 root root     692 Jun  5 18:15 hadoop-root-datanode-node3.itcast.cn.out.2
-rw-r--r-- 1 root root     692 Jun  5 07:15 hadoop-root-datanode-node3.itcast.cn.out.3
-rw-r--r-- 1 root root     692 Jun  4 22:44 hadoop-root-datanode-node3.itcast.cn.out.4
-rw-r--r-- 1 root root  205640 Jun  5 19:33 hadoop-root-nodemanager-node3.itcast.cn.log
-rw-r--r-- 1 root root    2201 Jun  5 18:19 hadoop-root-nodemanager-node3.itcast.cn.out
-rw-r--r-- 1 root root    2201 Jun  5 07:23 hadoop-root-nodemanager-node3.itcast.cn.out.1
-rw-r--r-- 1 root root       0 Jun  4 22:44 SecurityAuth-root.audit
drwxr-xr-x 2 root root       6 Jun  5 07:40 userlogs
[root@node3 logs]# vim hadoop-root-datanode-node3.itcast.cn.log
2023-06-05 21:33:37,872 INFO org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetImpl: Adding block pool BP-389489230-192.168.88.151-1685888665811
2023-06-05 21:33:37,873 INFO org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetImpl: Scanning block pool BP-389489230-192.168.88.151-1685888665811 on volume /export/data/hadoop-3.3.0/dfs/data...
2023-06-05 21:33:37,913 INFO org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetImpl: Time taken to scan block pool BP-389489230-192.168.88.151-1685888665811 on /export/data/hadoop-3.3.0/dfs/data: 41ms
2023-06-05 21:33:37,913 INFO org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetImpl: Total time to scan all replicas for block pool BP-389489230-192.168.88.151-1685888665811: 42ms
2023-06-05 21:33:37,915 INFO org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetImpl: Adding replicas to map for block pool BP-389489230-192.168.88.151-1685888665811 on volume /export/data/hadoop-3.3.0/dfs/data...
2023-06-05 21:33:37,915 INFO org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.BlockPoolSlice: Replica Cache file: /export/data/hadoop-3.3.0/dfs/data/current/BP-389489230-192.168.88.151-1685888665811/current/replicas doesn't exist 
2023-06-05 21:33:37,930 INFO org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetImpl: Time to add replicas to map for block pool BP-389489230-192.168.88.151-1685888665811 on volume /export/data/hadoop-3.3.0/dfs/data: 16ms
2023-06-05 21:33:37,930 INFO org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetImpl: Total time to add all replicas to map for block pool BP-389489230-192.168.88.151-1685888665811: 16ms
2023-06-05 21:33:37,931 INFO org.apache.hadoop.hdfs.server.datanode.checker.ThrottledAsyncChecker: Scheduling a check for /export/data/hadoop-3.3.0/dfs/data
2023-06-05 21:33:37,941 INFO org.apache.hadoop.hdfs.server.datanode.checker.DatasetVolumeChecker: Scheduled health check for volume /export/data/hadoop-3.3.0/dfs/data
2023-06-05 21:33:37,952 INFO org.apache.hadoop.hdfs.server.datanode.VolumeScanner: VolumeScanner(/export/data/hadoop-3.3.0/dfs/data, DS-151efa3b-8d41-483c-91d3-24c93d2871a2): no suitable block pools found to scan.  Waiting 1732279321 ms.
2023-06-05 21:33:37,955 WARN org.apache.hadoop.hdfs.server.datanode.DirectoryScanner: dfs.datanode.directoryscan.throttle.limit.ms.per.sec set to value above 1000 ms/sec. Assuming default value of -1
2023-06-05 21:33:37,955 INFO org.apache.hadoop.hdfs.server.datanode.DirectoryScanner: Periodic Directory Tree Verification scan starting in 7915082ms with interval of 21600000ms and throttle limit of -1ms/s
2023-06-05 21:33:37,961 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Block pool BP-389489230-192.168.88.151-1685888665811 (Datanode Uuid e7c67709-7680-4f33-81ed-50f6bbf48b46) service to node1/192.168.88.151:8020 beginning handshake with NN
2023-06-05 21:33:37,997 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Block pool BP-389489230-192.168.88.151-1685888665811 (Datanode Uuid e7c67709-7680-4f33-81ed-50f6bbf48b46) service to node1/192.168.88.151:8020 successfully registered with NN
2023-06-05 21:33:37,998 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: For namenode node1/192.168.88.151:8020 using BLOCKREPORT_INTERVAL of 21600000msecs CACHEREPORT_INTERVAL of 10000msecs Initial delay: 0msecs; heartBeatInterval=3000
2023-06-05 21:33:38,138 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Successfully sent block report 0x45e611d10c32cfb7,  containing 1 storage report(s), of which we sent 1. The reports had 4 total blocks and used 1 RPC(s). This took 5 msecs to generate and 83 msecs for RPC and NN processing. Got back one command: FinalizeCommand/5.
2023-06-05 21:33:38,138 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Got finalize command for block pool BP-389489230-192.168.88.151-1685888665811
2023-06-06 07:24:31,896 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: RECEIVED SIGNAL 1: SIGHUP
2023-06-06 07:24:31,907 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: RECEIVED SIGNAL 15: SIGTERM
2023-06-06 07:24:31,914 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down DataNode at node3.itcast.cn/192.168.88.153
************************************************************/
[root@node3 logs]# jps
3458 Jps
[root@node3 logs]# cd /export/server/hadoop-3.3.0/sbin
[root@node3 sbin]# ll
total 108
-rwxr-xr-x 1 root root 2756 Jun  4 21:10 distribute-exclude.sh
drwxr-xr-x 4 root root   36 Jun  4 21:10 FederationStateStore
-rwxr-xr-x 1 root root 1983 Jun  4 21:10 hadoop-daemon.sh
-rwxr-xr-x 1 root root 2522 Jun  4 21:10 hadoop-daemons.sh
-rwxr-xr-x 1 root root 1542 Jun  4 21:10 httpfs.sh
-rwxr-xr-x 1 root root 1500 Jun  4 21:10 kms.sh
-rwxr-xr-x 1 root root 1841 Jun  4 21:10 mr-jobhistory-daemon.sh
-rwxr-xr-x 1 root root 2086 Jun  4 21:10 refresh-namenodes.sh
-rwxr-xr-x 1 root root 1779 Jun  4 21:10 start-all.cmd
-rwxr-xr-x 1 root root 2221 Jun  4 21:10 start-all.sh
-rwxr-xr-x 1 root root 1880 Jun  4 21:10 start-balancer.sh
-rwxr-xr-x 1 root root 1401 Jun  4 21:10 start-dfs.cmd
-rwxr-xr-x 1 root root 5170 Jun  4 21:10 start-dfs.sh
-rwxr-xr-x 1 root root 1793 Jun  4 21:10 start-secure-dns.sh
-rwxr-xr-x 1 root root 1571 Jun  4 21:10 start-yarn.cmd
-rwxr-xr-x 1 root root 3342 Jun  4 21:10 start-yarn.sh
-rwxr-xr-x 1 root root 1770 Jun  4 21:10 stop-all.cmd
-rwxr-xr-x 1 root root 2166 Jun  4 21:10 stop-all.sh
-rwxr-xr-x 1 root root 1783 Jun  4 21:10 stop-balancer.sh
-rwxr-xr-x 1 root root 1455 Jun  4 21:10 stop-dfs.cmd
-rwxr-xr-x 1 root root 3898 Jun  4 21:10 stop-dfs.sh
-rwxr-xr-x 1 root root 1756 Jun  4 21:10 stop-secure-dns.sh
-rwxr-xr-x 1 root root 1642 Jun  4 21:10 stop-yarn.cmd
-rwxr-xr-x 1 root root 3083 Jun  4 21:10 stop-yarn.sh
-rwxr-xr-x 1 root root 1982 Jun  4 21:10 workers.sh
        at java.io.FilterInputStream.read(FilterInputStream.java:133)
        at java.io.BufferedInputStream.fill(BufferedInputStream.java:246)
        at java.io.BufferedInputStream.read(BufferedInputStream.java:265)
        at java.io.FilterInputStream.read(FilterInputStream.java:83)
        at java.io.FilterInputStream.read(FilterInputStream.java:83)
        at org.apache.hadoop.ipc.Client$Connection$PingInputStream.read(Client.java:562)
        at java.io.DataInputStream.readInt(DataInputStream.java:387)
        at org.apache.hadoop.ipc.Client$IpcStreams.readResponse(Client.java:1881)
        at org.apache.hadoop.ipc.Client$Connection.receiveRpcResponse(Client.java:1191)
        at org.apache.hadoop.ipc.Client$Connection.run(Client.java:1087)
2023-06-05 00:03:05,799 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: RECEIVED SIGNAL 15: SIGTERM
2023-06-05 00:03:05,805 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down DataNode at node3.itcast.cn/192.168.88.153
************************************************************/
2023-06-05 07:15:43,274 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting DataNode
STARTUP_MSG:   host = node3.itcast.cn/192.168.88.153
STARTUP_MSG:   args = []
STARTUP_MSG:   version = 3.3.0
@                                                                                                                                                                                                                                                                                                                                                                                @                                                                                                                                                                                         
/2023-06-05

  • 2.1.1.報(bào)錯(cuò)信息解析

報(bào)錯(cuò)信息:2023-06-06 07:24:31,896 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: RECEIVED SIGNAL 1: SIGHUP

①apache.hadoop.hdfs.server.datanode.DataNode:接收到的信號(hào)

②SIGHUP簽約雇用,簽約參加

③apache.hadoop軟件框架

報(bào)錯(cuò)信息:2023-06-06 07:24:31,907 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: RECEIVED SIGNAL 15: SIGTERM

①hdfs.server.datanode.DataNode: 配置數(shù)據(jù)存放的路徑

②RECEIVED SIGNAL 15: SIGTERM=》接收信號(hào)15:sigterm

③15: SIGTERM=》signal 15含意是使用不帶參數(shù)的kill命令時(shí)終止進(jìn)程,

  • 2.1.2.解決:

初步判斷,由于文件數(shù)據(jù)塊的原因造成datanode失聯(lián),手動(dòng)在node3執(zhí)行如下命令,重新啟動(dòng)node3上面的datanode節(jié)點(diǎn):

hadoop dfsadmin -refreshNode

2.2.通過(guò)HDFS瀏覽器網(wǎng)頁(yè)去查看

step1:

step2: 

step3:解決:

手動(dòng)在node3執(zhí)行如下命令,重新啟動(dòng)node3上面的datanode節(jié)點(diǎn):

hadoop dfsadmin -refreshNode

總結(jié)

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。

相關(guān)文章

  • 詳解Linux系統(tǒng)無(wú)法上網(wǎng)解決方案

    詳解Linux系統(tǒng)無(wú)法上網(wǎng)解決方案

    本篇文章主要介紹了詳解Linux系統(tǒng)無(wú)法上網(wǎng)解決方案,小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,也給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧
    2017-06-06
  • 輕松上手Linux,掌握這些基礎(chǔ)指令就夠了

    輕松上手Linux,掌握這些基礎(chǔ)指令就夠了

    想要成為L(zhǎng)inux高手嗎?掌握常用指令是關(guān)鍵!本指南將為你介紹最實(shí)用的Linux指令,讓你輕松管理你的系統(tǒng),從文件操作到系統(tǒng)監(jiān)控,我們將一步步引導(dǎo)你成為L(zhǎng)inux的行家里手,快來(lái)學(xué)習(xí)這些必備技能,讓你的工作效率飛速提升!
    2024-03-03
  • Gunicorn運(yùn)行與配置方法

    Gunicorn運(yùn)行與配置方法

    這篇文章主要介紹了Gunicorn運(yùn)行與配置方法,使用pre-fork worker模式,具有使用非常簡(jiǎn)單,輕量級(jí)的資源消耗,以及高性能等特點(diǎn)。對(duì)此感興趣的朋友跟隨小編一起看看吧
    2019-08-08
  • 在Ubuntu中如何查看網(wǎng)絡(luò)路由表詳解

    在Ubuntu中如何查看網(wǎng)絡(luò)路由表詳解

    這篇文章主要給大家介紹了關(guān)于在Ubuntu中如何查看網(wǎng)絡(luò)路由表的相關(guān)資料,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家學(xué)習(xí)或者使用ubuntu具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2018-12-12
  • 詳解Linux服務(wù)器配置——搭建SVN服務(wù)器

    詳解Linux服務(wù)器配置——搭建SVN服務(wù)器

    雖然在windows上搭建SVN很簡(jiǎn)單,但是效能卻不高,這當(dāng)然是和linux相比了,本篇文章主要介紹了Linux服務(wù)器配置——搭建SVN服務(wù)器,具有一定的參考價(jià)值,有興趣的可以了解一下。
    2016-12-12
  • linux下ceph分布式安裝使用教程

    linux下ceph分布式安裝使用教程

    大家好,本篇文章主要講的是linux下ceph分布式安裝使用教程,感興趣的同學(xué)趕快來(lái)看一看吧,對(duì)你有幫助的話(huà)記得收藏一下
    2021-11-11
  • Ubuntu16.04 安裝Teamviewer的教程詳解

    Ubuntu16.04 安裝Teamviewer的教程詳解

    這篇文章主要介紹了Ubuntu16.04 安裝Teamviewer教程,Teamviewer在linux下也可以進(jìn)行安裝,下面給出具體的安裝步驟,需要的朋友可以參考下
    2018-07-07
  • Linux內(nèi)核設(shè)備驅(qū)動(dòng)之內(nèi)存管理筆記整理

    Linux內(nèi)核設(shè)備驅(qū)動(dòng)之內(nèi)存管理筆記整理

    今天小編就為大家分享一篇關(guān)于Linux內(nèi)核設(shè)備驅(qū)動(dòng)之內(nèi)存管理筆記整理,小編覺(jué)得內(nèi)容挺不錯(cuò)的,現(xiàn)在分享給大家,具有很好的參考價(jià)值,需要的朋友一起跟隨小編來(lái)看看吧
    2018-12-12
  • linux 安裝setup.py程序的實(shí)現(xiàn)方法

    linux 安裝setup.py程序的實(shí)現(xiàn)方法

    今天小編就為大家分享一篇linux 安裝setup.py程序的實(shí)現(xiàn)方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2019-06-06
  • Ubuntu22.04系統(tǒng):fatal:?無(wú)法連接到?github.com

    Ubuntu22.04系統(tǒng):fatal:?無(wú)法連接到?github.com

    這篇文章主要介紹了Ubuntu22.04系統(tǒng):fatal:?無(wú)法連接到?github.com的相關(guān)資料,需要的朋友可以參考下
    2024-03-03

最新評(píng)論