hadoop 使用端口

almalinux 开放 hadoop使用端口

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
firewall-cmd --zone=public --add-port=8020/tcp --permanent
firewall-cmd --zone=public --add-port=50070/tcp --permanent

firewall-cmd --zone=public --add-port=50090/tcp --permanent

firewall-cmd --zone=public --add-port=50010/tcp --permanent
firewall-cmd --zone=public --add-port=50020/tcp --permanent
firewall-cmd --zone=public --add-port=50075/tcp --permanent

firewall-cmd --zone=public --add-port=8032/tcp --permanent
firewall-cmd --zone=public --add-port=8088/tcp --permanent
firewall-cmd --zone=public --add-port=8042/tcp --permanent

firewall-cmd --zone=public --add-port=10020/tcp --permanent
firewall-cmd --zone=public --add-port=19888/tcp --permanent

firewall-cmd --zone=public --add-port=16000/tcp --permanent
firewall-cmd --zone=public --add-port=16030/tcp --permanent

firewall-cmd --zone=public --add-port=10000/tcp --permanent
firewall-cmd --zone=public --add-port=10002/tcp --permanent

firewall-cmd --zone=public --add-port=7077/tcp --permanent
firewall-cmd --zone=public --add-port=4040/tcp --permanent

## 开放ip段
firewall-cmd --permanent --zone=public --add-rich-rule='rule family="ipv4" source address="192.168.10.0/24" accept'

Hadoop 使用的端口取决于不同的组件和服务。以下是 Hadoop 中一些常见组件和服务以及它们使用的默认端口:

Hadoop HDFS:

NameNode: 默认端口是 8020 (RPC) 和 50070 (Web UI)
SecondaryNameNode: 默认端口是 50090 (Web UI)
DataNode: 默认端口是 50010 (数据传输), 50020 (IPC), 和 50075 (Web UI)

YARN (Yet Another Resource Negotiator):

ResourceManager: 默认端口是 8032 (RPC) 和 8088 (Web UI)
NodeManager: 默认端口是 8042 (Web UI)

MapReduce JobHistory Server:

默认端口是 10020 (RPC) 和 19888 (Web UI)

Hadoop HBase:

Master: 默认端口是 16000 (Web UI)
RegionServer: 默认端口是 16030 (Web UI)

Apache Hive:

默认端口是 10000 (Thrift JDBC/ODBC 服务) 和 10002 (Web UI)

Apache Spark:

默认端口是 7077 (Master), 4040 (Web UI), 和其他动态分配的端口