almalinux 开放 hadoop使用端口
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28
| firewall-cmd --zone=public --add-port=8020/tcp --permanent firewall-cmd --zone=public --add-port=50070/tcp --permanent
firewall-cmd --zone=public --add-port=50090/tcp --permanent
firewall-cmd --zone=public --add-port=50010/tcp --permanent firewall-cmd --zone=public --add-port=50020/tcp --permanent firewall-cmd --zone=public --add-port=50075/tcp --permanent
firewall-cmd --zone=public --add-port=8032/tcp --permanent firewall-cmd --zone=public --add-port=8088/tcp --permanent firewall-cmd --zone=public --add-port=8042/tcp --permanent
firewall-cmd --zone=public --add-port=10020/tcp --permanent firewall-cmd --zone=public --add-port=19888/tcp --permanent
firewall-cmd --zone=public --add-port=16000/tcp --permanent firewall-cmd --zone=public --add-port=16030/tcp --permanent
firewall-cmd --zone=public --add-port=10000/tcp --permanent firewall-cmd --zone=public --add-port=10002/tcp --permanent
firewall-cmd --zone=public --add-port=7077/tcp --permanent firewall-cmd --zone=public --add-port=4040/tcp --permanent
firewall-cmd --permanent --zone=public --add-rich-rule='rule family="ipv4" source address="192.168.10.0/24" accept'
|
Hadoop 使用的端口取决于不同的组件和服务。以下是 Hadoop 中一些常见组件和服务以及它们使用的默认端口:
Hadoop HDFS:
NameNode: 默认端口是 8020 (RPC) 和 50070 (Web UI)
SecondaryNameNode: 默认端口是 50090 (Web UI)
DataNode: 默认端口是 50010 (数据传输), 50020 (IPC), 和 50075 (Web UI)
YARN (Yet Another Resource Negotiator):
ResourceManager: 默认端口是 8032 (RPC) 和 8088 (Web UI)
NodeManager: 默认端口是 8042 (Web UI)
MapReduce JobHistory Server:
默认端口是 10020 (RPC) 和 19888 (Web UI)
Hadoop HBase:
Master: 默认端口是 16000 (Web UI)
RegionServer: 默认端口是 16030 (Web UI)
Apache Hive:
默认端口是 10000 (Thrift JDBC/ODBC 服务) 和 10002 (Web UI)
Apache Spark:
默认端口是 7077 (Master), 4040 (Web UI), 和其他动态分配的端口